RE-Blog : Données et enjeux géopolitiques.

Temps de lecture : 22 minutes pour le rapport complet (en anglais)
Mots clés : data, dataification, géopolitique, machine learning

les données circules dans le monde. carte des câbles sous-marins régulant la circulation des données dans le monde. source : Medium, 2017

Histoire de bien commencer la semaine, je vous soumets un papier du HARVARD Kennedy School for Science and International Affairs qui a publié en may un document très intéressant sur les liens entre la géopolitique et le développement/traitement des données. Un regard cinglant sur l’enjeu de l’ « or noir du 21e siècle ». Évidemment, ce rapport est américano-centré mais mérite votre attention si vous travaillez dans le domaine des données au sens large. Il permet de mieux comprendre certaines logiques et compréhensions systémique des enjeux géopolitiques de demain au travers des technologies de dataification de notre monde.

le rapport décline 4 enjeux :

Premièrement, la pénétration mondiale d’Internet a révolutionné le potentiel de l’information pour influencer d’autres acteurs.
Deuxièmement, les progrès de l’apprentissage automatique (un sous-ensemble de l’IA) permettent aux entités ayant accès à des quantités importantes de données brutes de prendre de meilleures décisions. 
Troisièmement, les données et informations jouent désormais un rôle central dans la capacité des nations à créer la richesse et la prospérité essentielles aux économies développées.
Quatrièmement, il est évident de constater que les progrès de l’Internet, du mobile et des technologies connexes ont révolutionné la vitesse, l’échelle et l’étendue de la capacité des acteurs à communiquer des informations. 

En voici un morceau choisi pour introduire le sujet :

«La valeur des données pour l’homme a toujours été limitée par le problème de la «surcharge d’informations»: en d’autres termes, il y a des limites à la quantité d’informations que les humains peuvent collecter de manière faisable et, plus nous avons d’informations, plus il devient difficile de leur donner un sens. Le recensement américain de 1880, par exemple, n’a posé que 26 questions mais a pris huit ans à traiter. Même les machines du 20e siècle ont eu du mal à traiter rapidement les informations, ce qui signifie que les décisions reposaient souvent sur des ensembles de données limités, des sentiments intimes ou une combinaison des deux. Aujourd’hui, les progrès de la puissance de traitement informatique et de l’apprentissage automatique   (un sous-ensemble de l’IA, machine learning en bon anglais, ndlr) résolvent le problème de surcharge d’informations. En effet, les systèmes d’apprentissage automatique fonctionnent mieux lorsqu’ils sont confrontés à de vastes ensembles de données, car d’énormes quantités de données initiales de «formation» et de données de «rétroaction» continues leur permettent d’affiner leurs algorithmes au fil du temps pour produire de meilleurs résultats. Dans le même temps, des milliards de puissants capteurs informatiques (Objets connectés, ndlr) sont désormais intégrés dans des appareils personnels, domestiques et industriels connectés à Internet dans le monde entier. Dans un phénomène que les gourous du big data Viktor Mayer-Schönberger et Kenneth Neil Cukier appellent «dataification » .

Le rapport à lire ici: The Geopolitics of Information, Eric Rosenbach & Katherine Mansted, mai 2019

Bonne lecture !

Pascal SIMOENS Architecte et urbaniste, Data Curator. Spécialiste Smart Cities et données urbaines, Université de Mons, Faculté d’architecture et d’urbanisme

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s