Temps de lecture : 3 minutes
mots-clés : IAG, IGA, AGI, AIG, intelligence artificielle, Scientence Institute, survey, Amérique, 2023, Open AI, singularité, peur
Chers lecteurs, chères lectrices,
Le Scentience Institute (NY), qui pourrait être traduit par l’ « Institute de la connaissance sensible » pour être précis, est un Think Tank américain qui travaille avec des docteurs et chercheurs sur le domaine spécifique d’une science consciente de son environnement. En d’autres termes, cet institut met toujours en balance la relation d’une découverte scientifique avec son impact sur la société dans ses recherches. Il prête d’ailleurs une attention toute particulière sur la recherche animale, s’inspirant ici de l’hypothèse de Gaia par James Lovelock considérant que l’homme fait partie d’un système global et n’en est pas le dessus de la pyramide.
Ils se définissent comme suit (extrait de leur site):
« Le Sentience Institute est un groupe de réflexion interdisciplinaire à but non lucratif qui étudie les changements sociaux et technologiques à long terme, en particulier les esprits numériques et l’expansion du cercle moral. Nous rendons nos résultats de recherche publics et gratuits, afin que les individus et les institutions puissent les utiliser pour rendre le monde meilleur. »
Nous préciserons encore que rien ne laisse transparaitre dans cet institut un quelconque ostracisme religieux. Ce sont juste des humanistes.
L’objet de la recherche : « Public Opinion on AI Safety », publié le 10 septembre 2023.

La mise en contexte était nécessaire pour développer ce qui suit : l’Institut a réalisé un sondage d’opinion sur la relation des Américains avec le développement de l’IA générative (AIG). En complément, ils ont sollicité le panel pour savoir ce que pensaient les Américains du futur avec les IA et, plus particulièrement l’arrivée de l’AGI (IA générale), en d’autres termes une machine qui a la capacité de penser comme l’humain.
Notre analyse va se concentrer sur l’analyse des craintes pour le futur. En effet, cette étude qui a un an rejoint de nombreuses autres études qui font transparaitre les craintes générales envers l’IA. Plus particulièrement la volonté de régulation, le manque de confiance entre les LLM (systèmes de langages qui vous permettent d’utiliser l’IA) et leurs créateurs… Comme le patron d’Open AI. On note au passage que cette étude est sortie avant la rocambolesque démission de Sam Altman et ensuite de son board à la fin de l’année 2023… certains jugeant que le fondateur d’Open AI était bien trop engagé dans la fuite en avant vers le transhumanisme et l’immortalité qui en découle, utilisant au passage Open AI à ce dessein.
Que pensent les Américains sur le futur de l’IA ?

En substance, les échantillons de populations sélectionnées (comme dans n’importe quel sondage) montrent que près de 65% des Américains supportent les campagnes de ralentissement du développement des technologies IA. Actuelles. Pour rappel, nous étions aussi au moment où Elon Musk proposa avec d’autres scientifiques de ralentir la recherche pendant 6 mois. Ce que lui-même n’a pas mis en application.
La notion de « risque » est plus nuancée avec un quasi 50/50. En revanche, lorsqu’on parle d’une AGI, plus de 57% approuvent et par crainte des conséquences de cette découverte. Les personnes interrogées estiment que l’IA présente un risque existentiel et font preuve de prudence à l’égard du développement de technologies d’IA liées à la sensibilité (comportement similaire aux humains).
Il apparait que les gens s’inquiètent de la sécurité par l’IA et son avenir : la plupart des personnes interrogées pensent que la sécurité de l’IA est l’une des questions les plus importantes dans le monde actuel (72,4 %), avec la crainte que l’IA ne provoque l’extinction de l’humanité (47,9 %).
Analyse

Ce qui nous interpelle (et pourtant bien compréhensible), c’est que la majorité des personnes sont pleinement conscientes des risques de l’intelligence générale et artificielle. En fait, il ne fait plus beaucoup de doute que la machine dépassera l’humain. L’étude montre que la plupart des gens estiment cette évolution dans les 20 prochaines années… Ce que Ray Kurtzweil, techno évangéliste de Google/Alphabet a prédit depuis plus de 15 ans. Dans le même temps, les mêmes personnes désirent que ces recherches soient très contrôlées, voire stoppées. Ainsi, ils demandent l’interdiction :
- Du développement d’une AGI plus intelligente que les humains (M = 4,63, accord = 62,9 %).
- Du développement de la sensibilité dans les robots et les IA (M = 4,81, accord = 69,5 %).
- Du développement d’humains améliorés par l’IA (M = 4,91, accord = 71,1 %).
- Du développement d’hybrides robot-homme (M = 4,99, accord = 72,3%).
- Des centres de données suffisamment grands pour former des systèmes d’IA plus intelligents que les humains (M = 4,62, accord = 64,4 %).
Toutefois, le paradoxe est que lorsqu’on demande aux gens s’ils font confiance aux IA de type ChatGPT, et qu’un panel de 13 IA disponibles à l’usage est proposé, c’est celle qui est la plus utilisée qui donne le plus de confiance, en l’occurrence ChatGPT d’Open IA pour traiter des données par des algorithmes. De la même manière, lorsque l’Institut sollicite les personnes pour répondre aux sentiments que le panel trouverait utile d’intégrer aux IA, les termes « respect », « moralité », etc., sont fortement exprimés.

Finalement, et comme je suppose beaucoup de lecteurs qui lisent cet article, le panel démontre que nous sommes arrivés à un point de rupture technologique sans pareil : nous savons /appréhendons l’arrivée d’une intelligence générale et artificielle qui sera l’égal de l’homme. Nous sommes bien conscients des risques et de la dangerosité de ce moment de rupture, toutefois nous ne pouvons nous empêcher d’aller de l’avant et de prendre le risque de « voir à quoi cela va ressembler ». Car le problème est bien là : la singularité, personne ne sait ce que cela peut donner après… comme nous ne savons toujours pas ce qu’il y a dans un trou noir même si nous pouvons mesurer l’énergie absorbée.
Globalement, retenez une chose : le temps se précise et nous risquons bien de ne pas nous souvenir du milieu de siècle qui ne sera pas celui qu’on prédit aujourd’hui.
Bonne et belle journée à vous.
En complément, liens vers l’étude complète :
Références DOI : Opinion publique sur la sécurité de l’IA, Janet Pauketat, Justin Bullock et Jacy Reese Anthis – 10 septembre 2023
Merci pour le suivi de notre blog-à-idées ou à réflexions, c’est toujours agréable d’être lu et vous êtes de plus en plus nombreux (+ de 1 000 par mois en, moyenne). N’hésitez pas à commenter, c’est aussi une place de débats. Et surtout, merci de partager si vous soutenez nos réflexions ou recherches.
Pascal SIMOENS Architecte et urbaniste, data Scientist. Expert Smart Cities. J’ai commencé ma vie en construisant des villes en Lego, j’en ai fait mon métier. Geek invétéré, aujourd’hui je joins mes passions du numérique et de la ville au travers d’une expertise smart Cities et smart-buildings en travaillant en bureau d’étude (Poly-Tech Engineering) et j’enseigne cette même expertise à l’UMONS et l’ULB.
This post is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.
