Dans mes précédents Posts, je vous parlais des algorithmes qui prédisent les crimes et aident la police dans leurs méthodes prédictives des crimes. Mieux, en Chine, un nouveau logiciel va réellement prédire les crimes et donc permettre l’arrêt de personnes suspectes avant que leurs actes soient posés. Inutile de dire que de nombreuses questions d’éthiques sont sous-jacentes à ces questions qui, comme souvent, sont encore embryonnaires en Europe alors qu’aux USA, plusieurs Think thank se mettent en place en plus d’une littérature scientifique émergeante. Il est donc grand temps d’entamer ces réflexions en Europe a défaut de se retrouver sous une nouvelle forme de dictature, la dictature des logiciels.
DEFINITION D’UN CONCEPT : LE « MACHINE BIAS »
Le Machine bias est le mot-concept américain qui définit le principe d’encodage des algorithmes et la relation entre celui qui écrit le logiciel et les résultats données. Il signifie que, quel que soit un logiciel et son mode d’écriture, selon l’un ou l’autre programmeur, le résultat sera le même mais la manière d’y arriver pas nécessairement. Lorsqu’on comment à travailler avec des milliers de données, ces écritures différenciées peuvent induire des erreurs statistiques qui modifieront les analyses et donc résultats.
Un constat relevé par Matthias SPIELKAMP dans son article Inspecting Algorithms for Bias (MIT, 12 juin 2017) et relatant l’étude menée par ProPublica, une ONG qui a décelé dans un logiciel d’aide à la décision pour la justice américaine (COMPAS) que ce logiciel avait un « bias » raciste en considérant que les noirs étaient considérés plus comme récidivistes que les blancs. Or, l’algorithme agrégateur de ces décisions s’appuie uniquement sur des critères de localisation, formation, âge, lieu de vie, et l’ensemble des statistiques de récidives. A situation équivalente, les statistiques démontrent que les noirs ne sont pas plus récidivistes que les blancs. Pourtant, la machine aurait tendance, en traitant les statistiques, de considérer que les noirs risques plus que les blancs de s’extraire une nouvelle fois de la loi. Seul un machine bias peut expliquer cela, c’est-à-dire que les programmateurs du logiciel ont induit involontairement une analyse subjective dans l’algorithme.
LE PARADOXE
Les pouvoir publics vont de plus en plus utiliser les logiciels dans leurs tâches et il en est heureux ainsi, car dans la grande majorité des cas, la Machine fera beaucoup moins d’erreur que l’être humain. Toutefois, lorsqu’il devient question des vies humaines, de nouvelles questions se posent. C’est le cas, par exemple des futurs avions sans pilotes et dont il fut beaucoup question pendant cette dernière période estivale. Plus encore, lorsqu’il est question de justice.
Ce qui pose le plus question, c’est que les nouveaux utilisateurs tels que les policiers, juges, banquiers, ne sont pas mis au courant de ce risque. Nous nous retrouvons ainsi dans une démarche où les humains font pleinement confiance à des machines qui sont elles-mêmes pensées par des humains et donc faillibles.
A nouveau, nous nous retrouvons face à la question d’éducation et de l’apprentissage dans une société en pleine mutation.
Pour compléter votre lecture :
Biased Algorithms Are Everywhere, and No One Seems to Care | Will Knight | 12 juillet 2017 | MIT Review
How to Upgrade Judges with Machine Learning | Tom Simonite | 6 mars 2017 | MIT Review
The Financial World Wants to Open AI’s Black Boxes | Kill Knight | 13 avril 2017
Breaking News: A Big Victory in Court in Houston | Audrey Amrein-Beardsley |5 mai 2017 | blog Vamboozled !
It’s the age of the algorithm and we have arrived unprepared | http://www.oneilrisk.com/