En 1990 Paul Ricoeur définissait l’éthique comme « une discipline philosophique pratique et normative visant à indiquer comment les êtres humains doivent se comporter envers ce et ceux qui les entourent ». Laurence Devillers (chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi-CNRS) et professeure en informatique appliquée et intelligence artificielle à Sorbonne Université) explore depuis plus de vingt ans les interactions entre humains et machines et souligne en introduction à son intervention au Club combien l’éthique est un processus dynamique, par essence évolutif au fur et à mesure des avancées scientifiques, auxquelles elle doit s’adapter en permanence, pour anticiper des dérives, lutter contre des risques.
Depuis une dizaine d’années, elle travaille plus précisément sur l’affective computing, au carrefour entre psychologie, informatique et sciences cognitives en alimentant trois grands types de recherches : la reconnaissance des affects humains par les machines, leur raisonnement à partir de ces informations et l’expression d’affects par les machines en retour.
Elle s’intéresse notamment au nudge (le fameux « coup de pouce », une notion d’économie comportementale définie par Richard Thaler, prix Nobel d’économie 2017) qui utilise les biais cognitifs des individus pour les inciter à adopter un comportement en les influençant en douceur, sans donner l’impression de les contraindre… Ainsi, « Bad Nudge, Bad Robot » est le nom du projet de recherche pluridisciplinaire (économistes, linguistes, psychologues et informaticiens) auquel elle participe à l’Institut Dataia (fondé par Noza Boujemaa, que le Club des vigilants avait reçue il y deux ans pour nous parler des algorithmes). Son travail consiste à tester des techniques de nudge lors d’interactions vocales entre des « agents conversationnels », les fameux « chatbots », et des populations plus ou moins vulnérables pour évaluer leurs capacités d’influence…donc de manipulation potentielle.
Sa connaissance scientifique très « concrète » (ses projets de recherche l’amènent à travailler avec des industriels, des Ehpads, des centres d’appel, des écoles…) l’a inclinée tout naturellement à défendre la nécessité de mettre en place une véritable éthique face à ces « robots émotionnels ».
Elle fait ainsi partie du tout nouveau Comité pilote d’éthique du numérique, CPEN, créé en décembre 2019 au sein du Comité consultatif national d’éthique, où elle coordonne un rapport sur « l’éthique des agents conversationnels ».
Les risques de la méconnaissance
Laurence Devillers met en avant deux grandes séries de risques, essentiellement liés à la méconnaissance des capacités réelles de ces « robots émotionnels », sous-estimées ou au contraire surestimées.
La sous-estimation des capacités des machines induit le risque de se faire « manipuler », l’utilisateur n’ayant pas vraiment conscience que certes, il s’agit de « machines », mais programmées par des humains qui utilisent des « nudges », avec des intentions qui ne sont pas toujours claires, affichées, explicites.
La surestimation des capacités des machines induit quant à elle le risque de céder à des fantasmes qui engendrent de la peur ou une séduction irrationnelle, voire une crédulité excessive face à de vrais mensonges affirmés avec certitude par des soi-disant « experts ».
Ceci est parfois allègrement relayés par des médias qui s’engouffrent dans le piège de la crédulité, eux aussi par méconnaissance. Ainsi par exemple récemment avec le fameux implant cérébral d’Elon Musk : « c’est de la totale science-fiction et pourtant l’on n’assiste à aucune levée de bouclier. On ne va pas lire le cerveau des gens et le reproduire sur machine…et le mettre dans le cerveau d’un autre ! ». Cela contribue ainsi à engendrer des peurs (cas fréquent pour tout ce qui concerne « l’hybridation homme-machine »).
Au total, l’ignorance face à ce qu’est « l’IA » est encore forte. Laurence Devillers s’amuse à reconstituer un mini dialogue : à quelqu’un qui s’effraye devant l’horreur de l’IA, elle répond « mais mon gars, l’IA, tu l’as dans ta poche …et dans ta voiture ! »
Eduquer et informer pour démystifier l’IA et permettre de prendre de la distance face à ces « machines »
Il n’y a aucun doute à avoir : dès qu’il s’agit de puissance de calcul, dans un univers « borné » (par exemple avec des règles très claires, comme au jeu de Go), ou de calcul très précis d’un angle comme pour des jeux vidéo où le joueur doit avoir des capacités de tireur d’élite, la machine est bien supérieure à l’homme !
Mais il est tout aussi clair que « la recopie de l’homme sur la machine est un leurre total » ! « La machine ne va pas comprendre toute seule. On lui donne à manger… »
Il est essentiel de comprendre et d’expliquer la frontière entre l’humain et la machine, pour être bien conscient qu’on a affaire à des machines.
Ainsi les robots par exemple :
- n’ont aucun « sens commun », et notamment aucune capacité d’« affordance » (la capacité à projeter une fonction, un usage, sur un objet que l’on n’a jamais vu). La finesse de compréhension d’un objet est spontanée chez l’homme, alors qu’il faut la programmer pour chaque objet…sinon la machine ne le reconnaît pas
- n’ont pas de corps… or le cerveau fait partie du corps, il n’y a pas de frontière entre le corps et le cerveau (cf. Spinoza), l’homme ne peut pas être réduit à des programmes informatiques qui ne prendraient en compte que la partie cérébrale… Car, comme le montrent les travaux de Daniel Kahneman, prix Nobel d’économie, nos émotions et notre « instinct » jouent un rôle essentiel dans nos prises de décisions[i].
- donc pas de ressenti et pas de conatus (envie de survivre)
Ainsi, « une machine peut interpréter les signes qu’on lui envoie, mais elle ne peut certainement pas lire la pensée » … « On lui apprend que tel signe signifie telle émotion, elle lit l’expressivité, pas ce qu’on pense fondamentalement ».
In fine, les robots dits « émotionnels » constituent sans doute une vraie opportunité : une meilleure connaissance de ces machines nous permettra d’avoir également une meilleure connaissance de ce que nous-mêmes, humains, « sommes » … avec tous nos biais cognitifs, dont nous sommes la plupart du temps inconscients.
Les avancées des neurosciences sont essentielles aujourd’hui et font progresser notre compréhension de la complexité de notre cerveau… « mais n’expliquent toujours pas le substrat de la pensée humaine » …
Soyons donc tous vigilants et…peut-être un peu plus scientifiques !
Laurence Devillers l’a répété à plusieurs reprises : aujourd’hui, ce qui fait cruellement défaut, ce sont des « repères ». Que seule la science peut apporter. Et qu’ensuite la loi doit mettre en musique pour réguler une « matière » par essence évolutive dont il faut anticiper des effets pervers, des « risques » ou dérives.
Elle émaille ses interventions de recommandations pour permettre de vivre en bonne intelligence avec ces « machines douées d’IA ».
Au premier chef sans doute, l’impératif d’une vraie éducation du grand public. Notre époque technologique nécessité un minimum d’éducation scientifique. « Il faut faire confiance à la science pour apporter des repères, mais il faut aussi apprendre ce qu’est une probabilité, une mesure de risque ».
Elle évoque aussi la nécessité de mettre en place avec les concepteurs une véritable « éthique par le design » ainsi qu’une éthique des usages, avec des moyens à mettre en œuvre pour « évaluer les machines ». « Il faut pousser les concepteurs, comme les utilisateurs, à comprendre l’importance de l’éthique ». « Personne n’a envie que lui-même ou ses enfants deviennent dépendants de machines » … « Il faut comprendre comment on risque d’être dépendant ET comment on va grandir grâce à ces machines ». Ainsi suggère-t-elle de renforcer les moyens de la CNIL (ou de créer une instance spécifique dédiée) pour mener des audits, évaluer les machines.
La loi aussi doit venir soutenir l’élaboration de cette éthique. Ainsi par exemple de premières lois ont été votées en Californie qui imposent que les machines qui sont là pour converser avec des humains (« agents conversationnels ») se présentent comme telles et que l’utilisateur sache si une machine qu’il utilise est autonome (robot) ou pilotée par quelqu’un (« cobot »).
Soutenir plus fortement la recherche scientifique française, à la pointe sur ces domaines, est dans ce contexte une évidence…peut-être insuffisamment comprise des politiques.
Enfin, il est nécessaire de réfléchir à plus long terme sur les changements potentiels de « valeurs » que l’utilisation de ces machines peut induire chez ceux qui les utilisent (elle évoque en introduction les impacts possible de l’IA sur « le futur du travail » … Nous vous laissons avoir le plaisir de découvrir ses propos en regardant la vidéo de la Matinale !)
---------------------------------------------------------
A propos de Laurence Devillers
Auteure de plus de 150 publications scientifiques ainsi que du livre « Des robots et des hommes, mythes, fantasmes et réalité » (Plon, 2017), Laurence a publié en mars aux éditions de l’Observatoire « Les robots émotionnels. Santé, surveillance, sexualité… : et l’éthique dans tout ça ? » ainsi qu'un petit essai sur "La souveraineté numérique dans l'après-crise".
Très engagée sur la question d’une éthique de l’IA à coordonner mondialement, Laurence est experte en traitement du langage, apprentissage machine, dialogue homme-machine, "affective computing" et éthique appliquée à l'IA. Elle mène des recherches sur la détection des émotions et les dimensions affectives et sociales dans les interactions parlées, notamment avec des robots.
Elle travaille sur le projet BAD-nudge BAD-robot de l'institut DATAIA. Membre de la Commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA) d'Allistène, elle a travaillé notamment sur les biais de l'apprentissage machine. Elle a participé à la rédaction du rapport sur l’éthique de la recherche en robotique, et a dirigé celui sur l’éthique de la recherche en apprentissage machine. Elle coordonne actuellement un rapport sur l’éthique de la recherche sur les agents conversationnels.
[i] NDLR : Kahneman décrit les deux systèmes qui régissent notre façon de penser : ce qu'il appelle le "système 1" est rapide, intuitif et émotionnel ; le "système 2" est plus lent, plus réfléchi, plus contrôlé et plus logique. Il explore dans ses travaux le rôle de l'émotion dans nos choix et nos jugements, mais aussi les défauts de la pensée intuitive et les ravages des partis pris cognitifs.
Ajouter un commentaire