Avec le développement des intelligences artificielles se posent de nombreuses questions sociétales. En particulier, comment définir une éthique de ce domaine ? Armen Khatchatourov, philosophe à Télécom École de Management et membre de la Chaire « Valeurs et politiques des informations personnelles » de l’IMT, observe et analyse avec attention les réponses proposées à cette question. L’une de ses principales préoccupations est de voir comment l’éthique tente d’être normée par un cadre législatif.
Dans la course effrénée de l’intelligence artificielle menée par les GAFA[1], aux algorithmes toujours plus performants ou aux décisions automatisées toujours plus rapides, l’ingénierie est reine, car porteuse de la très convoitée innovation. Quelle place reste-t-il alors au philosophe, dans cet univers technologique mettant le progrès au centre de tout objectif ? Peut-être celle d’observateur critique. Armen Khatchatourov, chercheur en philosophie à Télécom École de Management, décrit lui-même son approche comme celle « d’observer avec un recul nécessaire l’emballement général pour tout ce qui est nouveau ». Travaillant depuis plusieurs années sur les interactions homme-machine et les questions relatives aux intelligences artificielles (IA), il examine les potentiels effets néfastes de l’automatisation.
En particulier, il étudie les aspects problématiques de l’encadrement législatif des IA. Ses réflexions portent notamment sur « l’éthique by design ». Ce mouvement consiste à intégrer la prise en compte des aspects éthiques dès les étapes de conception d’un algorithme ou d’une machine intelligente au sens large. Bien qu’au premier abord témoin de l’importance que les constructeurs et développeurs peuvent accorder à l’éthique, « cette démarche peut, paradoxalement, être néfaste » selon le chercheur.
Éthique by design : les mêmes limites que la privacy by design ?
Pour illustrer son propos, Armen Khatchatourov prend l’exemple d’un concept similaire dans le domaine de la protection des données personnelles (privacy en anglais) : au même titre que l’éthique, ce sujet pose la question des manières dont nous nous conduisons envers les autres. La « privacy by design » est apparue vers la fin des années 1990 comme une réaction à la difficulté qu’a le droit à encadrer le numérique. Elle se présentait comme une réflexion globale sur l’incorporation des problématiques de protection des données personnelles dans le développement produit ou les processus métiers. « Le principal problème, c’est que la privacy by design prend aujourd’hui l’aspect d’un texte » regrette le philosophe, faisant référence au Règlement général sur la protection des données (RGDP) adopté en avril dernier par le Parlement européen. « Et les réflexions sur l’éthique prennent ce même chemin » ajoute-t-il.
D’après le chercheur, le principal biais néfaste d’une telle régulation normée au travers d’un texte est la déresponsabilisation des acteurs. « D’un côté, les ingénieurs et les designers risquent de se contenter d’être en accord avec le texte, explique-t-il. De l’autre, les consommateurs ne réfléchissent plus à leurs actions et font confiance aux labels attribués par les éventuels régulateurs. » Derrière cette banalisation, « le risque est de perdre tout esprit critique. Réfléchissons-nous vraiment au quotidien à ce que nous faisons sur le Web, ou sommes-nous guidés par une normativité qui est en train de s’installer ? » s’interroge le philosophe.
Même menace dans le cas de l’éthique. Sa seule formalisation textuelle trahit déjà la réflexivité dont elle est porteuse. « Cela reviendrait à figer la réflexion éthique » avertit Armen Khatchatourov. Il détaille sa pensée en se rapportant aux travaux des développeurs d’intelligences artificielles. Il arrive toujours un moment où l’ingénieur doit en effet traduire l’éthique par une formule mathématique à intégrer dans un algorithme. Concrètement, cela peut prendre la forme d’une décision dans le domaine éthique en fonction d’une représentation structurée de connaissances (ontologie en langage informatique). « Mais si on résume l’éthique à un problème de logique, c’est plus que problématique ! assène le philosophe. Pour un drone militaire par exemple, cela voudrait dire définir un seuil de nombre de morts civils à partir duquel la décision de tir est acceptable ? Est-ce souhaitable ? Il n’y a pas d’ontologie de l’éthique, et il ne faut pas se laisser emmener sur ce terrain là. »
Et les drones militaires ne sont pas le seul domaine concerné. Le développement des voitures autonomes est par exemple soumis à de nombreuses interrogations sur comment prendre une décision. Souvent, les réflexions éthiques se traduisent par des dilemmes. Typiquement, une voiture se dirigeant vers un mur qu’elle ne peut éviter qu’en écrasant une foule de piétons doit-elle sauver son passager, ou le sacrifier au détriment des vies des piétons ? Les raisonnements sont multiples. Le penseur pragmatique privilégiera le nombre de vies. D’autres souhaiteront que la voiture sauve quoi qu’il arrive son conducteur. Le Massachusetts Institute of Technology (MIT) a ainsi développé un outil numérique présentant de nombreux cas concrets et confrontant les internautes à des choix : la Moral Machine. Les résultats varient fortement selon les individus. Ils témoignent de l’impossibilité d’établir, pour le cas unique des voitures autonomes, des règles éthiques universelles.
L’éthique n’est pas un produit
Toujours selon l’analogie entre éthique et protection des données, Armen Khatchatourov relève un autre point, s’appuyant sur les réflexions du spécialiste en sécurité informatique Bruce Schneier. Ce dernier décrit la sécurité informatique comme un processus, et non un produit. Dès lors, celle-ci ne peut être assurée complètement ni par une démarche technique ponctuelle, ni par un texte législatif, car tous les deux n’ont de validité qu’à un instant donné. Bien que des mises à jour soient possibles, elles prennent souvent du temps et sont par principe en décalage avec les problèmes actuels. « La leçon de la sécurité informatique est que nous ne pouvons pas nous fier à une solution préfabriquée, et qu’il faut réfléchir en termes de processus et d’attitudes à adopter. Si nous pouvons risquer ce parallèle, il en est de même dans les problèmes éthiques soulevés par l’IA » pointe le philosophe.
D’où l’intérêt de penser l’encadrement des processus comme la privacy ou l’éthique à une échelle différente de celle des lois. Pour autant, Armen Khatchatourov reconnaît la nécessité de ces dernières : « Un texte normatif n’est sans doute pas la solution à tout, mais s’il n’y pas de débat législatif, témoin d’une certaine prise de conscience collective, c’est encore plus problématique. » Cela montre bien la complexité d’un problème auquel personne n’est en mesure d’apporter de solution actuellement.
[1] GAFA : acronyme désignant les entreprises Google, Amazon, Facebook et Apple.
L’intelligence artificielle à l’Institut Mines-Télécom
Le 8e cahier de veille de la Fondation Télécom sorti en juin 2016 est dédié à l’intelligence artificielle (IA). Il dresse un état de l’art de la recherche dans le monde sur ce sujet, et présente les nombreux travaux existants au sein des écoles de l’Institut Mines-Télécom dans ce domaine. En 27 pages, ce cahier de veille définit ce qu’est l’intelligence (rationnelle, naturaliste, systémique, émotionnelle, kinesthésique…), visite l’histoire de l’IA, questionne les perspectives qui s’ouvrent et pose la question de son appropriation par l’humain.
Pas mal comme analyse, c’est très détaillée. C’est très difficile d’associer sécurité informatique et l’intelligence artificielle. Il y a beaucoup d’enjeux dans ces domaines.
« Bel article et super approche, certes ‘Intelligence artificielle est plus performante ou aux décisions automatisées toujours plus rapides! Aymeric Inpong »