Par Gérard Dubey, chercheur à Télécom École de Management.
Tribune rédigée en partenariat avec The Conversation.
1. Toute activité humaine (travail ou hors travail, professionnelle ou non) que l’on peut formaliser ou traduire en procédures peut être codifiée et potentiellement transférée à des machines (c’est-à-dire des dispositifs externes). L’histoire de l’automatisation est l’histoire de ces transferts successifs, cantonnée aux savoir-faire manuels dans un premier temps (phase taylorienne – fordienne), aux dimensions cognitives et intellectuelles dans un deuxième temps (phase algorithmique des experts artificiels et autres systèmes dits intelligents). C’est dans cette seconde phase, dite aussi numérique, que nous nous trouvons aujourd’hui. Il n’y a donc pas de rupture de modèle à proprement parler. Le seul changement concerne l’accélération et le perfectionnement de ce processus induits cette fois par la puissance de calcul des ordinateurs (loi de Moore) conjuguée à la miniaturisation des composants électroniques.
2. L’automatisation « partielle » d’activités très qualifiées, comme le pilotage d’un avion de ligne, a été réalisée dés les années 1980 (avec le Flight Management System par exemple). Le niveau de qualification professionnelle, longtemps considéré comme un frein « naturel » à la substitution de pans entiers de l’activité humaine à des machines ne semble aujourd’hui plus jouer qu’à la marge. L’automatisation, comme la robotisation, concerne aujourd’hui des activités aussi diversifiées que l’aide à la personne (voire les projets de robots « compagnons » tels Paro, Bao, NurseBot, Nao, Aibo, My Real Baby…), la chirurgie, le pilotage de systèmes complexes, le diagnostic médical, le métier de caissière, aujourd’hui les métiers de la finance et de l’assurance ou bien encore le journalisme.
3. Encore faut-il introduire ici plusieurs bémols et lancer quelques avertissements, moins pour se rassurer sur ce qui est en train d’advenir, que pour poser les bonnes questions.
Tout d’abord, il faut rappeler que le travail prescrit, quel que soit son niveau de formalisation et de standardisation, ne recouvre jamais la totalité du travail humain compris comme activité. C’est ce que la sociologie nous apprend. Cela veut dire que toute activité humaine est interprétation et ajustement de la règle prescrite aux situations changeantes de la vie. L’humain a pour caractéristique, parce qu’il sait ce que mourir veut dire, de pouvoir imaginer qu’à tout moment de l’inconnu peut surgir.
Ce pouvoir d’interprétation et de création de sens n’est jamais atteint par les machines, aussi « intelligentes soient-elles », car celles-ci ne font jamais que rétroagir. Il faut se défier ici des effets d’annonce. Dans la réalité, les choses ne sont pas aussi simples, dans la mesure où la plupart de ces machines sont conçues pour être télé-opérées, c’est-à-dire agies à distance, par des êtres humains, dans une perspective de collaboration plutôt que d’exclusion. Il faut en fait une grande expérience pour pouvoir utiliser un robot chirurgical ou un robot sous-marin à bon escient et tirer profit des avantages qu’il offre. Il faut une expérience ou une intelligence, pratique la plupart du temps, pour interpréter un retour d’effort, compléter une image, voir ce qu’elle ne montre que par défaut. Ces machines ne fonctionnent qu’en complément d’une expertise humaine obtenue sur la base d’une profonde connaissance du réel, d’un apprentissage souvent long, semé d’épreuves au cours duquel « l’expert » éprouve sur lui-même ses limites.
Ce qui caractérise peut-être l’époque, c’est peut-être l’oubli (inconscient ou volontaire) de cette dimension centrale de notre relation aux objets techniques. Cela ne fait que renforcer et conforter l’image d’une autonomie de la machine (à laquelle nous voulons peut-être croire par ailleurs, pour des raisons qu’il serait trop long d’exposer ici). On peut donc s’attendre, avec l’extension du domaine de l’automatisation, à une extension conjointe des rigidités et autres aberrations qui caractérisent les systèmes fortement automatisés.
Surveiller l’IA
Un risque de ce genre ressort la réflexion qui vient de s’ouvrir sous l’égide de la Maison Blanche sur les dérives possibles de l’intelligence artificielle. Cette réflexion, qui a fait l’objet d’un premier rapport, prend la forme d’une mise en garde :
« Nous comptons de plus en plus sur l’IA pour prendre des décisions et opérer des mécanismes aussi bien physiques que virtuels, ajoutant à l’enjeu de la prédiction et du contrôle la complexité technique sur laquelle ils reposent. »
L’une des principales préoccupations qui ressort de ces systèmes algorithmiques est de créer par exemple des discriminations par inadvertance en raison d’une conception défaillante. « Les failles – est-il alors précisé – deviennent difficiles à détecter et pourrait alors proliférer ».
L’urgence à laquelle nous soumettent paradoxalement ces nouveaux process est donc celle de se reconnecter au monde par l’expérience directe. « Back to basics », comme on dit dans l’aéronautique.
Pour conclure, la situation actuelle (celle du big data et de la « révolution numérique »), fait ressortir et exacerbe une contradiction fondamentale de nos sociétés technologiquement dépendantes. Une contradiction que la philosophe Hannah Arendt avait très tôt identifié, à savoir que le développement technologique tend à faire disparaître le travail (du plus grand nombre) alors que celui-ci (principalement sous sa forme salariée) continue d’être le socle sur lequel repose toute l’organisation sociale (et l’ordre qui en découle). D’où le sentiment d’insécurité croissant qui traverse toute la société, comme si celle-ci commençait tout entière à trembler sur ses bases. Les questions soulevées par la robotisation sont donc, on le voit bien, immenses, au sens où elles touchent aux fondations mêmes de l’ordre social propre à la civilisation techno-industrielle, et nous rappellent, incidemment, l’inachèvement et la fragilité de toute société (ce que nous avions peut-être eu tendance à oublier et dont le rappel n’est peut-être pas une si mauvaise nouvelle que cela).
La version originale de cet article a été publiée sur