HEMISPHERES 27 Les promesses surfaites de l autonomie des machines Grand entretien Johan Rochel Teaser

Les promesses surfaites de l’autonomie des machines

publié en

,

Les outils « intelligents » deviennent de plusen plus autonomes et influencent l’impact de notre action sur le monde. Mais ils sont toujours programmés par des humains. Analyse et appel à l’action de Johan Rochel, spécialiste de l’éthique et du droit des nouvelles technologies.

TEXTE | Nic Ulmi
ILLUSTRATION | Bogsch & Bacco, Fotorobot Pro

Les machines intelligentes sont-elles autonomes ? Savent-elles où elles vont ? Et nous, savons-nous où elles nous mènent ? Et au passage, comment notre autonomie humaine se modifie-t-elle dans un monde peuplé d’IA ? Philosophe et juriste, spécialiste de l’éthique et du droit des nouvelles technologies qu’il enseigne à l’EPFL, auteur de l’ouvrage Les Robots parmi nous – Pour une éthique des machines (2022), Johan Rochel est l’interlocuteur idéal pour aborder cet écheveau d’interrogations. On traverse avec lui le miroir du changement technologique pour aboutir à un questionnement éthique, juridique et politique qui débouche sur un appel à l’action.

Si on réfléchit à l’impact des nouvelles technologies sur la notion d’autonomie, la première piste qui apparaît est celle des machines dites autonomes…

« Autonomie », le mot est partout, il parle à tout le monde. Mais il a une grande polysémie, il signifie des choses très différentes. La notion d’autonomie des machines, au cœur du travail des ingénieur·es et d’un vaste récit de société, recouvre en fait deux concepts différents. Le premier est l’autonomie de moyens : on donne à la machine un objectif et des contraintes, et dans ce cadre elle décide comment réaliser sa mission. On dit à une voiture autonome : l’objectif est d’aller de A à B, les contraintes sont le code de la route et la durabilité, c’est-à-dire l’usage du moins d’essence possible… Et la voiture choisit le chemin. À cet exercice, la machine se révèle souvent plus performante que nous. On a compris depuis la défaite de Kasparov contre Deep Blue à la fin des années 1990 qu’aucun humain ne gagnerait plus aux échecs contre un ordinateur.

Mais cela ne concerne qu’une partie de ce qu’on définit généralement comme autonomie, qui correspond plus largement à une autonomie de valeurs, humaine, philosophique, impliquant la capacité de réviser ses propres buts et de se donner des contraintes en lien avec des convictions. Si on imagine que la voiture autonome s’arrête en disant « Je ne veux plus rouler, ça n’a pas de sens, c’est contraire à mes valeurs », on voit bien que dans la réalité, une machine ne possède pas cette forme d’autonomie. J’ajouterais qu’elle ne l’aura pas, même si on augmente ses capacités technologiques et sa puissance de calcul à l’infini. À ce sujet, j’ai parfois des difficultés dans la discussion avec des personnes nourries de récits technologiques ou de science-fiction dans lesquels, par un effet inexpliqué, un robot accède magiquement à une autonomie pleine, prenant conscience qu’il existe et orientant ses actions à l’aune de valeurs morales qu’il découvre. L’industrie entretient ce récit de la machine qui se rapproche de l’humain. Mais on ne doit pas se laisser duper par cette idée.

N’étant pas autonome au sens des humains, une machine n’est donc jamais responsable. Ou alors elle l’est, si on veut, de manière purement causale : si un robot est utilisé à des fins militaires, ce sera causalement lui qui tue. Mais en termes de responsabilité morale et juridique, il faudra toujours chercher les humains qui ont déterminé ses contraintes et ses objectifs. On voit donc qu’une machine qui serait dotée à la fois de fortes capacités technologiques, d’un but défini de manière large et de peu de contraintes représenterait le mix parfait de l’objet dangereux. Le robot de combat à qui on se limite à dire « Ton but est de tuer des ennemis » se mettra potentiellement à brûler des villages et à massacrer des civils. Il ne faut donc pas utiliser ce genre d’outil tant qu’on n’a pas trouvé la manière d’inscrire dans sa programmation des contraintes qui ont pour nous, humains, une nature morale et qui seraient, dans cet exemple, celles du droit international humanitaire. On parviendra peut-être à programmer ainsi le respect de certaines valeurs morales humaines. Mais la machine n’aura pas une action morale au sens des humains, c’est-à-dire la capacité de réviser ses propres valeurs, convictions, principes.

Une deuxième piste de réflexion serait la manière dont les machines intelligentes modifient le travail humain, et donc les marges de notre propre autonomie…

Ces outils ont en effet un impact sur notre autonomie au sens de notre capacité d’agir sur le monde : en rendant certaines actions possibles et d’autres pas, ils structurent notre action et déterminent dans une certaine mesure nos comportements. Il est vrai que, de plus en plus, on nous annonce des outils technologiques au design flexible, programmables par l’utilisateur·trice. Et les acteur·trices de ce domaine prennent souvent une posture consistant à dire « Mes outils sont neutres, je vous laisse toute la liberté d’usage, à vous de décider ». Mais cet argument n’est pas recevable. Car l’étendue des usages possibles de ces outils repose sur des choix dans leur design.

À ce sujet, je propose à mes étudiant·es un texte que je trouve fondateur : Code et autres lois du cyberespace (1999), du juriste américain Lawrence Lessig, qui formule l’idée que code is law (le code fait loi). Lessig identifie quatre modes de régulation : le marché, le droit, les normes sociales et le design. Les designers (et les entreprises qui les mandatent) constituent en effet des « architectes de choix », qui sélectionnent ce que nous pourrons et ne pourrons pas faire. Dans ce sens, le numérique représente le lieu le plus régulé qui soit, parce que tout ce que nous pouvons réaliser avec des outils numériques, quelqu’un l’a choisi pour nous, même si ces choix sont souvent occultés.

Là-dessus, je nous souhaite de devenir collectivement un peu plus malins. Nous avons fait des erreurs architecturales dans la gouvernance d’internet durant les années 1990. Si on voulait les rattraper aujourd’hui, il faudrait refaire tout le réseau. Avec les réseaux sociaux, on a encore loupé le train, en laissant un petit nombre d’acteur·trices prendre beaucoup de pouvoir en termes économiques et politiques. Dans le cas de ChatGPT et de l’IA générative, il faut qu’on apprenne à mieux faire.

Faudrait-il préciser la législation dans ce domaine ?

Nous devons en effet affiner la législation applicable. Ce mouvement est en marche, notamment dans l’Union européenne avec la régulation sur l’IA. J’y vois quelques motifs de se réjouir, car cela signale un changement d’état d’esprit. L’industrie du numérique a réussi jusqu’ici à convaincre le monde du bien-fondé de son approche générale « On y va, on met sur le marché, on améliorera après », portée par tout un discours de méthodes en matière de design. Désormais, nous allons vers une logique qui consiste à demander des comptes (accountability devient un mot-clé) aux acteur·trices technologiques avant qu’un outil ne soit mis sur le marché, mais aussi, de manière régulière, une fois qu’il s’y trouve, à travers un effort de monitoring. La politique d’innovation n’est plus le seul paramètre, les droits fondamentaux et la protection de la vie démocratique gagnent en importance dans ce changement structurel.

Il faut donc refuser une posture se bornant à dire que « tout est perdu », malgré les efforts de l’industrie pour nous faire croire que c’est le cas. Il faut rejeter le récit, poussé par les acteur·trices technologiques, selon lequel le droit est toujours en retard et les législateurs, qui sont présentés comme incompétents et incapables de comprendre les complexités technologiques, risquent d’étrangler l’innovation s’ils légifèrent… Il existe parfois des lueurs d’espoir, telles que la votation genevoise sur le droit à l’intégrité numérique, acceptée à 94% en 2023. J’interprète ce vote comme une volonté de reprendre le contrôle pour nous protéger. Bien sûr, quelques cantons suisses ne peuvent rien régler tout seuls, mais il y a là une force symbolique. Il faut montrer que des résistances s’organisent pour contrôler ce qu’on nous fait croire incontrôlable. Il faudrait aussi, au passage, aller au-delà de l’angle souvent très binaire qu’on donne aux débats sur l’IA – « risques et opportunités », « chance ou malheur »… – et se demander plus spécifiquement qui est touché et de quelle manière, qui est gagnant et qui est perdant. Car évidemment, nous ne sommes pas tous égaux face à la technologie.

Une troisième forme d’autonomie, assez inattendue mais très présente dans notre vie quotidienne, est la possibilité que m’offre l’intelligence artificielle générative de, justement, générer en quelques instants des créations – textes, images, vidéos, musiques… – que je ne saurais pas forcément produire moi-même sans avoir des compétences particulières.

Autrefois, créer un site Web coûtait 20’000 francs et il fallait passer par un spécialiste pour changer une virgule. Aujourd’hui, on peut en créer un soi-même gratuitement en deux heures. Mais l’outil qui permet cette forme d’indépendance engendre en même temps de nouvelles dépendances avec les fournisseurs de solutions technologiques, par rapport auxquels les individus comme les collectivités publiques se retrouvent souvent dans une situation de lock in, d’enfermement. Je le vois, pour donner un exemple, avec un outil bibliographique comme EndNote, où tout est fait pour rendre impossible de passer à une alternative open source comme Zotero.

C’est pour cette raison que la discussion, qui pourrait paraître technique, sur l’inter-opérabilité des outils (circulation des données entre des systèmes différents, ndlr) et sur la portabilité des données (le fait pour une personne concernée d’obtenir ses données à caractère personnel et de pouvoir les réutiliser pour d’autres services, ndlr) est centrale pour le monde numérique. Dans l’industrie, on a forcément l’intérêt inverse, celui de vous dire « Tu es chez moi, je vais te rendre la vie impossible si tu essaies d’aller ailleurs ». Le marché numérique sombre rapidement dans une logique d’oligopole ou de monopole, qui est un vrai poison pour nous, en tant qu’individus et pour la société de manière générale. Ce secteur manque cruellement de concurrence et il faut qu’on se batte pour la réintroduire.


Bio express

1983 Naissance à Monthey (« capitale suisse du carnaval », souligne-t-il)

2000-2008 Journaliste dans différents médias

2010-2017 Vice-président du think tank suisse Foraus (Forum Aussenpolitik / Forum de politique étrangère)

2012-2017 Chroniques dans l’hebdomadaire L’Hebdo et dans d’autres médias

2015 Doctorat en droit et philosophieà l’Université de Fribourg, avec une thèse sur la politique migratoire de l’Union européenne

Depuis 2018 Chercheur à l’Université de Zurich (droit, éthiqueet innovation)

Depuis 2018 Codirecteur d’ethix, laboratoire pour l’éthique de l’innovation, accompagnant des organisations dans l’exercice de leur responsabilité en matière de changement numérique

Depuis 2020 Chercheur et enseignant à l’EPFL, où il donne un cours sur l’éthique et le droit de l’IA