Au cours de l’histoire, les nouvelles technologies ont souvent fait croire au pire. La quatrième révolution industrielle n’échappe pas à la règle, alors que la frontière entre fiction et réalité se resserre de plus en plus.
TEXTE | Thomas Dayer
«L’effet d’une technologie, nous avons tendance à le surestimer à court terme, et à le sous-estimer à long terme.» La loi d’Amara, du nom du scientifique futuriste américain Roy Amara, semble plus que jamais d’actualité. Reprise par Bill Gates, elle a donné ceci: «Nous surestimons toujours les changements qui auront lieu dans les deux prochaines années, et sous-estimons ceux qui se produiront dans les dix prochaines années.» 2017, l’iPhone, dix ans, a transformé le monde. Et le temps, lui, semble flétrir davantage sous l’effet de nouvelles technologies toujours plus gloutonnes en big data. «Une simple tablette, avec laquelle nous pouvons lire, surfer sur internet et communiquer, a une puissance de calcul équivalente à celle de 5’000 ordinateurs d’il y a 30 ans, tandis que le coût du stockage de l’information tend vers zéro (stocker 1 gigabit coûte en moyenne moins de 0,03 dollar par an aujourd’hui, contre plus de 10’000 dollars il y a 20 ans)», écrit le fondateur et président du World Economic Forum, Klaus Schwab, dans The Fourth Industrial Revolution.
Véhicules autonomes, imprimantes 3D, robotique, blockchain, biologie de synthèse: des transformations radicales façonnent le monde de demain. Elles provoquent fascination ou crainte. Tout au long de l’histoire, les innovations ont fait craindre disparitions d’emplois, accroissement des inégalités, nouvelles maladies. Nous voici à l’aube de la quatrième révolution industrielle, dont nous sommes loin «d’avoir saisi pleinement la rapidité et l’ampleur», poursuit Klaus Schwab.
L’intelligence artificielle, changement fondamental
Cette révolution industrielle se distancie largement des mécanisations propres aux précédentes. Philippe Dugerdil, ancien professeur et responsable de recherche à la Haute école de gestion de Genève – HEG-GE, l’illustre ainsi: «L’apparition du métier à tisser avait donné naissance à de nouvelles tâches autour de la machine. Désormais, les machines deviennent elles-mêmes capables d’apprendre.» C’est le règne de l’intelligence artificielle, qui déportera, à terme, la compétition sur la vitesse d’adaptation. «De la machine ou de l’homme, celui qui sera capable d’apprendre le plus vite une tâche donnée l’emportera», reprend Philippe Dugerdil, qui cite une argumentation développée par Erik Brynjolfsson et Andrew McAfee dans leur ouvrage The Second Machine Age. «Le développement de systèmes qui peuvent accomplir des exploits de raisonnements similaires aux humains remodèlera considérablement la façon dont le travail se partagera entre les esprits et les machines», écrivent les deux chercheurs.
L’intelligence artificielle conserve encore quelques défauts. Un exemple: la navette autonome qui arpente les rues de Sion1La navette Smart Shuttle a été testée entre 2016 et 2017 à Sion. Il s’agit d’un mini car postal de 11 places, qui suit un trajet défini sans chauffeur. Un accompagnateur doit toutefois contourner certains obstacles en mode manuel. Les voitures mal garées représentent 80% de ses interventions.. Florian Evéquoz, docteur en informatique et ancien professeur à la HES-SO Valais-Wallis, responsable du domaine Economie et Services de la HES-SO, l’a étudiée de près, de même que les sentiments de ses utilisateurs. «Le défi majeur, pour l’intelligence artificielle qui pilote le véhicule, est l’interaction avec l’humain, souligne-t-il. En l’absence d’autres usagers de la route, son fonctionnement est fluide. Mais dès qu’un piéton approche de ses rails virtuels, tout se fige, et souvent le chauffeur doit prendre les commandes.» Florian Evéquoz l’a constaté: de nombreuses personnes qui doutent de la sécurité de la navette se débarrassent de toute appréhension une fois qu’elles l’ont empruntée. Peut-être ce progrès est-il toutefois dû à l’intervention fréquente de l’humain? L’enjeu est ailleurs. «Notre mission première est d’observer l’impact de la technologie sur les comportements humains, notamment afin d’éviter que cet impact ne se réduise à des superstitions erronées», souligne Florian Evéquoz.
Un «robot tueur»?
Parfois, c’est l’humain qui perpétue les stéréotypes. «Les robots sociaux ressemblent aux êtres humains, ce qui facilite l’émergence de stéréotypes projetés», explique Florian Dufour, docteur en psychologie et maître d’enseignement à la Haute Ecole d’Ingénierie et de Gestion du Canton de Vaud – HEIG-VD, qui a étudié, avec son ancienne collègue Céline Ehrwein Nihan, ancienne professeure HES, la question de la perpétuation des stéréotypes, notamment racistes et sexistes, à travers les robots. Un danger réel. «La perpétuation des stéréotypes n’est pas toujours heureuse, souligne Florian Dufour. Faire ressembler les robots aux humains n’est pas dénué de sens. Mais il n’est pas nécessaire que les robots actifs en cuisine aient des attributs féminins, tout comme nous avons démontré empiriquement qu’un robot paré d’attributs masculins n’est pas perçu comme plus compétent pour effectuer des tâches de mécanique automobile qu’un robot ayant des attributs féminins.»
Qui dit intelligence artificielle, dit aussi crainte du robot tueur. Cent seize experts, à leur tête l’Américain Elon Musk, ont mis en garde les Nations unies contre la menace des armes autonomes. Selon eux, le futur pourrait voir naître des machines armées capables, en fonction d’un seul algorithme, de prendre la décision d’éliminer une cible. «Une fois développées, ces armes permettront aux conflits armés d’avoir lieu à une échelle plus grande que jamais, et dans un temps trop rapide pour que les humains puissent l’appréhender», écrivent les signataires.
Alignement sur les valeurs humaines
D’autres soulignent que le risque réel ne serait pas que les intelligences artificielles se retournent contre les humains. Il résiderait plutôt dans la façon dont elles appliqueraient les ordres humains. «Tout l’enjeu demeure dans la façon dont l’humain conceptualise l’intelligence artificielle», souligne Nicholas Davis, responsable du secteur Société et Innovation et membre du comité exécutif du World Economic Forum, qui identifie deux types d’extrêmes dans les croyances. «D’une part, la croyance qui veut que la technologie soit un outil sans dimension morale.» Un marteau est un marteau. Une arme est une arme. Un smartphone est un smartphone. Ces objets dépendent seulement de leur utilisation. «D’autre part, la croyance selon laquelle la technologie a ses propres forces motrices et qu’elle prendra le dessus, que vous le vouliez ou non.» Le but du WEF: favoriser une vision médiane. «Chaque technologie a une valeur, souligne Nicholas Davis. Une kalachnikov ou un smartphone, déposés sur une table, ont une dimension morale et influencent les interactions humaines. Il faut le réaliser.»
Le défi envers l’intelligence artificielle pourrait ainsi être de savoir comment l’éteindre. «Le risque ne vient pas de machines qui développeraient soudain une conscience maléfique», déclarait Stuart Russell, professeur d’informatique et pionnier de l’intelligence artificielle, dans The Independent. Le problème serait plutôt leur alignement avec les valeurs humaines. Car puisque des machines ultra-compétentes créeront des accidents en essayant d’atteindre leurs objectifs, il faudrait qu’elles puissent intérioriser les comportements humains et apprendre de leurs erreurs. La machine ne suivrait alors plus de simples règles, mais la volonté humaine. Un immense challenge, d’autant que… l’humain est complexe. «Les gens sont irrationnels, inconstants, faibles, limités, hétérogènes, et parfois… simplement mauvais, indique Stuart Russell. Certains sont végétariens, d’autres aiment un steak bien juteux.»
Le grand danger demeure l’Homme
Chaque invention cache des ombres potentielles. «Le créateur de l’e-mail n’avait pas prévu le spam, le créateur des réseaux sociaux n’avait pas vu venir les fake news, et le créateur de la voiture n’avait pas imaginé les embouteillages», sourit Florian Evéquoz, qui rappelle toutefois que les craintes les plus extrêmes sont évidemment nourries par la science-fiction. «Aujourd’hui, le plus grand danger pour la survie de l’humanité demeure l’Homme, sur les questions climatiques par exemple, et non l’intelligence artificielle», reprend Florian Evéquoz. Philippe Dugerdil acquiesce. «Le philosophe Nick Bostrom, notamment dans son ouvrage Superintelligence, a aussi avancé l’hypothèse d’une AI destructrice, rappelle-t-il. Mais d’autres enjeux pressent bien davantage.» Reste que l’impact des véhicules autonomes sur l’emploi des chauffeurs se révèle concret, au point que le ministre des Transports indien veut les interdire. L’an dernier, FoxConn, entreprise taïwanaise sous-traitante de sociétés de nouvelles technologies dont Apple, a licencié 60’000 employés de l’une de ses usines chinoises pour les remplacer par des robots. «Il y a une non-substitution des ressources, observe Philippe Dugerdil. C’est inéluctable, mais est-ce socialement acceptable? Si une invention provoque un chômage massif, il est possible qu’un contrôle politique intervienne.» Le principal défi relatif à la quatrième révolution industrielle reste celui de la formation. «À la flexibilité, à l’auto-entrepreneuriat, à l’identification d’opportunités de marchés», souligne-t-il.
Selon Nicholas Davis, l’enjeu est sociétal. «Nous pensons la quatrième révolution industrielle à travers quatre prismes: d’abord, le prisme de l’éthique; ensuite, celui de la création de valeurs; puis, celui de la transformation sociale; enfin, celui de la gouvernance, énumère-t-il. Nous avons affaire à des machines qui dictent notre comportement, ainsi qu’à des technologies qui franchissent les barrières du corps humain. Il y a un changement dans les relations de pouvoir, et le pouvoir décisionnel en termes de technologies se révèle plus important aujourd’hui qu’hier. Maintenir le contrôle sur les technologies représente un enjeu majeur pour la démocratie. Chacun devrait en être conscient, et s’engager en tant que citoyen pour participer à la conceptualisation de ces développements.«