Fil d'Ariane
L'intelligence artificielle menace l'humanité d'"extinction", préviennent des experts et entrepreneurs de ce secteur en plein essor. Ils appellent à une prise de conscience. Mais ce scénario catastrophe encore lointain est-il crédible ? Voici différentes hypothèses.
ARCHIVES - Des experts et entrepreneurs ddu secteur préviennent que l'intelligence artificielle menace l'humanité d'"extinction".
Le cauchemar, inspiré par d'innombrables films de science-fiction, débute lorsque les machines voient leurs capacités dépasser celles des humains et échappent à tout contrôle.
A partir du moment où nous aurons des machines qui cherchent à survivre, nous aurons des problèmes.
Yoshua Bengio, chercheur canadien.
Selon une variante imaginée par le philosophe suédois Nick Bostrom, le moment décisif surviendra lorsque les machines sauront fabriquer elles-mêmes d'autres machines, provoquant une "explosion de l'intelligence".
Selon sa "théorie du trombone", si une IA avait par exemple pour but ultime d'optimiser la production de cet accessoire de papeterie, elle finirait par couvrir "d'abord la Terre puis des morceaux de plus en plus importants de l'Univers avec des trombones", illustre-t-il.
Nick Bostrom est un personnage controversé, après avoir affirmé que l'humanité pouvait être une simulation informatique, ou soutenu des théories proches de l'eugénisme. Il a aussi dû s'excuser récemment pour un message raciste envoyé dans les années 90, qui avait refait surface.
L'intelligence artificielle ne confèrera pas aux machines le désir de tuer des humains.
Kerstin Dautenhahn, spécialiste de la robotique de l'université de Waterloo au Canada.
Pourtant, ses idées sur les dangers de l'IA restent très influentes, et ont inspiré à la fois le milliardaire Elon Musk, patron de Tesla et SpaceX, et le physicien Stephen Hawking, décédé en 2018.
L'image du cyborg aux yeux rouges de "Terminator", envoyé du futur par une IA pour mettre fin à toute résistance humaine, a particulièrement marqué l'inconscient collectif.
Mais selon les experts de la campagne "Stop Killer Robots" ("Non aux robots tueurs"), ce n'est pas sous cette forme que s'imposeront les armes autonomes dans les années à venir, écrivaient-ils dans un rapport en 2021.
"L'intelligence artificielle ne confèrera pas aux machines le désir de tuer des humains", rassure la spécialiste de la robotique Kerstin Dautenhahn, de l'université de Waterloo au Canada, interrogée par l'AFP.
"Les robots ne sont pas diaboliques", affirme-t-elle, tout en concédant que leurs développeurs pourraient les programmer pour faire du mal.
Un scénario moins évident prévoit que soit utilisée l'intelligence artificielle pour créer des toxines ou des nouveaux virus, dans le but de les répandre dans le monde.
Un groupe de scientifiques qui utilisait l'IA pour découvrir de nouveaux médicaments a ainsi mené une expérience au cours de laquelle ils l'ont modifiée pour qu'elle recherche plutôt des molécules nocives.
En moins de six heures, ils ont réussi à générer 40.000 agents potentiellement toxiques, d'après un article de la revue Nature Machine Intelligence.
Grâce à ces technologies, quelqu'un pourrait enfin trouver le moyen de répandre plus rapidement un poison tel que l'anthrax, a déclaré Joanna Bryson, experte en IA à la Hertie School de Berlin.
"Mais ce n'est pas une menace existentielle, juste une arme épouvantable", dit-elle à l'AFP.
Dans les films d'apocalypse, la catastrophe arrive soudainement et partout à la fois. Mais quid si l'humanité disparaissait progressivement, remplacée par des machines ?
"Dans le pire des cas, notre espèce pourrait s'éteindre sans successeur", anticipe le philosophe Huw Price dans une vidéo de promotion du centre pour l'étude des risques existentiels de l'université de Cambridge.
Il existe cependant des "possibilités moins sombres", où des humains augmentés par une technologie avancée pourraient survivre. "L'espèce purement biologique finit alors par s'éteindre", poursuit-il.
L'humanité [ne pourrait être] qu'une phase passagère dans l'évolution de l'intelligence.
Geoffrey Hinton, chercheur.
En 2014, Stephen Hawking avait argumenté que notre espèce ne serait plus un jour en capacité de rivaliser avec les machines, déclarant à la BBC que cela "sonnerait le glas de la race humaine".
Geoffrey Hinton, un chercheur qui tente de créer des machines ressemblant au cerveau humain, dernièrement pour Google, a évoqué en des termes similaires des "superintelligences" supérieures aux humains.
A la chaîne américaine PBS, il a affirmé récemment qu'il était possible que l'"humanité ne soit qu'une phase passagère dans l'évolution de l'intelligence".