Fil d'Ariane
L’intelligence artificielle est omniprésente dans de nombreux domaines aujourd’hui. On la retrouve dans les assistants des voitures, dans les téléphones pour faire de la reconnaissance faciale, pour générer des images ou en tant qu’assistants virtuels. Mais d’où vient l’intelligence artificielle et comment s’est-elle démocratisée ? Éléments de réponse.
Un travailleur met en place une affiche pour la World Artificial Intelligence Conference à Shanghai, en Chine, le 5 juillet 2023.
Elle peut générer des images à la demande, allumer la lumière dans une maison, déverrouiller un téléphone à partir d’un visage ou d’une empreinte digitale ou même aider une voiture à se garer. Depuis plusieurs années, l'intelligence artificielle (IA) est utilisée au quotidien.
L’Union Internationale des Communications (UIT) organise à Genève les 6 et 7 juillet un sommet consacré à l’IA. Il doit réunir quelque 3 000 participants, dont des dirigeants de l'industrie, des universitaires et des décideurs. Par ailleurs en Chine, la conférence annuelle sur l'intelligence artificielle se déroule à Shanghai jusqu'à la fin de la semaine.
Si la démocratisation de l’intelligence artificielle est récente, cela fait plusieurs dizaines années que les recherches dans ce domaine ont débuté. L'idée de l'IA remonte à bien avant les années 1950, avec des concepts et des histoires de machines intelligentes présents dans la science-fiction depuis des décennies. Cependant, c'est dans les laboratoires de recherche et les universités notamment américaines que l'IA a commencé à prendre forme. Parmi les chercheurs pionniers dans le domaine, on retrouve le scientifique américain du Massachusetts Institute of Technology (MIT) Marvin Lee Minsky (1927-2016). Il définit l’IA comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique.”
Le travail sur l’intelligence artificielle concerne de nombreux domaines. Parmi les plus réputés, il y a les Gafam, à savoir Google, Amazon, Facebook, Apple et Microsoft. Ces géants du numérique investissent fortement dans la recherche et le développement de l’IA, en employant des experts et en produisant des appareils et services utilisant l’IA pour fonctionner. Par ailleurs, de nombreuses jeunes pousses (start-up en anglais) travaillent aussi dans ce domaine, pour développer de nouveaux modèles et conduire des expériences pour augmenter les capacités de l’IA. Par exemple, l'entreprise américaine Open AI s'est spécialisée dans le raisonnement artificiel. Elle a notamment lancé en novembre 2022 l’outil ChatGPT, un agent conversationnel ou chatbot capable de répondre à n’importe quelle question qui lui est posée.
Au-delà du domaine professionnel, l’IA est très présente aussi dans la sphère universitaire. Partout sur la planète, les universités contribuent au développement de l’IA à travers la recherche mais aussi leurs programmes académiques. En Suisse, l’Université de Genève et l’ETH Zurich (Institut fédéral technologique suisse) ont lancé en octobre 2021 un Laboratoire pour la diplomatie scientifique. L’objectif de ce pôle est de tenter de répondre à des questions diplomatiques complexes grâce aux nouvelles technologies de machine learning, dont l’IA.
Le développement fulgurant de l’intelligence artificielle suscite toutefois de nombreuses craintes. D'une grande complexité technique, les systèmes d'IA fascinent autant qu'ils inquiètent. S'ils peuvent sauver des vies en permettant un bond en avant des diagnostics médicaux, ils sont aussi exploités par des régimes autoritaires pour exercer une surveillance de masse des citoyens. La diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, alertent sur les risques de manipulation de l'opinion et les dangers pour la démocratie.
Il n'existe pas de règles internationales sur l'IA, mais l'Unesco a produit une recommandation sur l'éthique en 2021. Et fin mars, des centaines d'universitaires, patrons et personnalités, ont demandé un moratoire de six mois sur le développement des systèmes d'IA les plus puissants,en évoquant "des risques majeurs pour l'humanité". Le 4 juillet 2023, Doreen Bogdan-Martin, patronne de l’Union Internationale des Télecommunications (UIT), l'institution de l’ONU spécialisée pour les technologies, appelle la communauté internationale à créer des règles et des garde-fous pour que ces technologies profitent à l'humanité sans la mettre en danger.
La communauté scientifique émet également des réserves vis-à-vis de l'intelligence artificielle. En 2014, l'astrophysicien Stephen Hawking avait argumenté que notre espèce ne serait plus un jour en capacité de rivaliser avec les machines, déclarant à la BBC que cela "sonnerait le glas de la race humaine". Geoffrey Hinton, un chercheur qui tente de créer des machines ressemblant au cerveau humain, dernièrement pour Google, a évoqué en des termes similaires des "superintelligences" supérieures aux humains. À la chaîne américaine PBS, il a affirmé récemment qu'il était possible que l'"humanité ne soit qu'une phase passagère dans l'évolution de l'intelligence".