Fil d'Ariane
Paris accueille le Sommet mondial pour l'action pour l'intelligence artificielle le 10 et 11 février. Cet évènement planétaire a relancé le débat sur le développement en masse de ces technologies et les risques qui en découlent. Décryptage.
Un robot d'intelligence artificielle passe devant un panneau d'information présentant la société DeepSeek, spécialisée dans les applications pour smartphones, à Pékin, le mardi 28 janvier 2025.
L'intelligence artificielle fascine autant qu'elle divise. Tandis que certains placent beaucoup d'espoir en elle dans des applications comme la médecine ou la décarbonation de l'industrie, d'autres pointent les risques que font peser sur nos démocraties. L'ouverture du sommet mondial sur l'action pour l'intelligence artificielle ce lundi 10 février à Paris a relancé les débats sur les conséquences de la course au développement de ces technologies.
Parmi les menaces soulevées par certains scientifiques, on retrouve le remplacement d'employés dans l'industrie, des résultats biaisés, des risques liés à la confidentialité et, surtout, la désinformation. "Ce n'est pas de la science-fiction, ça se passe en ce moment. On est en train de développer une arme de destruction massive dans le domaine virtuel", met en garde Maxime Fournès, ingénieur, spécialiste en intelligence artificielle et fondateur de l'ONG Pause IA.
Lors d'un Forum organisé samedi au Learning Planet Institute, un centre de recherches interdisciplinaires situé à Paris, le chercheur prévient que les modèles d'intelligence artificielle vont bientôt égaler, voire dépasser, les compétences des meilleurs informaticiens. Seul problème : l'IA peut être un outil, ou une arme, selon l'entraînement qu'il reçoit. Et l'améliorer sans prendre le temps de la comprendre pour prévenir les utilisations malveillantes, augmente les risques de cybercriminalité.
La propagation massive des fausses informations à travers les réseaux sociaux est un phénomène dont les dégâts sont bien documentés. Les fake-news sont notamment accusées d'avoir influencé le résultat de l'élection présidentielle américaine de novembre 2016 en faveur de Donald Trump. Mais pour Lê Nguyên Hoang, docteur en mathématiques et spécialiste en éthique des IA, il existe un élément qui est "beaucoup plus dangereux que les fake news : la haine".
(Re)voir Centrafrique : révélations sur la désinformation russe
La violence en ligne a connu une croissance exponentielle avec "l'adoption massive des réseaux sociaux et l'utilisation effrénée des algorithmes de recommandation — qui sont un type d'intelligence artificielle", explique-t-il. Le rapport publié en 2022 par Amnesty international sur la contribution de Facebook au nettoyage ethnique des Rohingyas (Birmanie) est l'un des exemples les plus parlants. L'enquête de l'ONG signale qu'avant les atrocités commises par l'armée du Myanmar, "les algorithmes de Facebook ont favorisé de manière proactive la diffusion de messages d’appels à la haine et à la violence contre les Rohingyas. La déshumanisation de cette communauté musulmane s’est normalisée dans tout le pays".
Le rapport signale notamment le modèle économique de Facebook, "basé sur la surveillance et le profit à tout prix". Selon Amnesty International, les messages haineux ont échappé à la modération du réseau social, alors omniprésent dans le pays, et auraient même été privilégiés par la plateforme. Mais pourquoi ? Un post qui est aimé, partagé, commenté, est identifié comme un post qui suscite l'engagement. Sa diffusion est ensuite promue ainsi que celle des contenus similaires.
En 2018, le Sénat américain avait convoqué Mark Zuckerberg, le patron du groupe Facebook, devenu Meta. Le sénateur démocrate Patrick Leahy l'avait interrogé au sujet de la Birmanie en lui demandant pourquoi l'entreprise n'avait pas supprimé ces contenus dans les 24 heures. "Nous sommes en train de recruter des dizaines de modérateurs de langue birmane, car les discours haineux sont étroitement liés à la question linguistique. Il est très difficile de les éradiquer sans ressources humaines capables de parler les dialectes locaux. Et nous devons faire un effort considérable dans ce domaine", avait alors reconnu le patron du groupe Meta.
(Re)lire En Birmanie, les Rohingyas victimes d'un génocide, estiment les États-Unis
Avec les progrès fulgurants des IA génératives, il est désormais possible de produire des images avec un fort degré de réalisme : les deepfakes. Derrière cette technique, se trouvent des réseaux antagonistes génératifs ou réseaux adverses génératifs, un type d'algorithme d'apprentissage non supervisé. Développé par Ian Goodfellow et une équipe de collègues, ce modèle compte deux réseaux de neurones qui sont placés en compétition dans un scénario de théorie des jeux.
Résultat : quelques clics suffisent pour créer, relayer, échanger et stocker ce contenu. Si cette technologie permet de créer des montages qui font sourire, elle est aussi à l'origine de vagues de cyberharcèlement qui peuvent être mortelles. L'utilisation de cette technologie à des fins politiques s'est concrétisé avec la création d'un deepfake de Barack Obama, diffusé il y a 7 ans. Dans la vidéo, on voit Barack Obama tenir des propos injurieux à l'égard de Donald Trump. Elle a été visionnée près de 3 millions de fois.
(Re)lire Désinformation genrée : pourquoi les femmes sont-elles victimes de haine en ligne
Un autre exemple, c'est l'épidémie de deepfakes pornographiques qui a inondé la Corée du Sud en août 2024. Collégiennes, étudiantes et même célébrités ont découvert leurs photos dans des salons de discussion Telegram, destinés à relayer du contenu à caractère sexuel. Les cybercriminels, aidés par cette méthode, se sont servis des photos de femmes et adolescentes pour créer des scenarii porno.
Lê Nguyên Hoang souligne toutefois que les campagnes de haine et de désinformation ne sont pas un nouveau phénomène. "C'est une tendance de fond qui s'est aggravée et qui est très corrélée avec l'adoption massive des réseaux sociaux", détaille-t-il.
Le prestigieux centre d'études en sciences politiques, Varieties of Democracy Institute, publie tous les ans un rapport sur l'état de la démocratie dans le monde. Si l'on se penche sur les rapports de cette dernière décennie, on observe qu'en 2018, les chercheurs se demandent si un jour il y aura une démocratie pour tous, tandis qu'en 2021, ils annoncent que la dictature devient virale.
"Cela marque bien le ton, abonde le mathématicien Lê Nguyên Hoang. Les IA ont vraiment hacké nos démocraties et je voudrais qu'on prenne la mesure de ce que cela représente". Le directeur du prestigieux institut de recherche, Staffan Ingemar Lindberg, a par ailleurs déclaré auprès du Monde que "La situation de la démocratie dans le monde est pire que celle que nous avons connue dans les années 1930".
"Et les années 1930 ce n'est pas cool", enchaîne le vulgarisateur scientifique en faisant référence à la montée du fascisme qui a donné lieu à la Seconde Guerre mondiale et au plus grand génocide de l'histoire. Les intelligences artificielles seraient donc le moteur de ce retour en arrière ? "La réponse est oui, répond-il aussitôt. Les algos de recommandation ont une influence énorme sur l'exposition informationnelle quotidienne de nos concitoyens".
Qui n'a pas entendu parler du fameux "algo" ? Cette entité qui semble lire dans nos pensées à chaque fois qu'on ouvre une application. Il est au cœur du modèle économique des géants du numérique et permet de vous proposer un contenu spécifique et de la publicité ciblée.
"Les actions les plus naturelles quand on est sur un téléphone sont : le clic, le swipe et le scroll", poursuit Lê Nguyên Hoang. Avez-vous déjà commenté ou partagé la vidéo d'un chaton sur Facebook ou Instagram ? Si oui, avez-vous remarqué que soudain, vous êtes inondé de publicité de croquettes, litières, accessoires et on vous montre encore plus de contenu félin ? Tout cela a une explication : "à chaque fois que quelqu'un clic, swipe ou scroll, il parle à une IA de recommandation". Cela rend ces technologies extrêmement influentes. Et lorsqu'un contenu polémique ou haineux et mis en valeur ou récompensé, comme pour les chats, la propagation de ces idées devient exponentielle.
Face à ces enjeux, certains spécialistes, comme les membres du collectif Pause IA, préconisent de geler le développement des applications les plus dangereuses, afin de prendre le temps de mieux comprendre les systèmes et mieux se protéger.