Intelligence artificielle : de quoi parle-t-on ?

D'où vient la notion d'intelligence artificielle ?  Pourquoi parle-t-on de quatrième révolution industrielle ? Pourquoi des scientifiques demandent plus de régulation sur l'Intelligence artificielle ? Pourquoi le coût environnemental de cette industrie est si lourd ? 

Image
DeepSeek et Chat GPT

Images d'icones d'applications des deux robots conversationnels, le chinois DeepSeek et l'américain ChatGPT.

AP Photo/Andy Wong
Partager 2 minutes de lecture

D'où vient l'intelligence artificielle ? 

Au XXème siècle le scientifique britannique Alan Turing a inventé un mode de calcul par la suite appelé machine de Turing. Il a ainsi exploré la notion d'intelligence des machines et proposé le "jeu de l'imitation", pour explorer et évaluer l'intelligence des machines. 

Le terme "d'intelligence artificielle" est mis en avant par le scientifique John MacCarthy lors de la conférence de Dartmouth en 1956 au Royaume-Uni. L'intelligence artificielle devient alors une discipline à part entière. 

Alan Turing

Images d'un des manuscrits de Alan Turing mis aux enchères en 2015. Alan Turing est considéré comme étant l'un des pères de l'intelligence artificielle.

(AP Photo/Kin Cheung)

L’intelligence artificielle, c’est quoi ?

L'intelligence artificielle est un domaine informatique qui se concentre sur la création de machines, capables de simuler des processus cognitifs humains tels que l'apprentissage, la perception, le raisonnement et la prise de décision. 

Cela a pour but de développer des systèmes qui peuvent effectuer des tâches effectués à l'origine par l'humain. Ces systèmes utilisent des algorithmes et des modèles statistiques pour analyser les données, apprendre des exemples passés et prendre des décisions par eux-mêmes. 
 
Comment fonctionne l’IA ?

L'intelligence artificielle peut fonctionner de plusieurs manières. D'un côté l'IA peut évoluer grâce au 'machine learning' (apprentissage automatique en français). Il s'agit de nourrir l'IA de données afin qu'elle puisse en tirer des enseignements afin de s'améliorer. 

De l'autre côté, "le deep learning" (apprentissage profond en français) reproduit le processus d'apprentissage du cerveau humain avec une précision qui augmente au fil du temps. 

Un procédé va être privilégié par rapport à l'autre en fonction du résultat souhaité. Par exemple, pour des tâches simples comme activer une commande vocale pour allumer une ampoule le "machine learning" va être privilégié. 

Pour déverrouiller un téléphone à l'aide de la reconnaissance faciale, le "deep learning" sera plus largement employé. 

L'IA une nouvelle révolution industrielle

Nvidia

Images du stand de Nvidia au Mobile world congress en 2023 à Barcelone. L'entreprise qui fournit les puces pour les centres de données nécessaires à l'intelligence artificielle pèse plus de 2000 milliards de dollars en bourse. 



Des smartphones aux aéroports, l'IA est déjà omniprésente dans la vie quotidienne. Ses progrès se sont accélérés ces dernières années avec le développement des IA génératives, capables de produire texte, sons et/ou images en quelques secondes, sur demande en langage courant (comme ChatGPT). Le potentiel de l'IA suscite d'énormes espoirs, en particulier pour la médecine, dans la détection des maladies ou dans la recherche de molécules. 

L'intégration de l'Intelligence artificielle dans des secteurs entiers de l'économie necessiste des investissements colossaux.

Entre 60 et 65 milliards de dollars pour Meta, 75 milliards pour Google, qui dit mieux ? Plus de 100 milliards pour Amazon ! Les géants des technologies viennent d'annoncer leurs dépenses en capitaux pour 2025, principalement consacrées à l'intelligence artificielle. 

Amazon a révélé qu'il compte investir environ 26 milliards de dollars par trimestre cette année dans sa filiale AWS (numéro un mondial du cloud) et dans l'IA traditionnelle (traitement des données) et générative (agents conversationnels, créatifs, etc).

Ces entreprises créent des "data center" avec des puces aux capacités de calculs inédites. C'est ainsi qu'entreprise comme Nvidia, fabricante de puces a vu sa capitalisation boursière monter à prêt de 2000 milliards de dollars. 

En Europe, les Émirats arabes unis comptent construire en France un centre de données ("data center") géant, au sein d'un "campus" axé sur l'IA qui sera le plus grand d'Europe, a annoncé l’Élysée en préambule d'un sommet international sur l'IA à Paris, les 10 et 11 février, où la France et l'Europe espèrent se poser en concurrents des États-Unis et de la Chine. Le montant de l'investissement serait compris entre 30 et 50 milliards de dollars.

Crainte de retombées néfastes de l'IA

Face à la course effrénée que se livrent les géants de la tech autour de l'intelligence artificielle,  des scientifiques comme le chercheur canadien Yoshua Bengio mettent en garde contre les retombées "néfastes" de cette technologie. 

S'il estime que certains risques sont déjà bien établis, comme la création de faux contenus en ligne, le lauréat 2018 du prix Turing (prestigieuse récompense en informatique) affirme que "les preuves de l'existence de risques supplémentaires comme les attaques biologiques ou les cyberattaques apparaissent progressivement."

A plus long terme, il s'inquiète d'une potentielle "perte de contrôle" des humains sur des IA animées de "leur propre volonté de vivre", d'autant que l'arrivée du robot conversationnel chinois DeepSeek a encore un peu plus "accéléré la course, ce qui n'est pas bon pour la sécurité", toujours selon le chercheur canadien interrogé par l'AFP

Un coût environnemental de plus en plus  lourd
 

Les centres de données, qui fournissent les énormes capacités de calcul requises par l'intelligence artificielle, pourraient consommer d'ici 2030 autant d'électricité que la France et l'Allemagne réunies, soit 3% de la consommation électrique mondiale, selon une étude de Deloitte.

Ils nécessitent aussi d'énormes quantités d'eau pour leurs systèmes de refroidissement: le consommation pourrait atteindre en 2027 quatre à six fois la consommation d'eau annuelle du Danemark, selon une estimation de chercheurs américains de l'université de Californie à Riverside et de l'université du Texas à Arlington.

Chaque requête sur ChatGPT, le robot conversationnel d'OpenAI capable de générer toutes sortes de contenus sur simple demande en langage courant, consomme dix fois plus d'électricité qu'une recherche sur Google, d'après l'Agence internationale de l'énergie (AIE).