Comment l’Union européenne va-t-elle encadrer l’intelligence artificielle ?

Fausses informations, contrôle sociétal,... L'Union européenne s'est accordée le 9 décembre sur une législation inédite au niveau mondial pour réguler l'intelligence artificielle. Ce texte doit favoriser l'innovation en Europe, tout en limitant les possibles dérives de ces technologies très avancées.

Image
IA

Les efforts déployés depuis des années par l'Europe pour établir des garde-fous en matière d'IA ont été entravés par l'émergence récente de systèmes d'IA générative tels que ChatGPT d'OpenAI.

AP Photo/Matt Rourke
Partager3 minutes de lecture

Est-il possible d’encadrer l’utilisation de l’intelligence artificielle (IA) pour éviter des dérives tout en encourageant le développement de ce secteur ? C’est le pari que fait l’Union européenne en s’accordant sur une législation de régulation de l’IA. Le projet a été présenté en avril 2021. Puis les discussions ont traîné. 

L’objectif est avant tout de préserver les valeurs démocratiques et de faire obstacle à l’utilisation de l’IA à des fins anti-démocratique ou discriminatoires.

Nathalie Devillier, consultante en intelligence artificielle pour Influence Cyber

L’apparition des IA génératives telles que ChatGPT, de la start-up californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes ou d’autres en mesure de générer des images a été intégrée dans les négociations. Cette IA est nommée "générative" car elle est capable de générer le contenu textuel demandé en quelques secondes. Dans la même catégorie, il y a Midjourney, qui peut générer des images. C'est ainsi qu'on a vu circuler sur le net des images de Donald Trump se faisant arrêter, ou du Pape François en doudoune. 

Finalement, un "accord politique" a vu le jour le 9 décembre au sein de la Commission européenne et du Parlement européen. 

À quoi sert l’accord sur l’Intelligence artificielle ?

L’objectif est avant tout de préserver les valeurs démocratiques et de faire obstacle à l’utilisation de l’IA à des fins anti-démocratique ou discriminatoires”, résume la consultante en intelligence artificielle pour Influence Cyber, qui collabore notamment avec la Commission européenne Nathalie Devillier. Parmi les fins discriminatoires de l’IA, elle note par exemple les scores sociaux distribués en Chine, ou la détection des émotions, qui est une forme d’utilisation de l’IA qui se fait “à l’insu des citoyens et des utilisateurs”. 

TV5 JWPlayer Field
Chargement du lecteur...

Pour l'identification biométrique à distance des personnes dans les lieux publics, qui rentre aussi dans cette catégorie, les États ont obtenu des exemptions pour certaines missions des forces de l'ordre comme la lutte contre le terrorisme.

La législation prévoit un encadrement particulier des systèmes d'IA qui interagissent avec les humains. Elle les obligera à informer l'utilisateur qu'il est en relation avec une machine.

Le but est de préserver une innovation qui soit durable.

Nathalie Devillier, consultante en intelligence artificielle pour Influence Cyber

Sur les IA génératives, le compromis prévoit une approche à deux vitesses. Des règles s'imposeront à tous pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour vérifier qu'ils ne violent pas la législation sur les droits d'auteur. Les développeurs devront par ailleurs s'assurer que les sons, images et textes produits seront bien identifiés comme artificiels. Des contraintes renforcées s'appliqueront aux seuls systèmes les plus puissants.

Cependant, cet accord doit tout de même permettre l’innovation dans le secteur. Nathalie Devillier explique que “le but est de préserver une innovation qui soit durable.” Pour cela, “il existe un système de bac à sable, c’est-à-dire un système dans lequel les entreprises pourront développer des produits ou des services avec de l’IA dans un environnement plus souple et contrôlé pour justement tester leur modèle, le valider et ensuite le déployer.”

Comment va-t-il être appliqué ?

L'accord politique doit être complété par un travail technique pour finaliser le texte. "Nous allons analyser attentivement le compromis trouvé aujourd'hui et nous assurer dans les prochaines semaines que le texte préserve la capacité de l'Europe à développer ses propres technologies d'IA et préserve son autonomie stratégique", a réagi le ministre français du Numérique, Jean-Noël Barrot. 

Le fait que des modèles d’IA soient en fait déployés par des sociétés hyper puissantes qui ont des moyens de payer des amendes et qui vont continuer à développer des modèles qui ne sont pas conformes au règlement ne doit pas être négligé, mais cela risque d’arriver.

Nathalie Devillier, consultante en intelligence artificielle pour Influence Cyber

"Le vrai danger, c'est que se reconstitue avec l'IA les Gafa, c'est-à-dire la suprématie d'une toute petite poignée d'acteurs qui imposent leurs règles au monde", insiste Jean-Noël Barrot sur France Inter.

Nathalie Devillier est consciente de cet obstacle. “Le fait que des modèles d’IA soient en fait déployés par des sociétés hyper puissantes qui ont des moyens de payer des amendes et qui vont continuer à développer des modèles qui ne sont pas conformes au règlement ne doit pas être négligé, mais cela risque d’arriver”, explique-t-elle.

Elle rappelle toutefois que “les réglementations de l’Union européenne pour ce qui touche au numérique sont les plus évoluées de la planète.” Parmi elles, il y a le Data Act, un accord sur le règlement européen de protection des données, qui concerne les données industrielles et celles produites par l'internet des objets.

Ce qu’il va falloir vérifier au moment où le texte sera publié, c’est qu’effectivement il n’y a pas dans le texte des éléments qui pourraient réduire à néant les objectifs d’innovation”, note Nathalie Devillier.

L’objectif de l’UE n’est pas d’empêcher l’innovation, mais de mettre en échec des modèles inacceptables qui viennent de Chine ou des États-Unis et de préserver le modèle européen”, explique-t-elle.

Par ailleurs, cette législation s’appliquera en cas de préjudice subi à l’intérieur de l’UE. “Ce n’est pas parce que l’entreprise n’est pas sur le territoire européen qu’elle n’est pas concernée, analyse la consultante en intelligence artificielle. Le facteur à prendre en compte, c’est l’impact sur les personnes. Si je suis touchée et que je suis en Europe, même si je suis Chinoise, je bénéficie de la protection du règlement contre une application colombienne.