Quelle éthique pour l'intelligence artificielle ?

Des questions nombreuses autour du développement de l'intelligence artificielle se posent alors que ces programmes autonomes prennent de plus en plus de décisions dans des domaines variés. Mais ces décisions des machines peuvent-elles suivre une éthique particulière et laquelle ? Entretien avec Martin Gibert, chercheur en éthique de l’intelligence artificielle à l'université de Montréal.
Image
Ethique IA
Les véhicules autonomes — ici des Google Cars — sont pilotés par des intelligences artificielles, considérées comme des agents moraux. Quelle éthique pour ces programmes informatiques capables de prendre des décisions affectant la vie humaine ?
Partager 7 minutes de lecture

Des systèmes d'IA (intelligence artificielle) proposent des décisions de justice à des juges aux Etats-Unis, d'autres en France repèrent des fraudeurs de caisses d'assurances ou tentent de prédire les crimes. Des véhicules autonomes circulent en phase de test en attendant que la législation ne les laisse rouler en toute liberté. Des hôpitaux s'essayent au diagnostic par intelligence artificielle, quand des départements de Défense testent des robots militaires autonomes.

Des médecins, juristes, ingénieurs, militaires, psychologues et même philosophes, sont mis à contribution pour participer à la conception de ces programmes hyper spécialisés, apprenants et autonomes. Sur Internet, la plupart des propositions soumises aux utilisateurs de plateformes le sont par des IA. Netflix, Facebook, Twitter, Instagram, Google, utilisent ces algorithmes traitant des milliards de données personnelles, pour cibler au plus prêt les centres d'intérêts de chacun.

Mais les IA posent déjà des problèmes éthiques : des "chatbots" émettent des propos racistes sur les réseaux sociaux, des décisions de justice biaisées sont rendues à cause des statistiques sociales et éthniques, des voitures autonomes tuent des personnes, etc… La question de l'éthique en intelligence artificielle s'impose donc. Mais quelle éthique est possible pour l'IA ?

Entretien avec Martin Gibert, chercheur en éthique de l’intelligence artificielle (et en données massives) à l'université de Montréal.

TV5MONDE : En quoi consiste votre travail ?

Guibert
Martin Guibert est philosophe et spécialisé dans la recherche en éthique de l'intelligence artificielle depuis 2 ans à l'université de Montréal.

Martin Gibert : Mon travail, c’est d’essayer de répondre à des questions qui se posent mais qui ne s’étaient jamais posées à des philosophes, avec ce domaine très particulier de l’intelligence artificielle, ce qu'on appelle l'IA. L’une d’entre elles est la question de la programmation des agents moraux artificiels. Un agent moral artificiel peut être aussi bien une voiture autonome qu’un chatbot, cela recouvre en fait toutes les applications qui sont en prise de décision.

Pour la partie purement éthique et donner une définition, c’est à mon sens répondre à la question : « que devrions-nous faire en mobilisant des raisons morales du point de vue de l’univers, un point de vue neutre qui ne favorise pas un intérêt particulier. » Ce sont donc des raisons altruistes, que tout le monde peut partager. Je ne fais pas de différence entre éthique et morale, à l’inverse de ce qu’on appelle « la tradition continentale », puisqu’en Europe les deux concepts peuvent être considérés comme différents.  


Qu'est-ce que l'éthique ?

L'éthique est une discipline philosophique qui réfléchit sur les finalités, sur les valeurs de l'existence, sur les conditions d'une vie heureuse, sur la notion de "bien" ou sur des questions de mœurs ou de morale. Mais si la morale est un ensemble de règles ou de lois ayant un caractère universel et irréductible, l'éthique s'attache quant à elle avant tout aux valeurs et se détermine de manière relative dans le temps et dans l'espace, en fonction de la communauté humaine à laquelle elle s'intéresse.

Peut-on programmer des IA autonomes pour orienter leur pertinence, pour les faire s'accorder avec une éthique particulière ?

La question du dilemme avec les voitures autonomes est la plus d’actualité. Quel choix doit faire le véhicule s’il ne peut pas s’arrêter et est forcé de provoquer un accident ? Entre les dégâts possibles, le nombre de victimes, l’âge, les Allemands ont proposé un certain nombre de règles. De mémoire ils ont choisi qu’entre un bien matériel et un être humain, le véhicule devait choisir d’entrer en collision avec le bien matériel et éviter l’humain, entre un humain et un animal, le véhicule doit sauver l'humain et entre deux humains et un seul humain, on choisit de sauver les deux humains. Mais par contre, toute autre considération, sur l’âge ou le sexe de la personne ne doit pas être pris en compte. Si jamais il y a un choix à faire, on peut imaginer alors un tirage au sort.


Une boîte noire ne peut pas justifier son résultat, il y a seulement des entrées et des sorties. Il y a donc des débats à ce sujet et des gens sont inquiets

Mais on ne peut pas répondre à la question de comment programmer des agents moraux artificiels de façon abstraite. Chaque type d'IA, en fonction des décisions qu'elle est censée prendre doit demander une réflexion éthique particulière. On ne peut pas généraliser une éthique à toutes les IA.

D'un point de vue éthique, peut-on accepter une décision sans pouvoir connaître précisément le processus menant à la décision, ce qui est le cas des boîtes noires en intelligence artificielle ?

Dans le cas des décisions judiciaires on n’arrête pas de le faire. Un juge qui prend une décision, nous ne savons pas exactement ce qu’il s’est passé dans son cerveau. On sait que le jugement peut être biaisé. On a remarqué par exemple que les décisions des juges étaient différentes à l’approche du déjeuner et influencées par la faim. Mais il est vrai que le juge peut se justifier et dire "j’ai pris cette décision pour telle et telle raison". Une boîte noire, elle ne peut pas justifier son résultat, il y a seulement des entrées et des sorties. Il y a donc des débats à ce sujet et des gens sont inquiets. Mais cela ne me semble pas très grave du moment que l’on peut faire des tests d’entrées-sorties et que l’on est satisfait par la prise de décision.

Est-ce que, en tant que société, on accepte que l’IA puisse influencer une décision en fonction de là où on habite ?

Je suis plutôt conséquentialiste, donc ce qui m’intéresse ce sont les conséquences des décisions. Si une boîte noire en apprentissage automatique produit de bonnes conséquences du point de vue moral, je pense que c’est une bonne chose.

Une décision, basée sur des valeurs statistiques qui indiquent par exemple qu'une catégorie de personnes est criminellement plus récidiviste, de par son origine ethnique ou rembourse moins bien ses emprunts selon le quartier où elle réside, est-elle éthique, selon vous ?

Il y a un problème éthique de discrimination avec COMPAS aux Etats-Unis, le système automatisé d’aide à la décision judiciaire pour les récidivistes, c’est certain. Les afro-américains ont subi des décisions de justice bien plus sévères parce que l'IA avait trouvé une corrélation statistique entre le taux de récidive et l'origine éthnique des récidivistes.

Les technologies basées sur l’intelligence artificielle permettent de démultiplier la capacité à faire de la propagande.

Pour la prédiction de la capacité à rembourser en fonction du lieu de résidence, c’est une question de droit. Est-ce que, en tant que société, on accepte que l’IA puisse influencer une décision en fonction de là où on habite ? L’IA dans ce cas-là nous oblige à statuer s’il est moralement acceptable que le quartier d’où l'on provient conditionne que l'on obtienne un prêt bancaire ou pas. C’est une question qui était nettement moins présente avant que l'on n'ait toutes ces données massives qui permettent de tirer ce genre de conclusions. Mais dire que c’est éthique ou non pour ce type de décision est très difficile, je ne peux pas répondre.

L'IA est beaucoup utilisée dans le marketing en ligne pour influencer les consommateurs, grâce à l'utilisation des données personnelles. L'économie prédictive, les programmes d'IA qui influencent les êtres humains en modifiant leurs comportements ou leurs prises de décision sont-ils acceptables d'un point de vue éthique ?

Les technologies basées sur l’intelligence artificielle permettent de démultiplier la capacité à faire de la propagande, et ce qui est nouveau, c’est que l’on peut cibler les individus. Je suis contre la propagande, donc je suis contre la propagande ciblée. Il y a là, avec ces techniques quelque chose qui peut menacer la démocratie.

Mais il y a un autre enjeu dans l’influence, qui est celui du paternalisme. C’est le fait d’influencer ou de manipuler les gens pour leur bien, comme avec les campagnes de santé. L’intelligence artificielle peut certainement aider, mais tout le problème du paternalisme, c’est que ceux qui l’appliquent assument qu’ils savent mieux que les gens ce qui est bon pour eux et ce n’est pas toujours le cas. L’IA permet de mieux manipuler les gens, elle offre donc des nouvelles possibilités au paternalisme. Mais si les valeurs morales de ce paternalisme ne sont pas bonnes, il peut poser de nombreux problèmes.

Sachant que déterminer quelles sont les bonnes ou mauvaises valeurs morales est fluctuant en fonction des cultures. C’est ce que l’on appelle le relativisme moral, et qui est le concept le plus accepté dans les populations, en général. On s’aperçoit en rvanche que les gens ont des intuitions réalistes, c’est-à-dire qu’ils pensent qu’il y a des choses qui sont vraiment mal, quelle que soit la culture. L’exemple fréquemment donné est celui de l’esclavage qui était acceptable à une époque et qui ne l’est plus…