Fil d'Ariane
Des systèmes d'IA (intelligence artificielle) proposent des décisions de justice à des juges aux Etats-Unis, d'autres en France repèrent des fraudeurs de caisses d'assurances ou tentent de prédire les crimes. Des véhicules autonomes circulent en phase de test en attendant que la législation ne les laisse rouler en toute liberté. Des hôpitaux s'essayent au diagnostic par intelligence artificielle, quand des départements de Défense testent des robots militaires autonomes.
Des médecins, juristes, ingénieurs, militaires, psychologues et même philosophes, sont mis à contribution pour participer à la conception de ces programmes hyper spécialisés, apprenants et autonomes. Sur Internet, la plupart des propositions soumises aux utilisateurs de plateformes le sont par des IA. Netflix, Facebook, Twitter, Instagram, Google, utilisent ces algorithmes traitant des milliards de données personnelles, pour cibler au plus prêt les centres d'intérêts de chacun.
Mais les IA posent déjà des problèmes éthiques : des "chatbots" émettent des propos racistes sur les réseaux sociaux, des décisions de justice biaisées sont rendues à cause des statistiques sociales et éthniques, des voitures autonomes tuent des personnes, etc… La question de l'éthique en intelligence artificielle s'impose donc. Mais quelle éthique est possible pour l'IA ?
Entretien avec Martin Gibert, chercheur en éthique de l’intelligence artificielle (et en données massives) à l'université de Montréal.
TV5MONDE : En quoi consiste votre travail ?
Martin Gibert : Mon travail, c’est d’essayer de répondre à des questions qui se posent mais qui ne s’étaient jamais posées à des philosophes, avec ce domaine très particulier de l’intelligence artificielle, ce qu'on appelle l'IA. L’une d’entre elles est la question de la programmation des agents moraux artificiels. Un agent moral artificiel peut être aussi bien une voiture autonome qu’un chatbot, cela recouvre en fait toutes les applications qui sont en prise de décision.
Pour la partie purement éthique et donner une définition, c’est à mon sens répondre à la question : « que devrions-nous faire en mobilisant des raisons morales du point de vue de l’univers, un point de vue neutre qui ne favorise pas un intérêt particulier. » Ce sont donc des raisons altruistes, que tout le monde peut partager. Je ne fais pas de différence entre éthique et morale, à l’inverse de ce qu’on appelle « la tradition continentale », puisqu’en Europe les deux concepts peuvent être considérés comme différents.
Qu'est-ce que l'éthique ?
L'éthique est une discipline philosophique qui réfléchit sur les finalités, sur les valeurs de l'existence, sur les conditions d'une vie heureuse, sur la notion de "bien" ou sur des questions de mœurs ou de morale. Mais si la morale est un ensemble de règles ou de lois ayant un caractère universel et irréductible, l'éthique s'attache quant à elle avant tout aux valeurs et se détermine de manière relative dans le temps et dans l'espace, en fonction de la communauté humaine à laquelle elle s'intéresse.
Une boîte noire ne peut pas justifier son résultat, il y a seulement des entrées et des sorties. Il y a donc des débats à ce sujet et des gens sont inquiets
Mais on ne peut pas répondre à la question de comment programmer des agents moraux artificiels de façon abstraite. Chaque type d'IA, en fonction des décisions qu'elle est censée prendre doit demander une réflexion éthique particulière. On ne peut pas généraliser une éthique à toutes les IA.
D'un point de vue éthique, peut-on accepter une décision sans pouvoir connaître précisément le processus menant à la décision, ce qui est le cas des boîtes noires en intelligence artificielle ?
Dans le cas des décisions judiciaires on n’arrête pas de le faire. Un juge qui prend une décision, nous ne savons pas exactement ce qu’il s’est passé dans son cerveau. On sait que le jugement peut être biaisé. On a remarqué par exemple que les décisions des juges étaient différentes à l’approche du déjeuner et influencées par la faim. Mais il est vrai que le juge peut se justifier et dire "j’ai pris cette décision pour telle et telle raison". Une boîte noire, elle ne peut pas justifier son résultat, il y a seulement des entrées et des sorties. Il y a donc des débats à ce sujet et des gens sont inquiets. Mais cela ne me semble pas très grave du moment que l’on peut faire des tests d’entrées-sorties et que l’on est satisfait par la prise de décision.
Est-ce que, en tant que société, on accepte que l’IA puisse influencer une décision en fonction de là où on habite ?
Je suis plutôt conséquentialiste, donc ce qui m’intéresse ce sont les conséquences des décisions. Si une boîte noire en apprentissage automatique produit de bonnes conséquences du point de vue moral, je pense que c’est une bonne chose.
Une décision, basée sur des valeurs statistiques qui indiquent par exemple qu'une catégorie de personnes est criminellement plus récidiviste, de par son origine ethnique ou rembourse moins bien ses emprunts selon le quartier où elle réside, est-elle éthique, selon vous ?
Il y a un problème éthique de discrimination avec COMPAS aux Etats-Unis, le système automatisé d’aide à la décision judiciaire pour les récidivistes, c’est certain. Les afro-américains ont subi des décisions de justice bien plus sévères parce que l'IA avait trouvé une corrélation statistique entre le taux de récidive et l'origine éthnique des récidivistes.
Les technologies basées sur l’intelligence artificielle permettent de démultiplier la capacité à faire de la propagande.
Pour la prédiction de la capacité à rembourser en fonction du lieu de résidence, c’est une question de droit. Est-ce que, en tant que société, on accepte que l’IA puisse influencer une décision en fonction de là où on habite ? L’IA dans ce cas-là nous oblige à statuer s’il est moralement acceptable que le quartier d’où l'on provient conditionne que l'on obtienne un prêt bancaire ou pas. C’est une question qui était nettement moins présente avant que l'on n'ait toutes ces données massives qui permettent de tirer ce genre de conclusions. Mais dire que c’est éthique ou non pour ce type de décision est très difficile, je ne peux pas répondre.
L'IA est beaucoup utilisée dans le marketing en ligne pour influencer les consommateurs, grâce à l'utilisation des données personnelles. L'économie prédictive, les programmes d'IA qui influencent les êtres humains en modifiant leurs comportements ou leurs prises de décision sont-ils acceptables d'un point de vue éthique ?
Les technologies basées sur l’intelligence artificielle permettent de démultiplier la capacité à faire de la propagande, et ce qui est nouveau, c’est que l’on peut cibler les individus. Je suis contre la propagande, donc je suis contre la propagande ciblée. Il y a là, avec ces techniques quelque chose qui peut menacer la démocratie.
Mais il y a un autre enjeu dans l’influence, qui est celui du paternalisme. C’est le fait d’influencer ou de manipuler les gens pour leur bien, comme avec les campagnes de santé. L’intelligence artificielle peut certainement aider, mais tout le problème du paternalisme, c’est que ceux qui l’appliquent assument qu’ils savent mieux que les gens ce qui est bon pour eux et ce n’est pas toujours le cas. L’IA permet de mieux manipuler les gens, elle offre donc des nouvelles possibilités au paternalisme. Mais si les valeurs morales de ce paternalisme ne sont pas bonnes, il peut poser de nombreux problèmes.
Sachant que déterminer quelles sont les bonnes ou mauvaises valeurs morales est fluctuant en fonction des cultures. C’est ce que l’on appelle le relativisme moral, et qui est le concept le plus accepté dans les populations, en général. On s’aperçoit en rvanche que les gens ont des intuitions réalistes, c’est-à-dire qu’ils pensent qu’il y a des choses qui sont vraiment mal, quelle que soit la culture. L’exemple fréquemment donné est celui de l’esclavage qui était acceptable à une époque et qui ne l’est plus…