Fil d'Ariane
L’anti humanisme radical que porte en elle l’intelligence artificielle et que vous analysez et décrivez, est-il intrinsèque ou seulement un choix effectué par ceux qui la développent, en font la promotion ? La question qui se pose est : aurait-on pu développer des intelligence artificielles humanistes ?
E.S : C'est compliqué, mais c'est une question décisive. Nous vivons un drame aujourd'hui, parce que la technique n'existe plus, il n'existe plus qu'un monde de la recherche techno-scientifique inféodé par le monde économique. Cela induit que les chercheurs qui autrefois étaient constitués de pluralités et de singularités, avec des personnes aux tropismes et intérêts divers, répondent aujourd'hui dans leur immense majorité à des cahiers des charges définis par des cabinets de marketing ou des bureaux de tendances en vue de répondre à des intérêts strictement privés. C'est un drame parce que c'est la pluralité des productions techniques qui est éradiquée au profit d'un mouvement homogène. L'intelligence artificielle s'inscrit dans ce phénomène d'homogénéité où tout le monde va dans le même sens, le nez dans le guidon, dans un aveuglement collectif. La courbe de l'intelligence artificielle aurait-elle pu ou peut-elle prendre une autre trajectoire ? Moi, je ne crois pas. Cette volonté de diriger une puissance d'expertise sur tous les champs de la société, relève de l'instauration d'une extrême rationalisation, d'éviter tout défaut. Ce sont des technologies cognitives et donner trop de puissance à des technologies cognitives mène à un seuil qui est unique. Ce sont alors des normes, des critères des intérêts qui guident et orientent nos actions. Si je prends l'intelligence artificielle dans la médecine, par exemple, censée apporter des bénéfices, il y a une conséquence dramatique : la confiscation de la médecine par la mise en place du diagnostic automatique !
Toutes les réflexions semblent porter autour de la simple organisation à venir d’une société gérée par les IA, comme s’il n’y avait pas d’autre choix que de faire avec. Vous dénoncez ce phénomène en établissant que les plus grands dangers ne se situent pas autour de ces sujets, mais avec celui de la modification du monde, de sa perception par les êtres humains et au fond d’une modification du réel. Pouvez-vous nous expliquer ce phénomène lié à la généralisation des IA et que personne, à part vous, n’aborde ?
E.S : L'intelligence artificielle est une puissance d'expertise caractérisée par le principe du perfectionnement permanent, inhérent au machine learning. Imaginons la puissance d'expertise de l'IA en 2030, c'est très difficile. Vertigineux. Cette technologie est en évolution constante, de façon quasi exponentielle. Et cette puissance d'expertise va nous dire la vérité sur tout le réel. Sur notre poids, sur comment nous marchons dans la rue, sur l'état des autres, sur tout. Il y a une sorte de transparence du réel : tout est découpé, analysé, séquencé par des systèmes rétro-agissants. Il y a la possibilité de nous conduire dans le réel avec des lumières de partout, en étant continuellement éclairé. Cette réduction du monde dans une perfection d'expertise, permet de nouveaux modes de représentation et d'intelligibilité du réel. Ce qui rend possible, et surtout appelle à un encadrement continu et permament de l'action humaine. Et cet encadrement a pour but de répondre à deux objectifs prioritaires : nous inciter à engager continuellement des transactions marchandes et organiser la société de façon hyper rationnalisée et optimisée. C'est ça le plan dont personne ne parle. Le séquençage et la modification, l'encadrement du réel, par l'IA.
Vous abordez à la fin de votre ouvrage, le combat à mener, selon vous, pour empêcher ce changement radical et anti humaniste que l’IA va générer. Peut-on vraiment freiner, détourner ou arrêter une industrie, une politique mondiale telle que celles qui caractérisent le développement de l'IA ?
E.S : La puissance de l'industrie numérique, des données, impose ses schémas et compte le faire de plus en plus. Elle est soutenue par des "évangélistes" qui s'imposent par leurs discours, à nos consciences et nos représentations. C'est une puissance énorme, qui se banalise, avec une vitesse qui marginalise le temps nécessaire d'évaluation humaine. Alors comment fait-on ? Je crois qu'il faut faire valoir des témoignages qui viennent du terrain. Ca suffit les témoignages d'experts payés par les grands groupes qui nous disent "tout ça est formidable, les gens vont monter en compétence". Allez demander à un manufacturier Amazon qui reçoit ses ordres par des systèmes d'IA dans son casque audio si ça le fait monter en compétence. Contredisons cette novlangue techno-libérale, faisons remonter des témoignages de ce qu'il se passe vraiment dans les entreprises, dans les hôpitaux, les écoles : racontons. Il faut forger des contre-discours et activer des débats de société. Puis il y a l'action. Peut-on refuser certains systèmes quand ils bafouent notre utilité, notre intégrité ? J'en appelle à faire valoir d'autres modalités d'existences, collectivement, avec des souhaits émanant de toutes les subjectivités. Pour pouvoir se mettre à l'écart de cet extrême utilitarisme, de cette volonté de rationnalisation absolue, d'encadrement de nos actions par des systèmes. Je pense que c'est le moment. L'intelligence artificielle arrive à un moment historique et elle réinterroge sur "comment faire oeuvre de politique ?". A mon sens, en faisant oeuvre de politique de nous-même, sans répondre aux souhaits de la politique institutionnelle qui soutient le développement de l'IA. Ces questions débordent d'ailleurs l'IA, avec par exemple l'une d'elle qui est : "Comment être agissant aujourd'hui ?" Ma réponse est simple : plus il nous est retiré la possibilité d'agir, plus il faut agir.