Rapport Villani sur l'intelligence artificielle : le regard du philosophe Bernard Stiegler

Suite à la publication du rapport Villani sur l'intelligence artificielle, le président Emmanuel Macron annoncé le débloquage de 1,5 milliards d'euros pour déployer cette technologie dans des secteurs clés comme les transports, la santé ou l'éducation. Entretien avec Bernard Stiegler, philosophe spécialiste du numérique et directeur de l'Institut de recherche et d'innovation (IRI) au sein du Centre Georges Pompidou à Paris.
Image
Bernard Stiegler
Berbard Stiegler est co-fondateur de l'association internationale pour une politique industrielle des technologies de l'esprit (Ars Industrialis)
(Photo : Ars Industrialis)
Partager 8 minutes de lecture
Le rapport de 235 pages de Cédric Villani, commandé en septembre 2017 par le Premier ministre, intitulé "Donner un sens à l'intelligence artificielle : pour une stratégie nationale et européenne" aborde de nombreux aspects des technologies d'apprentissage automatique et donne une sorte de feuille de route étatique pour accélerer leur développement. De la voiture autonome, en passant par la santé, la transformation de l'éducation, le développement d'une agriculture "augmentée" ou encore la défense et la sécurité, rien ou presque ne semble échapper à ce "nouveau Graal" que semble être devenu l'intelligence artificielle (IA). Le président de la République, dans son discours de clôture du sommet sur l’intelligence artificielle, "AI for Humanity"  au Collège de France a d'ailleurs martelé son engagement sur le sujet : "Je souhaite que la France soit l’un des leaders de l’intelligence artificielle, nous en avons les moyens et nous allons en créer les conditions".

Si de nombreux experts ont été consultés sur le sujet, aucun débat national avec la société civile n'a pour autant été engagé : le sujet de l'IA est visiblement un non-sujet de discussion, comme si sa généralisation ne faisait aucun doute et ne pouvait être questionnée. Il est malgré tout des voix qui s'élèvent pour s'inquiéter de son utilisation "à tout prix", dans tous les secteurs, avec un accompagnement de l'Etat ou non, et qui alertent sur le changement de civilisation que cette technologie implique. Bernard Stiegler est un philosophe spécialiste du numérique et des changements de société causés par les technologies, il dirige l'Institut de recherche et d'innovation (IRI) au sein du Centre Pompidou. Entretien.

Sur quels sujet avez-vous été consulté pour ce rapport et  qu'avez vous répondu ?

Bernard Stiegler : J'ai été interrogé sur les questions du travail, et sur des questions de fond au sujet de l'IA. Pour résumer, j'ai répondu qu'il fallait expérimenter et engager une réflexion sur comment on peut tirer parti de l'automatisation en donnant du temps aux gens pour qu'ils soient capables de produire de la désautomatisation. Ma thèse est que la société industrielle qui a débuté il y a plus de 200 ans en Angleterre a reposé sur des économies d'échelle pour augmenter la productivité et les profits. C'est ce que vit en ce moment la Chine en accéleré. Cette société industrielle a créé ce que j'appelle la prolétarisation qui signifie en réalité la perte de savoir. Le prolétaire est celui qui travaille sur une machine sans savoir ce qu'il produit, sans savoir comment marche la machine, et qui n'a plus de savoir, qui n'est plus que le serviteur d'une machine qui a transformé le savoir en un automatisme. C'est déjà ce que disait Adam Smith en 1776, et il mettait en garde par le fait, entre autres, que cela produisait de la bêtise. J'ai essayé de parler de ça à Villani, mais je ne suis pas sûr qu'il l'ait bien entendu. Par contre, sur le problème du travail, je pense avoir été un peu écouté : sur la nécessité de repenser complètement l'économie et de faire apparaître des toutes nouvelles formes de travail.

Quels sont les points du rapport sur l'intelligence artificielle qui vous semblent pertinents ?

Je me méfie du mot intelligence artificielle, je pense qu'on y met un peu tout et n'importe quoi. Pour moi l'enjeu c'est le calcul automatique. Je connais des grands spécialistes du domaine qui disent par exemple que le machine learning n'est pas de l'intelligence artificielle. Mais tout cet ensemble de technologies que l'on recoupe aujourd'hui sous le terme d'intelligence artificielle est en réalité relié à un phénomène central qui est celui du recueil de données à grande échelle. Ce problème de la donnée, de la data, est bien abordé dans le rapport Villani. Il faut constituer une politique de la donnée, française et surtout européenne et c'est assez bien identifié dans le rapport. Mais le problème c'est que ce rapport reste dans un modèle industriel de la donnée et que ce modèle deviendra à moyen terme limité voire obsolète. Ce modèle de la donnée industrielle n'est ni solevable ni soutenable au niveau écologique et environnemental dans la durée. Nous produisons tous de la donnée en permanence, sans nous en apercevoir ou en y étant incités, comme avec Facebook. On vient de découvrir l'affaire Cambridge Analytica, mais ce n'est que le début, cela va mener à des très grandes crises. Il va y avoir une désaffection pour tous les réseaux sociaux, pas seulement Facebook, parce que ces plateformes détruisent les gens. Et si on doit faire quelque chose à la suite du rapport Villani c'est de faire autrement, parce que ce n'est pas une fatalité. 

D'où vient le problème du modèle de la donnée industrielle que vous soulevez et déclarez bientôt obsolète ?

Qu'est ce qu'il se passe avec les algorithmes que l'on appelle aujourd'hui l'intelligence artificielle ? Ce sont des dispositifs qui permettent d'analyser à très très grande échelle des phénomènes dans le domaine de la langue, du transport, de la santé, etc, etc, et d'obtenir des résultats. Mais tous les gens sérieux vous diront que ces résultats sont factuels et n'ont pas de rigueur théorique. Ce qui signifie que ces algorithmes ne savent pas anticiper les exceptions. Et Il y a toujours des exceptions. Un chercheur Suisse, Frédéric Caplan a démontré que dans le cas de Google — qui est une machine à chercher, traduire dans des langues pour créer de l'argent — c'est un modèle qui petit à petit ronge la richesse des langages parce qu'il repose sur des moyennes. Et ces comportements moyens tendent à diminuer graduellement la qualité du langage. De façon plus scientifique ces analyses algorithimiques reposant sur des moyennes et ne gérant pas les exceptions augmentent l'entropie. Or, l'entropie c'est ce qui détruit tout, c'est le désordre. On est en train de faire des machines à faire du désordre. Si les gens se sentent mal ce n'est pas pour rien, je suis en Chine en ce moment et il y a 15% de dépressifs, aux Etats-Unis les gens vont très très mal. Les gens sont happés par l'entropie numérique et cela est lié à la structure des données. Ce que je soutiens depuis 1987, c'est qu'il faut inscrire dans les formats de données des informations qui ne sont pas calculables — et qui ne sont pas des informations en réalité — mais qui permettraient de générer des exceptions et de pouvoir délibérer sur les exceptions. Je travaille en ce moment en Seine Saint Denis avec des grandes entreprises pour mettre en place une plateforme qui repose là dessus. Ces données ne peuvent pas être analysées par les algorithmes, mais elles obligent par contre les gens qui participent, sur les réseaux, à délibérer sur les données. Aux Etats-Unis aujourd'hui les juges doivent s'appuyer sur des big data pour rendre leur jugement, sont obligés de se justifier et peuvent être pénalisés si l'algorithme démontre qu'ils avaient tort. C'est extrêmement grave.

Le rapport établit que ces technologies "doivent bénéficier à tous". Qu'en pensez-vous et comment cela est-il possible ?

Je suis d'accord avec cette déclaration, mais je pense que le rapport Villani n'apporte pas les conditions pour confirmer cette hypothèse. Je suis un peu déçu, surtout que Villani connaît très bien les problèmatiques de l'entropie. Le philosophe Emmanuel Kant a démontré que la connaissance, la capacité de juger et le comportement social — qu'il appelle lui comportement moral — supposent quatre facultés : l'intuition — sentir les choses—, l'entendement — la capacité à raisonner logiquement —, l'imagination  et la raison. Kant démontre que l'entendement analyse des données, l'imagination sert elle à reconnaître ces données, tout en ne portant jamais de jugement. C'est la raison qui porte un jugement chez Kant. Avec les big data vous avez une automatisation de l'entendement. Mais cet entendement n'apporte aucun élément de pensée et la raison n'est pas automatisable parce que c'est un processus synthétique qui prend des décisions. Aujourd'hui nous faisons une confusion entre entendement et raison. Donc il n'y a pas de raison dans les résultats des algorithmes qui ne sont pas rationnels. On a prolétarisé tout le monde aujourd'hui : les physiciens, les mathématiciens, les médecins, les biologistes les astrophysiciens qui travaillent sur ce genre de machines et ne savent plus comment ça fonctionne. Exactement comme avec la finance en 2008 et la catastrophe qui s'en est suivie. Voilà ce qui se produit avec de l'intelligence artificielle non critiquée. Je suis partisan de l'intelligence artificielle mais d'une intelligence artificielle critiquée. 

Qu'entendez-vous par là ? 

Plutôt que d'essayer d'imiter très mal comme d'habitude la Silicon Valley, on ferait mieux de poser les vraies questions épistémologiques, les Européens savent très bien faire ça . Il y a donc à développer un modèle original. Aujourd'hui ce que produit l'intelligence artificielle est ce que j'appelle de la bêtise artificielle, très souvent. Tous les professionnels disent que c'est spectaculaire, intéressant, efficient, mais qu'il se prépare de très grosses bêtises. Un malade est toujours singulier par exemple, il est une exception. Et l'on met en place des systèmes efficients mais relativement efficients. Ils produisent des résultats relativement justes, mais en droit, en médecine, ce n'est pas satisfaisant. Et cela peut nous conduire à de très très grandes catastrophes. Si l'on veut vraiment que l'intelligence et les êtres humains puissent coopérer, il faut changer la structure des données. Le Web vient d'Europe, du CERN, et c'est la Silicon Valley qui l'a exploité. Il faut se remettre à travailler en Europe et arrêter de vouloir copier la Silicon Valley qui aura toujours de l'avance et nous colonisera. Ce qui me réjouit dans le rapport Villani c'est que la question du travail est posée, mais par contre il n'y a rien de pertinent sur la recherche et comment créer un nouveau modèle de données qui permettrait à un moment à l'Europe de reprendre la main. Si ce n'est pas l'Europe qui le fait, ce sera la Chine qui le fera. Pour conclure sur le rapport, je pense qu'il est profondément inachevé.