Aller au contenu
Accueil / Les actualités / L’Intelligence Artificielle dans le monde du travail

L’Intelligence Artificielle dans le monde du travail

Le regard de Christophe Gauthier sur l’IA Responsable au travail – Octobre 2025


Entretien avec Christophe Gauthier

Christophe Gauthier est coordinateur des activités Web des Lumières au sein de  #Leplusimportant et se concentre sur les nouvelles façons de travailler et l’IA au travail. Il co-préside également le réseau mondial de recherche I4T Knowledge soutenu par l’UNESCO. Un tiers de confiance entre société civile, chercheurs et administrations publiques qui facilite une meilleure réglementation des plateformes numériques. 

Créé en 2018, le Think Tank indépendant #Leplusimportant a largement contribué à aider la puissance publique et le Parlement à s’approprier les enjeux de l’économie digitale pour la rendre plus émancipatrice, juste et souveraine.

Propos recueillis par Justine AUDO

Pouvez-vous nous parler de votre livre blanc « l’IA responsable au travail » ?

Ce livre blanc est déjà l’aboutissement d’un long chemin de notre collectif sur les sujets du digital dans le monde du travail. Notre chemin a abordé les enjeux du Digital Labor des travailleurs de plateformes pour les aider à améliorer leurs travaux. L’ampleur du travail invisible des travailleurs de plateformes est désormais bien connue. Chacun doit l’avoir en tête en interrogeant une IA générative qui se trompe moins souvent et qui ne dise pas (trop) d’horreurs, grâce à eux.

Nous avons également exploré l’économie numérique de l’attention avec ses dark patterns utilisés par les éditeurs de service. Ces dangers numériques ne doivent pas nous faire oublier que le digital permet aussi de nous synchroniser entre humains, au milieu d’un océan d’informations. De ce point de vue, l’IA générative est une nouvelle génération de systèmes qui aidera peut-être l’humain à franchir une autre étape d’émancipation.

Ce livre blanc est aussi l’histoire de belles rencontres. Nous sommes si heureux de notre partenariat de longue date avec le CESE. Nous admirons chez cet opérateur public atypique une certaine forme de sagesse à faire société, même dans les débats épineux, quand nos contemporains se complaisent autant dans la polarisation.

Enfin, ce livre blanc est la production collective de nos membres, soumise aux experts praticiens et chercheurs de l’IA au travail durant le Sommet IA de Paris en début d’année. Leurs apports ont été enrichis des réactions ou propositions de tout le public en salle ou à distance, au cours de cette conférence du 13 février 2025.

Surtout, ce livre blanc est vouer à évoluer pour se nourrir des avancées ou des remises en question qu’il suscitera.

Quelles sont les tendances de l’utilisation de l’IA dans le monde du travail ?

La première tendance est l’excès de discours et la faiblesse de l’action. 95% des expérimentations IA seraient abandonnées selon le MIT cet été. Combien parmi ces « projets pilotes » n’étaient guère mieux que des starter packs ou au contraire des exubérances naïves qui rêvaient déjà de remplacer tel salarié, parce qu’un chatbot peut dérouler une biographie (fausse) de Victor Hugo en alexandrins, avant d’en faire son portrait « à la Picasso ». Disons le au féminin puisque ce sont les postes des femmes et des jeunes qui sont réputés les plus IA-fragiles, du fait de leur plus « faible valeur ajoutée » (quelle condescendance !) ou de leur forte part de tâches routinières (nous y reviendrons).

La deuxième tendance, c’est le shadow IT. Une utilisation clandestine de l’IA au mépris des dangers digitaux par les travailleurs. Ils ou elles explorent des idées sans pouvoir en discuter ouvertement. Ils veulent s’afficher comme plus expérimentés ou plus efficients, sans pouvoir faire valoir qu’ils ou elles ont su trouver de l’aide avec l’IA générative.

La troisième tendance, c’est que les meilleures transformations passent par la confiance : celle de ces salariés qui partagent leurs trouvailles, celle de ces dirigeants qui s’engagent par avance à ne pas explorer l’automatisation des postes de travail en remplacement de l’humain comme objectif N°1.

Sans établir les conditions de cette confiance, notre pays ne pourra pas réussir cet “Osez l’IA” que le Gouvernement appelle de ses vœux.

Dans le livre blanc, vous évoquez le dialogue social, pouvez-vous nous dire quelles sont les bénéfices du dialogue social pour la mise en place de l’IA au travail ?

Au fur et à mesure de nos travaux et du colloque dont le livre blanc restitue les débats, ce dialogue social est devenu triple sous nos yeux étonnés.

Il faut citer en premier lieu le travail séminal de recherche de Dial’IA sur les processus d’information et de consultation des instances du personnel autour de l’IA. Désormais conforté progressivement dans les arrêts de justice, il fait de moins en moins débat que l’introduction de l’IA n’est pas l’introduction d’un simple outil bureaucratique, même quand le premier contact avec l’IA se produit en utilisant les deux principales suites bureautiques du marché : il est temps de passer à la suite numérique.

Ce dialogue social autour du premier projet IA permettra de définir la portée et le contenu des discussions futures. Il ouvre la porte aux discussions sur les mécanismes d’équilibre et de remédiation. Il ouvre la porte au dialogue professionnel. Ce deuxième type de dialogue social ou de « relations industrielles » réunit d’autres types de protagonistes, lesquels vont questionner le contenu du travail proprement dit, comme l’ont brillamment étudié les chercheurs de l’INRIA par exemple. Ce dialogue est fondamental, c’est de là que les plus grandes avancées de compétitivité et de résilience vont être issues.

Enfin, le troisième dialogue social est le dialogue de gouvernance. La nature recombinante et évolutive de l’IA générative oblige les acteurs du travail à s’approprier une prise de recul là où les apprentis sorciers de la Tech refusent leur responsabilité. Régulièrement, les conséquences de tel déploiement, tel usage, telle donnée doivent être analysées et débattues, parce que le cloud n’est pas un nuage. Si le digital a parfois des effets négatifs inattendus, ils sont situés dans le temps et dans l’espace. Nous saluons les organisations qui prennent leur responsabilité sociétale ou d’employeur pour essayer de neutraliser ces effets.

En quoi, l’IA peut être bénéfique dans l’emploi aujourd’hui ?

Il paraît que l’IA va automatiser les tâches routinières de chaque poste de travail. Malheureusement, l’automatisation totale de nos routines n’est pas soutenable physiologiquement pour les humains. Nous ne pouvons pas passer notre journée dans des tâches « non-routinières » (à qualifier d’ailleurs). Le cerveau humain, bien que ne représentant que 2% du poids corporel, consomme 20% des besoins en sucre et 15% des besoins en minéraux. Il a besoin de fractionner les efforts cognitifs intenses.

Certes, la suppression d’effectifs pour cause d’automatisation IA défraie la chronique. La plupart du temps, la volonté de réduire l’effectif était déjà là. Jensen Huang de Nvidia dirait que les emplois disparaissent non pas par automatisation pure, mais par compétition avec d’autres personnes ou entreprises qui ont réussi à co-travailler avec l’IA générative.

Ça revient à prendre en compte que l’IA générative permet d’accélérer l’intégration dans le poste pour les nouveaux arrivants, d’interagir avec les systèmes d’information et les univers de savoirs, en amenant enfin la littératie numérique vers chacun et non l’inverse.  De ce point de vue, c’est un puissant levier de reconversion ou de maintien en employabilité.

Signalons aussi que l’IA générative est un système médiateur d’un nouveau genre pour traduire (le « Transformer » dans le sigle GPT) en langage, en vulgarisation ou en symbolique, l’expression d’un humain vers un autre. Si on y ajoute les conclusions scientifiques récentes sur la capacité des IA génératives à aider l’humain dans son cheminement de pensée pour mieux comprendre ce que pense l’autre (theory of mind) ou à faire de l’innovation par croisement (« c’est comme dans … »), on comprend que l’IA générative « replace les humains » et les organisations pour citer cette jolie formule de Roxana Rugina (Impact AI).

Quelles conditions sont nécessaires pour garantir une IA performante et de qualité  ?

Commençons déjà par vous proposer une reformulation. Nous souhaitons garantir une IA qui soit utile pour l’humain au travail. Grok se présente comme une IA générative performante mais elle produit parfois des horreurs. Lucie ou Apertus se présentent comme des IA de qualité, mais leurs résultats manquent d’utilité au point que l’assiette de Lucie est repartie en cuisine.

Cet exercice de maïeutique permet de situer l’apport de l’IA dans un contexte. Dans une situation définie. C’est la première condition d’une IA de qualité.

Les plateformes digitales évoluent à partir du moment où la pression réglementaire et sociétale rend l’inaction plus coûteuse que la réforme. Contrairement à l’idée reçue d’une nécessité d’innovation « sans entrave », ce sont ces contraintes additionnelles qui rendront le produit plus qualitatif et robuste. Dans cet esprit, nous favorisons un Prosocial Design via des mesures préventives, qui donnent de la visibilité sur les règles du jeu pour asseoir une innovation de long-terme, un marché concurrentiel équitable, une norme incitative pour les financeurs.

La dernière condition de réussite d’une IA de qualité sur laquelle je voudrais insister est celle de l’accès à la data. Une donnée exclusive, pertinente, de qualité ; une donnée sécurisée pour celle ou celui qui en est l’objet, ou qui la communique. Négociation collective des usages de données, partage de la valeur, constitution de communs, service de la donnée par nettoyage ou enrichissement ou interprétation, service public de la donnée … Autant de sujets pour lesquels OpenData France est pionnier et acteur majeur.

Quelles recommandations proposez-vous pour une politique publique de l’IA responsable au travail ?

Nous avons été sensibles à certaines nominations du nouveau Conseil National de l’IA et du Numérique en faveur de personnalités qui travaillent depuis longtemps à l’inclusion numérique. Nous recommandons de maintenir une attention particulière à cet enjeu inclusif. Le travers élitiste du pays se glisse jusque dans la méritocratie républicaine, au point de « produire » à la fois des data scientists et chercheurs réputés mondialement et un classement PISA indigent.

Nous invitons également la puissance publique, les décideurs économiques et les financeurs à articuler leur soutien. D’un côté, des réalisations IA structurelles dont la durée dépasse les mandats électifs (ex : Grand Paris). De l’autre côté, des avancées rapides sur l’IA dont les fruits peuvent être réinjectés dans ces réalisations structurelles. Une politique publique pour favoriser un déploiement responsable de l’IA dans le monde du travail doit associer une politique des systèmes IA « maîtrisés », de l’écologie des données, de la robustesse des infrastructures digitales.

Une politique publique de l’IA responsable au travail doit enfin se construire dans la pluralité des regards et des retours. Je citerai notamment les sciences STEM et sciences humaines, les spécialistes RH et ceux de santé mentale, les organismes qui convergent pour rendre les pratiques raisonnées identifiables par des labels d’IA responsable.

C’est dans ce but que nous appelons à la mise en place d’un observatoire de l’IA responsable, s’appuyant sur le tableau périodique que nous avons mis à disposition. Ce tableau invite chacun à cartographier ses initiatives en les rendant à la fois comparables et spontanément complémentaires.