Si les promesses de gains de productivité affolent les marchés et les directions financières, la réalité du terrain dessine un paysage bien plus complexe. Entre coûts cachés, risques juridiques et nivellement des compétences par le bas, la substitution pure et simple de l’humain par l’algorithme se heurte au « mur de la réalité ». Enquête sur un fantasme managérial à l’épreuve des faits.

C’est une petite musique qui monte dans les couloirs des sièges sociaux et s’installe feutrée dans les comités exécutifs. Et si l’on remplaçait le service client par un chatbot ? Et si la rédaction de contenus marketing, le code informatique de premier niveau ou l’analyse financière étaient confiés à ces « modèles de fondation » dont la puissance semble doubler chaque trimestre ? Depuis le lancement de ChatGPT fin 2022, la tentation de la substitution est forte. Les chiffres circulent, vertigineux : la banque Goldman Sachs estimait en mars 2023 que 300 millions d’emplois dans le monde pourraient être exposés à l’automatisation. McKinsey renchérissait en avril 2024, affirmant que d’ici à 2030, plus de 30 % des heures travaillées en Europe et aux États-Unis pourraient être automatisées par l’IA générative.

Pourtant, derrière ces projections macroéconomiques, une autre réalité émerge, plus nuancée, documentée par des études récentes du MIT et de Harvard. Elle raconte une histoire où la technologie ne remplace pas l’homme, mais le percute, le déstabilise, et parfois le ruine, sans pour autant offrir le miracle économique promis aux entreprises.

Le mythe de la rentabilité immédiate

Pour comprendre pourquoi le « grand remplacement » par l’IA n’aura probablement pas lieu à la vitesse de l’éclair, il faut se pencher sur le portefeuille. Une étude majeure du Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT, publiée en janvier 2024, vient doucher l’enthousiasme des technophiles les plus zélés. Les chercheurs ont modélisé non pas ce qui peut techniquement être fait par une IA, mais ce qui est rentable à automatiser.

Leur verdict est sans appel : si l’on se concentre sur les tâches visuelles comme l'inspection qualité ou la surveillance, seules 23 % des tâches rémunérées « exposées » à l’IA seraient aujourd’hui économiquement viables à automatiser. En clair : dans plus des trois quarts des cas, il coûte encore moins cher de payer un humain que de développer, déployer et maintenir un système d’intelligence artificielle fiable.

L’équation économique de l’IA est souvent mal comprise. Elle ne se limite pas à un abonnement mensuel à un outil génératif. Elle implique des coûts fixes d’ingénierie, de nettoyage de données et de maintenance qui restent prohibitifs pour la majorité des entreprises qui ne disposent pas d’effets d’échelle massifs. Le remplacement des travailleurs ne sera donc pas brutal, mais progressif, laissant, en théorie, une marge de manœuvre pour les politiques publiques et la formation.

La « frontière irrégulière » de la compétence

Si l’obstacle économique est le premier frein, le second est qualitatif. C’est ce que démontre une étude menée conjointement par le Boston Consulting Group (BCG) et des chercheurs de Harvard et du MIT auprès de 758 consultants. Ils ont conceptualisé une « frontière technologique irrégulière » (jagged frontier) : une ligne invisible et mouvante où l’IA excelle sur certaines tâches et échoue lamentablement sur d’autres, pourtant d’apparence similaire.

Les résultats de cette expérimentation sont paradoxaux. Pour des tâches créatives et de rédaction comme l'idéation de produits ou les communiqués de presse, l’usage de GPT-4 a permis aux consultants d’être 25 % plus rapides et d’augmenter la qualité de leur production de 40 %. Mais dès qu’il s’agissait de résolution de problèmes complexes (business problem-solving) nécessitant une analyse nuancée de données qualitatives et quantitatives, les performances se sont effondrées. Les consultants utilisant l’IA avaient 19 points de pourcentage de moins de chances de trouver la bonne solution que ceux qui travaillaient sans assistance.

Plus inquiétant pour les DRH qui rêveraient de remplacer leurs experts : l’IA agit comme un formidable nivellement par le bas. L’étude du BCG montre que l’outil profite massivement aux consultants les moins performants (+43 % de gain de qualité), tandis que les meilleurs éléments ne progressent que marginalement (+17 %). Pire, l’usage de l’IA tend à homogénéiser la pensée : la diversité des idées produites s’effondre, les résultats devenant plus standardisés. Remplacer l’humain par l’IA, c’est donc prendre le risque de la médiocrité standardisée et de la perte d’avantage concurrentiel.

La violence sociale et les inégalités cachées

Au-delà des chiffres, la substitution est une violence. Comme le rapportait Libération début décembre 2025, pour les salariés concernés, le choc est brutal. Dans certaines entreprises de la tech ou de la veille médiatique, des plans sociaux ont été justifiés par l’implémentation d’outils développés offshore. Mais cette violence ne frappe pas au hasard.

Les rapports du McKinsey Institute for Black Economic Mobility et de la Brookings Institution aux États-Unis soulignent une dimension raciale et sociale souvent ignorée en Europe. Les travailleurs noirs et hispaniques sont surreprésentés dans les métiers les plus menacés par l’automatisation, notamment le support administratif, les services et la production. Aux États-Unis, les travailleurs noirs font face à un risque d’automatisation de 44 % de leurs tâches, contre 40 % pour les travailleurs blancs. En France, le Conseil économique, social et environnemental (CESE) alerte sur l’exposition particulière des femmes, majoritaires dans les fonctions administratives et de gestion, cibles prioritaires des algorithmes.

La destruction d’emplois n’est pas la seule menace, la déqualification l’est tout autant. Le LaborIA, laboratoire de recherche du ministère du Travail et de l’Inria, pointe un risque de perte de sens au travail. Si l’IA est souvent perçue positivement pour réduire les tâches fastidieuses (74 % des décideurs l’affirment), elle entraîne aussi une reconfiguration brutale des rôles. Le « Shadow AI », qui désigne l’utilisation d’outils d’IA par les salariés sans l’aval de leur direction, se développe et crée des risques de sécurité ainsi qu'une opacité sur la réalité du travail effectué.

Vers l’ère des « Centaures » et des « Cyborgs »

Alors, quelle stratégie adopter ? L’étude de Harvard identifie deux modèles de collaboration homme-machine gagnants qui s’opposent à la logique de remplacement : les « Centaures » et les « Cyborgs ». Les Centaures divisent les tâches : ils délèguent à l’IA ce qu’elle fait le mieux et gardent le reste. Les Cyborgs, eux, intègrent l’IA à chaque micro-étape de leur raisonnement.

C’est ici que réside l’avenir du travail : non pas dans la substitution, mais dans l’hybridation. Cependant, cela pose un défi immense pour la formation. Si l’IA automatise les tâches « juniors » qui permettaient autrefois d’apprendre le métier, comment former la prochaine génération d’experts ?

En définitive, remplacer son employé par une IA est une vision court-termiste. Comme le souligne la Commission de l’IA en France, l’intelligence artificielle remplace des tâches, pas des métiers, car seuls 5 % des emplois seraient entièrement substituables. L’entreprise qui gagnera la bataille de la productivité ne sera pas celle qui aura le moins de salariés, mais celle dont les équipes auront appris à dompter la machine sans lui abandonner leur jugement critique.