En 2025, le néologisme « enshittification », popularisé par Cory Doctorow, est devenu un cadre d’analyse courant pour décrire la dégradation des services numériques. Des objets connectés aux plateformes sociales, des pratiques commerciales et techniques ont conduit à une perte de confiance notable chez le grand public et des exemples concrets ont alimenté le débat.

Un mot devenu incontournable

Le terme, forgé pour qualifier la détérioration progressive d’un service au profit de ses propriétaires au détriment des usagers, a été largement repris en 2025. Les médias et observateurs l’ont associé à des cas visibles et controversés : publicité intrusive sur des appareils ménagers, fonctions verrouillées derrière des abonnements, traitements flous des données personnelles, et amplification de contenus générés par intelligence artificielle. Ce phénomène a contribué à une forte dégradation de l’image du secteur : selon des sondages rapportés, l’approbation publique de « l’industrie internet » serait passée d’environ 40 % à presque 0 en quelques années.

Exemples et conséquences concrètes

Plusieurs incidents rapportés en 2025 illustrent comment des produits et services autrefois perçus comme utiles sont devenus sources de mécontentement ou de risques.

  • Un réfrigérateur « intelligent » commercialisé à un tarif élevé a affiché des publicités et serait associé à un cas d’hospitalisation suite à un épisode psychotique.
  • Des constructeurs automobiles ont transformé des fonctions précédemment gratuites en options payantes via des abonnements, limitant l’usage complet des véhicules.
  • Un fabricant d’équipements sanitaires a proposé une caméra de toilette par abonnement dont les photos ne seraient pas chiffrées et pourraient servir à entraîner des systèmes d’intelligence artificielle.
  • Un grand moteur de recherche a été juridiquement reconnu coupable d’avoir volontairement dégradé son service, selon des décisions citées dans la presse.

Du côté des plateformes sociales et des systèmes de recommandation, plusieurs phénomènes se conjuguent : tarification dynamique appliquée à des secteurs variés, prédominance de comptes automatisés dans le trafic total, et prolifération de contenus générés par IA, parfois manipulatoires — deepfakes, vidéos falsifiées, pornographie non consentie. Des entreprises technologiques ont même lancé des outils facilitant la production de ces contenus, qui ont rapidement été détournés à des fins de désinformation et de nuisance.

Une illustration frappante est l’émergence d’une vidéo virale d’animaux sur un trampoline, d’abord divertissante, puis élargie en une série de contenus de plus en plus improbables par l’algorithme, montrant comment les signaux d’engagement peuvent enfermer un utilisateur dans une boucle de contenus absurdes.

Causes déclarées et pistes de sortie

Cory Doctorow rappelle que ces trajectoires sont le résultat de choix économiques et politiques, non d’une fatalité technique. Trois leviers sont souvent évoqués pour corriger le tir :

  • Régulation ciblée pour limiter les pratiques commerciales les plus nocives et renforcer les obligations de transparence et de sécurité des données.
  • Financement public ou soutiens pour des projets numériques ouverts et axés sur l’intérêt des usagers plutôt que sur la rente des plateformes.
  • Priorité réglementaire et industrielle donnée aux droits et à l’expérience des usagers plutôt qu’à la monétisation à court terme.

En 2025, le Canada est décrit comme à un carrefour sur ces questions : souveraineté technologique, rôle des outils numériques pour la défense et orientation de la politique publique en matière d’intelligence artificielle sont des sujets au cœur des débats. Les acteurs locaux (entrepreneurs, financeurs, critiques) seront observés pour leurs tentatives de redresser la barre.

Ce qui reste à confirmer

Plusieurs éléments rapportés reposent sur des enquêtes et articles de presse ; certains liens de causalité, comme l’attribution d’un épisode psychotique à l’exposition à des publicités sur un appareil, restent à confirmer par des études médicales ou des procédures judiciaires complémentaires. De même, l’ampleur exacte du trafic automatisé et l’impact précis des applications facilitant la génération de contenus nuisibles méritent des analyses indépendantes supplémentaires.

À retenir

  • Le concept d’« enshittification » a servi en 2025 à qualifier la dégradation observée de services numériques et objets connectés.
  • Exemples concrets incluent publicité intrusive sur des appareils, fonctions verrouillées par abonnement et usages de données problématiques.
  • La diffusion massive de contenus générés par IA, y compris des deepfakes, a érodé la confiance envers les plateformes.
  • Des changements politiques et économiques sont possibles et nécessaires pour inverser ces tendances.
  • Plusieurs faits rapportés demandent néanmoins des confirmations complémentaires par des enquêtes indépendantes.

Article amélioré avec l'IA - Article original