L'ère du « slop » : quand l'intelligence artificielle inonde Internet de contenus médiocres

2024 restera dans l'histoire comme l'année où un nouveau terme s'est imposé dans le vocabulaire numérique : le « slop ». Contraction de « sloppy » (bâclé), ce mot désigne la prolifération massive de contenus générés par l'IA de mauvaise qualité qui saturent désormais nos écrans. Loin d'être un simple phénomène technique, cette invasion silencieuse révèle une mutation profonde de notre rapport à l'information et à la création.

Une pollution numérique aux multiples visages

Le slop se manifeste sous des formes variées mais reconnaissables. Sur Facebook, des images surréalistes de « Jésus-crevette » accumulent des millions de vues, tandis qu'Amazon se remplit de livres de cueillette aux champignons potentiellement mortels, entièrement rédigés par des chatbots. Google propose désormais d'ajouter de la colle non toxique sur nos pizzas, et LinkedIn fourmille de posts « professionnels » manifestement générés par IA.

Cette invasion n'est pas accidentelle. Le terme « slop », popularisé par le développeur Simon Willison, s'inspire délibérément du mot « spam » pour décrire ce nouveau fléau numérique. Comme l'explique Willison : « Avant que le terme "spam" ne soit généralisé, il n'était pas nécessairement clair pour tout le monde que les messages de marketing indésirables constituaient une mauvaise façon de se comporter. »

Les exemples se multiplient à une vitesse vertigineuse :

  • Des sites de presse entiers générés automatiquement, détectés par milliers par les enquêtes de Next.ink
  • 70 % des contenus Pinterest seraient désormais créés par IA selon Le Figaro
  • Des fermes à contenu produisant massivement vidéos et articles pour maximiser les revenus publicitaires
  • Des traductions automatiques qui dégradent la qualité des contenus web dans les langues minoritaires

L'économie perverse de l'attention automatisée

Derrière cette prolifération se cache un modèle économique redoutablement efficace. Les plateformes comme Meta rémunèrent les créateurs selon leur audience, incitant à produire en masse du contenu viral. L'IA permet désormais de générer des milliers de publications en quelques clics, transformant internet en casino algorithmique.

Le phénomène s'autoalimente : les algorithmes de recommandation, entraînés sur ces contenus artificiels, les valorisent davantage que les créations humaines. Meta annonce fièrement une augmentation de 8 % du temps passé sur Facebook grâce aux contenus génératifs. Une victoire à court terme qui pourrait s'avérer pyrrhique.

Cette mécanique révèle une vérité dérangeante : l'IA slop n'est pas un dysfonctionnement, mais la conséquence logique d'un système qui privilégie l'engagement sur la qualité. Comme l'observe le chercheur Eryk Salvaggio, « le remplissage est un pouvoir » qui permet de saturer l'espace informationnel pour mieux le contrôler.

Une menace épistémologique majeure

Au-delà de l'inconfort esthétique, le slop pose un défi fondamental à notre rapport à la vérité. Contrairement à la désinformation classique, il ne cherche pas nécessairement à mentir mais à « paraître confiant », comme l'explique la professeure Sandra Wachter d'Oxford. Cette « bullshitification » massive érode insidieusement notre capacité collective à distinguer le vrai du faux.

La sociologue Janet Vertesi observe une transformation radicale : « Internet contemporain est organisé autour du contenu plutôt que de l'information ». Dans ce nouvel écosystème, tous les paquets d'information ont le même poids, qu'ils soient vrais ou faux, créés par des humains ou des machines.

Cette évolution menace particulièrement :

  • La recherche d'information : Google reconnaît que ses résultats sont pollués par des contenus IA
  • L'expression artistique : les créateurs humains ne peuvent concurrencer la vitesse de production des machines
  • La confiance sociale : l'incertitude généralisée sur l'origine des contenus mine la crédibilité de tous

Vers un internet à deux vitesses ?

Face à cette invasion, une contre-révolution silencieuse s'organise. Des plateformes comme Bluesky promettent un web sans IA, tandis que des outils comme uBlacklist permettent de filtrer le slop des résultats de recherche. Le mouvement « Web Revival » prône un retour aux sites personnels et aux flux RSS pour échapper aux algorithmes.

Cette fragmentation annonce peut-être un internet à deux vitesses : d'un côté, des espaces préservés pour les interactions humaines authentiques ; de l'autre, un océan de contenus artificiels destinés à alimenter les machines. Une polarisation qui rappelle celle entre centres-villes gentrés et banlieues délaissées.

Certains experts parient sur l'autorégulation : les modèles d'IA, nourris de leurs propres productions, finiraient par s'effondrer dans un phénomène de « dégénérescence ». Mais cette hypothèse sous-estime la capacité d'adaptation des systèmes et la résistance des modèles « suffisamment bons » pour produire du slop.

L'urgence d'une prise de conscience collective

Le slop n'est pas qu'un problème technique : c'est le symptôme d'une société qui a abdiqué sa responsabilité créative au profit de l'efficacité algorithmique. Comme l'observe Hubert Guillaud, nous assistons à « l'effondrement de tout le reste » après celui de l'information.

La solution ne viendra pas des seules innovations technologiques mais d'une prise de conscience collective. Il faut apprendre à reconnaître, nommer et rejeter le slop comme nous l'avons fait avec le spam. Cela implique de développer une nouvelle littératie numérique, de soutenir la création humaine et d'exiger la transparence des plateformes.

Car au-delà de la pollution visuelle, c'est notre capacité collective à créer du sens qui est en jeu. Dans un monde saturé de productions artificielles, l'authenticité humaine devient le luxe ultime. À nous de décider si nous voulons être les spectateurs passifs de cette « slopification » généralisée ou les acteurs d'une résistance créative nécessaire.