C’est quoi, l’«AI slop»?


Kazzie Charbonneau
Cela fait déjà un moment que le terme «AI slop» s’est imposé sur le Web, souvent utilisé de façon péjorative, pour décrire le contenu généré par l’intelligence artificielle (IA) de faible qualité. Mais de quoi parle-t-on exactement, et quels sont les enjeux liés à ce contenu?
Selon Laurence Grondin-Robillard, doctorante et professeure associée à l’École des médias de l’UQAM, l’AI slop, c’est de la «bouillie numérique». Du contenu généré à la chaîne par des outils d’IA générative, tels que ChatGPT, Gemini, Grok, Sora 2, Midjourney ou Veo3, qui se distingue par sa qualité perçue médiocre, avec un manque d’intervention créative humaine et une production automatisée motivée par des logiques économiques.
En d’autres mots: c’est un peu l’équivalent du pourriel ou «spam» sur notre fil d’actualité sur les réseaux sociaux. Étrangement, la plupart des plateformes populaires interdisent le spam.
Qu’est-ce qui fait qu’un contenu est «slop»?
Derrière le mot «slop», qu’on pourrait traduire par «bâclé» ou «bouillie», se cache un cocktail de facteurs. Ce n’est pas qu’une question de qualité visuelle ou sonore. C’est aussi une question d’intention et de volume.
«L’intention joue un rôle pivot, explique Laurence Grondin-Robillard. Le slop est souvent produit avec une négligence délibérée, priorisant la quantité pour l’optimisation SEO (et même GEO) par exemple ou l’engagement algorithmique sur les médias sociaux, plutôt que l’utilité ou l’authenticité. Des créateurs exploitent ainsi les failles des algorithmes de TikTok ou YouTube pour monétiser des vidéos absurdes, comme des scénarios politiques fictifs ou des mèmes recyclés, sans égard pour la véracité.»

Le slop est souvent créé pour nourrir les algorithmes, pas pour informer ou inspirer. Les créateurs peuvent publier à la chaîne des vidéos ou images dans l’unique but de monétiser leur contenu, ou même de vendre des formations pour montrer comment produire un tel contenu.
Sur le plan de la qualité, le slop se reconnaît assez facilement: erreurs factuelles, images étranges avec «des mains mal formées» et autres anomalies anatomiques, ainsi qu’un manque de profondeur qui rend le contenu vide.
«L’inondation massive de ce contenu crée un brouillard où le contenu humain est noyé sous des tonnes de banalité générée artificiellement, dégradant l’écosystème informationnel global», ajoute la professeure.
Contenu dégénératif
La popularité de l’expression «AI slop» vient aussi avec la difficulté de la définir en français. L’Office québécois de la langue française (OQLF) a tranché en 2025: «contenu dégénératif». Un choix qui «évoque l’idée d’une perte de qualité» selon Laurence Grondin-Robillard, mais qui s’élargit à toutes les formes de contenu, qu’il soit généré par l’IA ou par un humain puisque «AI» ne fait pas partie de la traduction.
«Des termes faisant allusion à l’IA auraient été à propos comme de la "bouillie d’IA". L’OQLF ajoute même les vidéos de type "hypertrucage" dans sa définition. Or, si c’est un hypertrucage, c’est que la vidéo a réussi à duper des humains et, par conséquent, que sa qualité n’est pas si médiocre... Au contraire, l’OQLF mentionne des "trucages ultraréalistes" dans sa définition d’hypertrucage. Donc, à mon sens, le terme "contenu dégénératif" est excellent, mais il n’est pas la traduction fidèle d’AI slop. Il désigne un phénomène encore plus large en ligne pouvant inclure le contenu généré par des humains si on ne se fie qu’à l’expression choisie,» ajoute-t-elle.
Y a-t-il un «bon usage» de l’AI slop?
Tout contenu généré par l’IA n’est pas automatiquement de la bouillie numérique. Il faut surtout distinguer les usages et la rigueur de ceux qui s’en servent. Sauf que ce contenu doit continuer à être constamment vérifié, ou validé.
Certains outils peuvent être utiles, notamment pour briser le syndrome de la page blanche ou même pour structurer une idée. «Établir un plan, savoir par où commencer, etc. Mais ce n’est qu’un point de départ. Après, il faut y intégrer ses idées, sa pensée et ce caractère authentique qui fait en sorte que c’est humain,» souligne-t-elle.
L’AI slop peut même être utilisé à des fins pédagogiques, pour parler des biais reproduis par l’IA générative ou aborder la désinformation en ligne. C’est une manière de démontrer à quel point c’est facile de dire ou monter n’importe quoi.
Est-ce une phase?
À consulter nos fils d’actualités, il semblerait que l’AI slop ait pris beaucoup de terrain. Est-ce pour toujours? Ou sommes-nous dans une phase transitoire?
Ce n’est pas si simple. Le journaliste Cory Doctorow a souligné l’«enshittification» («emmerdification» en français) de l’ensemble du Web, décrivant une dégradation progressive de la qualité des plateformes numériques. En ce sens, l’expression «contenu dégénératif» s’inscrit bien, selon Laurence Grondin-Robillard.
«Nos fils d’actualité en sont saturés: qu’il s’agisse, par exemple, de vidéos montrant la reine Elizabeth II dans des situations plus qu’improbables lorsqu’elle était encore en vie, ou de mises en scène fantasmées de Donald Trump,» explique-t-elle.

Nina Shick, conférencière et spécialiste en IA, avait déclaré en 2023 qu’on pourrait «atteindre le 90% du contenu en ligne généré par l’IA d’ici 2025». Il ne semble pas qu’on ait réellement atteint ce pourcentage, mais l’apparition de contenu généré par l’IA, surtout depuis l’arrivée de Sora 2, est de plus en plus fréquente.
Les risques du slop
Si l’AI slop peut parfois faire rire ou rouler les yeux, ses conséquences à long terme, elles, sont à surveiller.
D’abord, il y a l’érosion de la confiance et la désinformation. Ce type de contenu alimente la polarisation pouvant exacerber les divisions sociales. Mais il y a aussi la banalisation et la prolifération de stéréotypes, l’emmerdification, les droits d’auteur.
Il est aussi question de déclin de notre esprit critique «nous confirmant le mot de l’année 2024 du Oxford Dictionary: Brain Rot», indique la doctorante.
Une bouillie qui en dit long sur notre rapport au Web
L’AI slop n’est pas qu’une petite tendance: c’est un symptôme d’un Web saturé, où la quantité prime sur la qualité, souvent pour des fins économiques.
Comme le rappelle Laurence Grondin-Robillard, «il faut arrêter de croire que l’intelligence artificielle est intelligente, mais plutôt la voir comme “une assistante” et se permettre de la questionner et de la critiquer».