Op de avonden dat onze laat-millennialhersenen te gefrituurd zijn om de aandacht bij een serie of film te kunnen houden, swipen mijn partner en ik al bankhangend samen door een kortevideofeed naar keuze. Meestal TikTok, soms Instagram Reels en, als de wanhoop groot is, YouTube Shorts.
Aan die ietwat sneue avondbesteding is de laatste tijd iets nieuws toegevoegd, een interactief spelelement zou je kunnen zeggen. Zodra een van ons herkent dat het door een algoritme geselecteerde filmpje met AI gegenereerd is, roepen we „AI!” en swipen we snel door. Niet te lang blijven hangen, voor je het weet denkt het algoritme dat je dit leuk vindt en is AI-slop het enige dat je nog te zien krijgt. Dan zou dit al helemaal een treurige hobby worden.
Sociale media stromen steeds verder vol met AI-slop. Ik had hier graag een concreet percentage bij willen noemen, maar een zoektocht daarnaar voerde me naar een rabbit hole van AI-gegenereerde blogs vol uit de lucht gegrepen getallen. (Naar de publicatie van artikelen is wel serieus onderzoek gedaan: grofweg de helft van de nieuwe publicaties op het (Engelstalige) internet zijn inmiddels door AI geschreven.)
Percentages of niet, de versloppificatie van sociale media is evident voor iedereen die ze regelmatig bezoekt. En de platforms zijn vooralsnog behoorlijk vrijblijvend met de regels die ze hiervoor opstellen. AI-beelden mogen sowieso geplaatst worden, het enige wat verschilt per platform is in hoeverre dat ook duidelijk gemaakt moet worden.
TikTok „moedigt makers aan om content te labelen die volledig is gegenereerd of aanzienlijk is bewerkt door AI”. Dat mag ook door het in de beschrijving van de video te vermelden – bepaald geen opvallende plek. Ook YouTube vraagt uploaders om AI-gebruik op te biechten, en bepaalt vervolgens afhankelijk van de gevoeligheid van de video hoe zichtbaar het label moet zijn.
En Meta? Dat plaatst in zeer kleine lettertjes een summier labeltje „AI info” boven nepbeelden. Gebruikers kunnen daarop klikken om te zien wat dat betekent. Bij beelden waarvan Meta denkt dat het AI-gebruik beperkt is tot een bewerkingsslag, wordt die melding ook nog eens weggemoffeld in een menu.
Meta’s label heeft nog meer nadelen. Het wordt automatisch toegepast als de software waarmee het beeld is gegenereerd die oorsprong netjes in de metadata vermeldt. Dat doet lang niet elke tool. Meta blijkt bovendien alleen maar in staat om die automatische labels bij statische beelden toe te passen, niet bij video’s. Daar is het labelen volledig afhankelijk van of de plaatser aanvinkt dat iets door AI gemaakt is.
Nieuwe regels nodig
Die aanpak maakt Meta „overmatig afhankelijk van zelfrapportage”, stelde de eigen toezichthouder van het socialemediabedrijf deze week. Dat zogeheten Oversight Board wil dat de maker van Facebook en Instagram een nieuwe set regels opstelt specifiek voor AI-gegenereerde content, zodat „gebruikers dit duidelijk kunnen herkennen”.
Het Oversight Board werd in 2018 opgericht in de nasleep van de rol die Facebook speelde in de genocide op de Rohingya-minderheid in Myanmar en in reactie op het Cambridge Analytica-schandaal, en dient als een soort raad van beroep waar gebruikers in beroep kunnen gaan tegen moderatiebeslissingen van Facebook en Instagram. Aanleiding voor de oproep voor beter AI-beleid volgt op een casus die de raad onlangs behandelde.
Die zaak draait om een video die in juni vorig jaar op Facebook werd geplaatst, waarin zogenaamd „live” te zien zou zijn hoe gebouwen in Israël werden verwoest door oorlogsgeweld. Die gebeurtenis had niet plaatsgevonden en het beeld was AI-gegenereerd, zoals meerdere mensen ook in de reacties opmerkten. Toch kwam de video 700.000 keer bij mensen in de tijdlijn voorbij. Een vrijwel identieke video was door factcheckers van persbureau AFP als nep bestempeld.
Een zestal mensen rapporteerde de video, maar Facebook deed daar niks mee. Het platform vond dat die video prima door de beugel kon. Eén van de melders stapte daarop naar het Oversight Board. Dat is het weliswaar eens met de beoordeling dat de beelden niet in strijd waren met de huisregels van het platform, maar vindt dat Meta er wél een AI-label op had moeten plakken.
De commissie maakt zich namelijk ernstige zorgen over de enorme hoeveelheid aan realistisch ogende nepbeelden. Al helemaal als die beelden pretenderen iets te laten zien van een oorlogssituatie. „Dat vergroot het onvermogen van het publiek om te onderscheiden wat echt is”, stelt het Oversight Board. En dat zorgt er weer voor dat mensen „álle informatie gaan wantrouwen”.
De 21 leden tellende raad reflecteert ook op zijn eigen rol. De huidige werkwijze, waarbij individuele casussen beoordeeld worden in een proces dat maanden kan duren, is niet houdbaar met de huidige wildgroei aan nepcontent. In een opiniestuk in The Guardian betoogt lid Suzanne Nossel dat het „kan voelen alsof we een bosbrand proberen te blussen door nasmeulende resten uit te blazen”.
Moderatie is verregaand geautomatiseerd. Dat werkt in de praktijk prima om bijvoorbeeld naaktbeelden te herkennen en te verwijderen. Maar beoordelen of iets desinformatie is of haatzaaiend, is „te ingewikkeld” om te automatiseren. Dat heeft Sudhir Krishnaswamy, het enige Indiase lid van het Oversight Board, gezegd tegen techmedium Rest of World. Dat geldt al helemaal als die systemen in de VS gebouwd worden en vervolgens worden toegepast op berichten die niet in het Engels zijn geschreven, of een niet-westerse culturele en politieke achtergrond hebben.


/s3/static.nrc.nl/wp-content/uploads/2026/03/05075035/web-291025ECO_2020866841_china2.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/03/15145156/150326ECO_2032260176_Rotterdam01.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/03/13140614/130326ECO_2032180455_olie6.jpg)


/https://content.production.cdn.art19.com/images/be/fb/d2/78/befbd278-d24d-43fa-bff8-f18e14aa54ff/8fcbe4bc5a931a615c0644ebc71afc9dbd29ec887328be05b06139bdf8f031c72b8423fe0255d16be578dac7cb74aaae38455dbcf1beb5e650283682c24a064a.jpeg)



English (US) ·