SVG Image
< Terug naar nieuws

11 Maart

Russische desinformatie beïnvloedt AI-chatbots op grote schaal

Uit een audit van NewsGuard blijkt dat de tien grootste AI-chatbots in 33% van de gevallen desinformatie uit een Russisch propagandanetwerk herhalen. Door systematisch valse informatie te verspreiden, beïnvloedt het Kremlin hoe AI-systemen nieuws verwerken en presenteren.

Het Moskouse desinformatienetwerk "Pravda" heeft volgens NewsGuard een geraffineerde strategie ontwikkeld: in plaats van rechtstreeks misleidende informatie te verspreiden onder mensen, richt het zich op kunstmatige intelligentie. Door AI-modellen structureel te voeden met miljoenen artikelen vol pro-Kremlin-claims, wordt de manier waarop AI-systemen nieuws interpreteren en delen beïnvloed. Dit kan grote gevolgen hebben voor de betrouwbaarheid van informatie die chatbots genereren.

 

NewsGuard onderzocht tien toonaangevende AI-chatbots, waaronder OpenAI’s ChatGPT-4o, Microsoft Copilot, Google Gemini en Meta AI. De audit testte hoe deze systemen omgingen met vijftien verschillende valse narratieven die afkomstig waren uit een netwerk van 150 Pravda-websites. De resultaten laten zien dat AI-modellen 33% van de tijd de desinformatie klakkeloos overnamen. In 48% van de gevallen wisten de modellen de valse claims te ontkrachten, terwijl ze in 18% van de gevallen een ontwijkend of nietszeggend antwoord gaven.

 

Het Pravda-netwerk verspreidt zijn berichten wereldwijd via 150 domeinen, in tientallen talen, en richt zich op 49 verschillende landen. De omvang is enorm: in 2024 publiceerde het netwerk naar schatting 3,6 miljoen artikelen. Veel van deze sites richten zich specifiek op regio’s zoals Oekraïne, de Europese Unie en Noord-Amerika, waarbij desinformatie wordt aangepast aan de lokale context om geloofwaardiger over te komen. Sommige domeinen, zoals NATO.news-pravda.com en Trump.news-pravda.com, suggereren zelfs dat ze onafhankelijke nieuwssites zijn, terwijl ze in werkelijkheid een gecentraliseerde propagandastrategie volgen.

 

Een van de methoden waarmee het Pravda-netwerk AI beïnvloedt, is door geavanceerde zoekmachine-optimalisatie (SEO) toe te passen. Hierdoor komen de Pravda-websites hoger in zoekresultaten te staan, waardoor AI-modellen, die vaak afhankelijk zijn van doorzoekbare openbare data, sneller deze bronnen opnemen in hun trainings- en zoekprocessen. Dit vergroot de kans dat de AI-systemen desinformatie uit deze netwerken als feit presenteren.

 

Volgens het Amerikaanse American Sunlight Project (ASP), dat eveneens onderzoek deed naar Pravda, is deze strategie bedoeld als een vorm van "LLM grooming" – het bewust beïnvloeden van large language models (LLM’s) door valse narratieven massaal op het internet te zetten. Dit kan een langetermijneffect hebben, omdat AI-modellen die getraind worden op deze gegevens steeds vaker desinformatie opnemen en herhalen.

 

Deze bevindingen roepen grote vragen op over hoe AI-bedrijven hun modellen kunnen beschermen tegen staatsgestuurde desinformatiecampagnes. NewsGuard waarschuwt dat de omvang en schaal van deze beïnvloedingsoperatie AI-modellen kwetsbaar maakt voor manipulatie en roept op tot strengere maatregelen om de betrouwbaarheid van AI-systemen te garanderen.

 

Lees het volledige report op de site van NewsGuard.