11 Maart
Russische desinformatie beïnvloedt AI-chatbots op grote schaal

Het Moskouse desinformatienetwerk "Pravda" heeft volgens NewsGuard een geraffineerde strategie ontwikkeld: in plaats van rechtstreeks misleidende informatie te verspreiden onder mensen, richt het zich op kunstmatige intelligentie. Door AI-modellen structureel te voeden met miljoenen artikelen vol pro-Kremlin-claims, wordt de manier waarop AI-systemen nieuws interpreteren en delen beïnvloed. Dit kan grote gevolgen hebben voor de betrouwbaarheid van informatie die chatbots genereren.
NewsGuard onderzocht tien toonaangevende AI-chatbots, waaronder OpenAI’s ChatGPT-4o, Microsoft Copilot, Google Gemini en Meta AI. De audit testte hoe deze systemen omgingen met vijftien verschillende valse narratieven die afkomstig waren uit een netwerk van 150 Pravda-websites. De resultaten laten zien dat AI-modellen 33% van de tijd de desinformatie klakkeloos overnamen. In 48% van de gevallen wisten de modellen de valse claims te ontkrachten, terwijl ze in 18% van de gevallen een ontwijkend of nietszeggend antwoord gaven.
Het Pravda-netwerk verspreidt zijn berichten wereldwijd via 150 domeinen, in tientallen talen, en richt zich op 49 verschillende landen. De omvang is enorm: in 2024 publiceerde het netwerk naar schatting 3,6 miljoen artikelen. Veel van deze sites richten zich specifiek op regio’s zoals Oekraïne, de Europese Unie en Noord-Amerika, waarbij desinformatie wordt aangepast aan de lokale context om geloofwaardiger over te komen. Sommige domeinen, zoals NATO.news-pravda.com en Trump.news-pravda.com, suggereren zelfs dat ze onafhankelijke nieuwssites zijn, terwijl ze in werkelijkheid een gecentraliseerde propagandastrategie volgen.
Een van de methoden waarmee het Pravda-netwerk AI beïnvloedt, is door geavanceerde zoekmachine-optimalisatie (SEO) toe te passen. Hierdoor komen de Pravda-websites hoger in zoekresultaten te staan, waardoor AI-modellen, die vaak afhankelijk zijn van doorzoekbare openbare data, sneller deze bronnen opnemen in hun trainings- en zoekprocessen. Dit vergroot de kans dat de AI-systemen desinformatie uit deze netwerken als feit presenteren.
Volgens het Amerikaanse American Sunlight Project (ASP), dat eveneens onderzoek deed naar Pravda, is deze strategie bedoeld als een vorm van "LLM grooming" – het bewust beïnvloeden van large language models (LLM’s) door valse narratieven massaal op het internet te zetten. Dit kan een langetermijneffect hebben, omdat AI-modellen die getraind worden op deze gegevens steeds vaker desinformatie opnemen en herhalen.
Deze bevindingen roepen grote vragen op over hoe AI-bedrijven hun modellen kunnen beschermen tegen staatsgestuurde desinformatiecampagnes. NewsGuard waarschuwt dat de omvang en schaal van deze beïnvloedingsoperatie AI-modellen kwetsbaar maakt voor manipulatie en roept op tot strengere maatregelen om de betrouwbaarheid van AI-systemen te garanderen.
Vergelijkbaar >
Vergelijkbare nieuwsitems

11 Maart
Russische desinformatie beïnvloedt AI-chatbots op grote schaal
Lees meer >

11 maart
Pacmed wint regionale ronde van de Zorginnovatieprijs 2025
Lees meer >

11 maart
Europa’s digitale dilemma: kiezen voor innovatie of strengere regels?
Lees meer >