SVG Image
< Terug naar nieuws

29 december 2023

Zorgen bij toezichthouder over risico’s AI, weinig zicht op incidenten

De risico's van het gebruik van kunstmatige intelligentie (AI) zijn dit jaar sterk toegenomen, waarschuwt de Autoriteit Persoonsgegevens in zijn eerste jaarrapport over AI.
De zorgen betreffen met name de opkomst van generatieve AI, technologie die op basis van een opdracht tekst, afbeeldingen of foto's genereert. Een bekend voorbeeld hiervan is ChatGPT.
 
"Wat algoritmes doen, is dat ze voorspellen. Ze delen mensen in in groepen of ze profileren ze", zegt Sven Stevenson, programmadirecteur AI bij de Autoriteit Persoonsgegevens in gesprek met de NOS. "En dat brengt het risico mee dat de uitkomst voor jou oneerlijk is. Dat je soms wordt gediscrimineerd. Of dat je zelfs fysieke risico's hebt."
 
Gevraagd naar een voorbeeld waarbij het met AI fout gaat, verwijst Stevenson naar scanauto's die rondrijden in gemeenten en op basis van een kenteken controleren of er wel wordt betaald voor een parkeerplek. "Dat pakt soms helemaal verkeerd uit. Mensen die honderden parkeerboetes krijgen van één incident omdat die scanauto maar langs blijft rijden."
 
Wereldwijd grote stijging AI-incidenten

In het rapport haalt de toezichthouder data aan over het aantal geregistreerde AI-incidenten. Dat is vertienvoudigd. Het gaat om wereldwijde cijfers, afkomstig van de Organisatie voor Economische Samenwerking en Ontwikkeling. Het vermoeden is dat het slechts gaat om een topje van de ijsberg.
 
Nederlandse cijfers zijn er niet. "Het eerlijke antwoord is dat we dat gewoon heel slecht weten", zegt Stevenson. Dat is zorgelijk, erkent hij. "Daar gaan we wel met z'n allen mee aan de slag. Maar het is wat dat betreft ook echt een oproep aan burgers en bedrijven: als er iets aan de hand is waarvan iemand het gevoel heeft van: 'hee dit klopt niet, dit is raar', stel dan de vraag of controleer of er een algoritme in het spel is."
 
Deltaplan 2030

In het rapport pleit de Autoriteit Persoonsgegevens voor een Deltaplan voor 2030, om algoritmes en AI onder controle te krijgen. "Het betekent allereerst dat mensen die werken met AI ondersteund gaan worden, bijvoorbeeld politieagenten, docenten en artsen. Zij moeten goed snappen hoe algoritmes en AI werken, wat de sterke en wat de zwakke punten zijn", zegt Stevenson.
 
En misschien wel het belangrijkst: het betekent volgens de toezichthouder dat burgers straks moeten begrijpen hoe een besluit van een AI-systeem tot stand is gekomen. "Dat er bijvoorbeeld in zo'n brief staat 'het AI-systeem was een bepalende factor in de voorbereiding van dit besluit'", zegt Stevenson.
 
De waakhond noemt de komst van de Europese AI Act een belangrijke mijlpaal. Maar dat het toezicht in Nederland nog in de kinderschoenen staat, is af te lezen aan de grootte van het coördinerende AI-team binnen de Autoriteit Persoonsgegevens. Er zijn zeven mensen mee bezig, inclusief Stevenson. Volgend jaar moet dit aantal verdubbelen. Wel wordt benadrukt dat het hier gaat om 'pionierswerk', het team is een van de eerste in Europa.
 
 

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie

14 November 2024

De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie >

In het nieuwe beleid, De Amsterdamse Visie op AI, wordt beschreven hoe kunstmatige intelligentie (AI) een rol mag spelen in Amsterdam, en hoe deze technologie het leven in de stad mag beïnvloeden volgens de inwoners. Deze visie is tot stand gekomen na een maandenlang proces van gesprekken en dialoog, waarin een breed scala aan Amsterdammers – van festivalbezoekers tot schoolkinderen en van experts tot digibeten – hun mening gaven over de toekomst van AI in hun stad.  

Lees meer >

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma

14 November 2024

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma >

ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.

Lees meer >

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs

14 november

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs >

De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.

Lees meer >