< Terug naar nieuws

29 december 2023

Zorgen bij toezichthouder over risico’s AI, weinig zicht op incidenten

De risico's van het gebruik van kunstmatige intelligentie (AI) zijn dit jaar sterk toegenomen, waarschuwt de Autoriteit Persoonsgegevens in zijn eerste jaarrapport over AI.
De zorgen betreffen met name de opkomst van generatieve AI, technologie die op basis van een opdracht tekst, afbeeldingen of foto's genereert. Een bekend voorbeeld hiervan is ChatGPT.
 
"Wat algoritmes doen, is dat ze voorspellen. Ze delen mensen in in groepen of ze profileren ze", zegt Sven Stevenson, programmadirecteur AI bij de Autoriteit Persoonsgegevens in gesprek met de NOS. "En dat brengt het risico mee dat de uitkomst voor jou oneerlijk is. Dat je soms wordt gediscrimineerd. Of dat je zelfs fysieke risico's hebt."
 
Gevraagd naar een voorbeeld waarbij het met AI fout gaat, verwijst Stevenson naar scanauto's die rondrijden in gemeenten en op basis van een kenteken controleren of er wel wordt betaald voor een parkeerplek. "Dat pakt soms helemaal verkeerd uit. Mensen die honderden parkeerboetes krijgen van één incident omdat die scanauto maar langs blijft rijden."
 
Wereldwijd grote stijging AI-incidenten

In het rapport haalt de toezichthouder data aan over het aantal geregistreerde AI-incidenten. Dat is vertienvoudigd. Het gaat om wereldwijde cijfers, afkomstig van de Organisatie voor Economische Samenwerking en Ontwikkeling. Het vermoeden is dat het slechts gaat om een topje van de ijsberg.
 
Nederlandse cijfers zijn er niet. "Het eerlijke antwoord is dat we dat gewoon heel slecht weten", zegt Stevenson. Dat is zorgelijk, erkent hij. "Daar gaan we wel met z'n allen mee aan de slag. Maar het is wat dat betreft ook echt een oproep aan burgers en bedrijven: als er iets aan de hand is waarvan iemand het gevoel heeft van: 'hee dit klopt niet, dit is raar', stel dan de vraag of controleer of er een algoritme in het spel is."
 
Deltaplan 2030

In het rapport pleit de Autoriteit Persoonsgegevens voor een Deltaplan voor 2030, om algoritmes en AI onder controle te krijgen. "Het betekent allereerst dat mensen die werken met AI ondersteund gaan worden, bijvoorbeeld politieagenten, docenten en artsen. Zij moeten goed snappen hoe algoritmes en AI werken, wat de sterke en wat de zwakke punten zijn", zegt Stevenson.
 
En misschien wel het belangrijkst: het betekent volgens de toezichthouder dat burgers straks moeten begrijpen hoe een besluit van een AI-systeem tot stand is gekomen. "Dat er bijvoorbeeld in zo'n brief staat 'het AI-systeem was een bepalende factor in de voorbereiding van dit besluit'", zegt Stevenson.
 
De waakhond noemt de komst van de Europese AI Act een belangrijke mijlpaal. Maar dat het toezicht in Nederland nog in de kinderschoenen staat, is af te lezen aan de grootte van het coördinerende AI-team binnen de Autoriteit Persoonsgegevens. Er zijn zeven mensen mee bezig, inclusief Stevenson. Volgend jaar moet dit aantal verdubbelen. Wel wordt benadrukt dat het hier gaat om 'pionierswerk', het team is een van de eerste in Europa.
 
 

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 CuspAI stelt zich voor in LAB42

6 September 2024

CuspAI stelt zich voor in LAB42 >

Op 5 september 2024 presenteerden Max Welling en Chad Edwards, oprichters van CuspAI, hun innovatieve bedrijf tijdens de IvI koffie & taart-bijeenkomst. 

Lees meer >

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten

5 September 2024

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten >

Een consortium van toonaangevende Nederlandse onderzoeksinstituten en overheidsinstellingen, waaronder de TU Delft, Universiteit van Amsterdam, TNO en de Koninklijke Marechaussee, is van start gegaan met een ambitieus project: de ontwikkeling van geavanceerde kunstmatige intelligentie (AI) voor bewakingsrobots. Het OpenBots consortium, officieel gelanceerd op 4 september, richt zich op de ontwikkeling van AI-systemen die menselijke beveiligers kunnen ondersteunen in diverse veiligheidsomgevingen.

Lees meer >

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie

5 September 2024

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie >

Met de toekenning van een AiNed Fellowship grant verdiept dr. Charlotte Frenkel van de TU Delft zich in neuromorphic computing, een grensverleggend onderzoek dat zich richt op energiezuinige en efficiënte AI-systemen, gebaseerd op de werking van het menselijk brein. Dit onderzoek brengt de wereld van AI en neurowetenschappen samen om computersystemen te ontwikkelen die sneller, energiezuiniger en intelligenter zijn.

Lees meer >