SVG Image
< Terug naar nieuws

19 november 2023

‘Onafhankelijke wetenschappers moeten het voortouw nemen in toezicht op AI’

Experts van de UvA en Amsterdam UMC, twee kennisinstellingen voor wie kunstmatige intelligentie een belangrijk thema is, hebben vandaag zogeheten 'levende richtlijnen' voor verantwoord gebruik van generatieve AI – zoals de tool ChatGPT – gepubliceerd in Nature. 
Kernprincipes daarbij zijn: verantwoording, transparantie en onafhankelijk toezicht. Zij pleiten daarbij voor de onmiddellijke oprichting van een onafhankelijk toezichtsorgaan bestaande uit wetenschappers.
 
Generatieve AI is een vorm van kunstmatige intelligentie waarmee iemand automatisch teksten, afbeeldingen, audio en andere content kan maken. Gebruik ervan heeft voordelen, maar nadelen zijn er ook. Er is daarom een dringende behoefte aan wetenschappelijk en maatschappelijk toezicht in de zich snel ontwikkelende sector van kunstmatige intelligentie.

Eerste auteur van het Nature-artikel is Claudi Bockting, hoogleraar Klinische psychologie van de psychiatrie aan Amsterdam UMC en mededirecteur van het Centre for Urban Mental Health. Zij stelt dat 'AI-tools het internet kunnen overspoelen met verkeerde informatie en 'deep fakes' die niet van echt te onderscheiden zijn. Op termijn kan dit het vertrouwen tussen mensen onderling, in politici, instellingen en de wetenschap aantasten. Daarom moeten onafhankelijke wetenschappers het voortouw nemen bij het testen en verbeteren van de veiligheid en beveiliging van generatieve AI. De meeste wetenschappers kunnen nu echter beperkt generatieve AI-tools ontwikkelen en niet op voorhand evalueren. Het ontbreekt hen aan toegang tot trainingsdata, faciliteiten of aan financiering.' De andere auteurs van de richtlijnen zijn: Robert van Rooij en Willem Zuidema, van het Institute for Logic, Language and Computation van de Universiteit van Amsterdam; Eva van Dis van Amsterdam UMC; en Johan Bollen van Indiana University.

De richtlijnen in Nature zijn opgesteld na twee topbijeenkomsten met leden van internationale organisaties zoals de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts en leden van organisaties als UNESCO en de Verenigde Naties. Het initiatief van dit consortium biedt een evenwichtig perspectief te midden van het trage tempo van overheidsregulering, versnipperde richtlijnontwikkelingen en de onduidelijkheid of grote technologische bedrijven aan zelfregulering zullen doen.

 

Traag tempo

 

Volgens de auteurs is toezicht de taak van een wetenschappelijk instituut. Dit instituut moet zich dan vooral richten op kwantitatieve metingen van effecten van AI, zowel positief als potentieel nadelig. De evaluaties dienen volgens wetenschappelijke methodes worden uitgevoerd. Openbaar welzijn en de authenticiteit van wetenschappelijk onderzoek hebben daarbij prioriteit, en niet commerciële belangen.

 

De 'levende richtlijnen' draaien om drie belangrijke principes:

 
- Verantwoording: Het consortium pleit voor een menselijke benadering. Generatieve AI kan helpen bij taken zonder risico op grote gevolgen, maar essentiële activiteiten - zoals het schrijven van wetenschappelijke publicaties of beoordelingen door vakgenoten - moeten menselijk toezicht behouden.
- Transparantie: Het is noodzakelijk dat het gebruik van generatieve AI altijd duidelijk wordt vermeld. Dit stelt de bredere wetenschappelijke gemeenschap in staat om de gevolgen van generatieve AI op de kwaliteit van het onderzoek en de besluitvorming te beoordelen. Bovendien dringt het consortium er bij de ontwikkelaars van AI-tools op aan om transparant te zijn over hun methodes, zodat uitgebreide evaluaties mogelijk zijn.
- Onafhankelijk toezicht: Gezien de enorme financiële belangen van de generatieve AI-sector, is het niet haalbaar om alleen op zelfregulering te vertrouwen. Externe, onafhankelijke, objectieve controles zijn cruciaal om een ethisch en kwalitatief hoogstaand gebruik van AI-tools te garanderen.
 

Voorwaarden

 

De auteurs benadrukken de dringende behoefte aan het door hen voorgestelde wetenschappelijke orgaan, dat ook eventuele opkomende of onopgeloste problemen op het gebied van AI kan aanpakken. Er zijn wel een aantal voorwaarden voordat dit orgaan zijn werk goed kan uitvoeren. Het wetenschappelijke instituut moet over voldoende rekenkracht beschikken om modellen op ware grootte te kunnen testen. En het moet voldoende informatie over de brongegevens krijgen om te kunnen beoordelen hoe AI-tools zijn getraind, zelfs voordat ze worden vrijgegeven. Verder is er internationale financiering en brede juridische ondersteuning nodig, alsmede samenwerking met leiders uit de technologische industrie, terwijl tegelijkertijd de onafhankelijkheid wordt gewaarborgd.

Kortom, het consortium benadrukt de noodzaak van investeringen in een comité van experts en een toezichtsorgaan. Op die manier kan generatieve AI op een verantwoorde manier vooruitgang boeken en is er een balans tussen innovatie en maatschappelijk welzijn.

 

Over het consoritum

 

Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale effecten van AI van Amsterdam UMC, IAS en de faculteit Bètawetenschappen van de UvA.

 

Publicatiegegevens

 

Living guidelines for generative AI — why scientists must oversee its use (nature.com), Claudi L. Bockting, Jelle Zuidema, Robert van Rooij, Johan Bollen, Eva A.M. van Dis, werd op 19 oktober 2023 gepubliceerd in Nature.

Foto credits: Universiteit van Amsterdam

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie

14 November 2024

De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie >

In het nieuwe beleid, De Amsterdamse Visie op AI, wordt beschreven hoe kunstmatige intelligentie (AI) een rol mag spelen in Amsterdam, en hoe deze technologie het leven in de stad mag beïnvloeden volgens de inwoners. Deze visie is tot stand gekomen na een maandenlang proces van gesprekken en dialoog, waarin een breed scala aan Amsterdammers – van festivalbezoekers tot schoolkinderen en van experts tot digibeten – hun mening gaven over de toekomst van AI in hun stad.  

Lees meer >

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma

14 November 2024

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma >

ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.

Lees meer >

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs

14 november

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs >

De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.

Lees meer >