< Terug naar nieuws
19 Oktober 2023
Wetenschappelijk toezicht als voorwaarde voor verantwoorde AI
AMSTERDAM - Interdisciplinaire experts van het Amsterdam UMC en de Universiteit van Amsterdam, twee instellingen binnen het Amsterdamse AI-ecosysteem, hebben vandaag hun ‘levende richtlijnen’ voor verantwoord gebruik van generatieve AI gepubliceerd in Nature.
Hoofdauteur Claudi Bockting, hoogleraar klinische psychologie van de psychiatrie aan het Amsterdam UMC en mededirecteur van het Center for Urban Mental Health, gelooft dat ‘AI-tools het internet kunnen overspoelen met verkeerde informatie en ‘deep fakes’ die niet te onderscheiden zijn van echte individuen. Dit zou na verloop van tijd het vertrouwen tussen mensen, in politici, instellingen en wetenschap kunnen ondermijnen. Onafhankelijke wetenschappers moeten het voortouw nemen bij het testen, bewijzen en verbeteren van de veiligheid en beveiliging van generatieve AI. De meeste wetenschappers hebben echter geen toegang tot de faciliteiten of publieke financiering om generatieve AI-tools te ontwikkelen of te evalueren.’
De richtlijnen zijn opgesteld na twee internationale topconferenties met leden van internationale organisaties zoals de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts, en leden van mondiale instellingen zoals UNESCO en de Verenigde Naties. Dit initiatief komt voort uit een dringende behoefte om wetenschappelijk en maatschappelijk toezicht te waarborgen in een snel evoluerende sector.
Volgens de auteurs moet het toezicht worden gemodelleerd naar het voorbeeld van een wetenschappelijk instituut. Met een focus op kwantitatieve metingen van reële effecten, zowel positief als potentieel schadelijk, en het toepassen van de wetenschappelijke methode in haar evaluaties. Het consortium bewaart afstand van dominerende commerciële belangen en geeft prioriteit aan het publieke welzijn en de authenticiteit van wetenschappelijk onderzoek.
Dit initiatief is een proactief antwoord op mogelijke hiaten in het huidige bestuur en biedt een evenwichtig perspectief te midden van het trage tempo van overheidsregelgeving, de fragmentatie van de ontwikkeling van richtlijnen en de onvoorspelbaarheid van zelfregulering door grote technologie-entiteiten.
De ‘leefrichtlijnen’ draaien rond drie belangrijke principes:
- Verantwoording: Het consortium pleit voor een door mensen ondersteunde aanpak en is van mening dat hoewel generatieve AI kan helpen bij taken met een laag risico, essentiële inspanningen zoals het voorbereiden van wetenschappelijke manuscripten of peer reviews menselijk toezicht moeten behouden.
- Transparantie: Duidelijke openbaarmaking van het gebruik van generatieve AI is absoluut noodzakelijk. Hierdoor kan de bredere wetenschappelijke gemeenschap de implicaties van generatieve AI op de onderzoekskwaliteit en besluitvorming beoordelen. Bovendien dringt het consortium er bij ontwikkelaars van AI-tools op aan transparant te zijn over hun methodologieën, waardoor uitgebreide evaluaties mogelijk worden.
- Onafhankelijk toezicht: Gezien de enorme financiële implicaties van de generatieve AI-sector is het niet haalbaar om uitsluitend op zelfregulering te vertrouwen. Externe, onafhankelijke objectieve audits zijn van cruciaal belang om een ethisch en kwalitatief hoogstaand gebruik van AI-instrumenten te garanderen.
Het voorgestelde wetenschappelijke orgaan moet over voldoende rekenkracht beschikken om modellen op volledige schaal uit te voeren, en over voldoende informatie over brongevallen, om te beoordelen hoe AI-tools zijn getraind, zelfs voordat ze worden vrijgegeven. Effectieve richtlijnen vereisen internationale financiering en brede juridische goedkeuring en zullen alleen werken in samenwerking met leiders in de technologie-industrie, terwijl tegelijkertijd de onafhankelijkheid ervan wordt gewaarborgd. De auteurs onderstrepen de dringende behoefte aan hun voorgestelde wetenschappelijke instantie, die ook eventuele opkomende of onopgeloste problemen op dit gebied kan aanpakken.
In essentie benadrukt het consortium de noodzaak van gerichte investeringen in een commissie van deskundigen en een toezichthoudend orgaan. Dit zorgt ervoor dat generatieve AI op verantwoorde wijze vooruitgang boekt en een evenwicht vindt tussen innovatie en maatschappelijk welzijn.
Over het consortium
Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale impact van AI van AmsterdamUMC, IAS en de faculteit Bètawetenschappen van de UvA, opgenomen in het Amsterdamse AI-ecosysteem en Indiana University (VS). Deze gezamenlijke inspanning, ondersteund door leden van mondiale en wetenschappelijke instellingen, streeft naar een toekomst voor generatieve AI die zowel innovatief als ethisch bewust is
Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale impact van AI van AmsterdamUMC, IAS en de faculteit Bètawetenschappen van de UvA, opgenomen in het Amsterdamse AI-ecosysteem en Indiana University (VS). Deze gezamenlijke inspanning, ondersteund door leden van mondiale en wetenschappelijke instellingen, streeft naar een toekomst voor generatieve AI die zowel innovatief als ethisch bewust is
Vergelijkbaar >
Vergelijkbare nieuwsitems
14 November 2024
Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma
ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.
Lees meer >
14 november
AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs
De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.
Lees meer >
13 November
Wist je dat dit jaar 13 AI-pilots lopen bij de FNWI?
De opkomst van Genatieve Kunstmatige Intelligentie (GenAI) heeft een aanzienlijke impact op het academisch onderwijs. Daarom is het Teaching & Learning Center Science een project gestart om GenAI, en met name ChatGPT, te integreren in het onderwijsproces.
Lees meer >