< Terug naar nieuws

19 november 2023

‘Onafhankelijke wetenschappers moeten het voortouw nemen in toezicht op AI’

Experts van de UvA en Amsterdam UMC, twee kennisinstellingen voor wie kunstmatige intelligentie een belangrijk thema is, hebben vandaag zogeheten 'levende richtlijnen' voor verantwoord gebruik van generatieve AI – zoals de tool ChatGPT – gepubliceerd in Nature. 
Kernprincipes daarbij zijn: verantwoording, transparantie en onafhankelijk toezicht. Zij pleiten daarbij voor de onmiddellijke oprichting van een onafhankelijk toezichtsorgaan bestaande uit wetenschappers.
 
Generatieve AI is een vorm van kunstmatige intelligentie waarmee iemand automatisch teksten, afbeeldingen, audio en andere content kan maken. Gebruik ervan heeft voordelen, maar nadelen zijn er ook. Er is daarom een dringende behoefte aan wetenschappelijk en maatschappelijk toezicht in de zich snel ontwikkelende sector van kunstmatige intelligentie.

Eerste auteur van het Nature-artikel is Claudi Bockting, hoogleraar Klinische psychologie van de psychiatrie aan Amsterdam UMC en mededirecteur van het Centre for Urban Mental Health. Zij stelt dat 'AI-tools het internet kunnen overspoelen met verkeerde informatie en 'deep fakes' die niet van echt te onderscheiden zijn. Op termijn kan dit het vertrouwen tussen mensen onderling, in politici, instellingen en de wetenschap aantasten. Daarom moeten onafhankelijke wetenschappers het voortouw nemen bij het testen en verbeteren van de veiligheid en beveiliging van generatieve AI. De meeste wetenschappers kunnen nu echter beperkt generatieve AI-tools ontwikkelen en niet op voorhand evalueren. Het ontbreekt hen aan toegang tot trainingsdata, faciliteiten of aan financiering.' De andere auteurs van de richtlijnen zijn: Robert van Rooij en Willem Zuidema, van het Institute for Logic, Language and Computation van de Universiteit van Amsterdam; Eva van Dis van Amsterdam UMC; en Johan Bollen van Indiana University.

De richtlijnen in Nature zijn opgesteld na twee topbijeenkomsten met leden van internationale organisaties zoals de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts en leden van organisaties als UNESCO en de Verenigde Naties. Het initiatief van dit consortium biedt een evenwichtig perspectief te midden van het trage tempo van overheidsregulering, versnipperde richtlijnontwikkelingen en de onduidelijkheid of grote technologische bedrijven aan zelfregulering zullen doen.

 

Traag tempo

 

Volgens de auteurs is toezicht de taak van een wetenschappelijk instituut. Dit instituut moet zich dan vooral richten op kwantitatieve metingen van effecten van AI, zowel positief als potentieel nadelig. De evaluaties dienen volgens wetenschappelijke methodes worden uitgevoerd. Openbaar welzijn en de authenticiteit van wetenschappelijk onderzoek hebben daarbij prioriteit, en niet commerciële belangen.

 

De 'levende richtlijnen' draaien om drie belangrijke principes:

 
- Verantwoording: Het consortium pleit voor een menselijke benadering. Generatieve AI kan helpen bij taken zonder risico op grote gevolgen, maar essentiële activiteiten - zoals het schrijven van wetenschappelijke publicaties of beoordelingen door vakgenoten - moeten menselijk toezicht behouden.
- Transparantie: Het is noodzakelijk dat het gebruik van generatieve AI altijd duidelijk wordt vermeld. Dit stelt de bredere wetenschappelijke gemeenschap in staat om de gevolgen van generatieve AI op de kwaliteit van het onderzoek en de besluitvorming te beoordelen. Bovendien dringt het consortium er bij de ontwikkelaars van AI-tools op aan om transparant te zijn over hun methodes, zodat uitgebreide evaluaties mogelijk zijn.
- Onafhankelijk toezicht: Gezien de enorme financiële belangen van de generatieve AI-sector, is het niet haalbaar om alleen op zelfregulering te vertrouwen. Externe, onafhankelijke, objectieve controles zijn cruciaal om een ethisch en kwalitatief hoogstaand gebruik van AI-tools te garanderen.
 

Voorwaarden

 

De auteurs benadrukken de dringende behoefte aan het door hen voorgestelde wetenschappelijke orgaan, dat ook eventuele opkomende of onopgeloste problemen op het gebied van AI kan aanpakken. Er zijn wel een aantal voorwaarden voordat dit orgaan zijn werk goed kan uitvoeren. Het wetenschappelijke instituut moet over voldoende rekenkracht beschikken om modellen op ware grootte te kunnen testen. En het moet voldoende informatie over de brongegevens krijgen om te kunnen beoordelen hoe AI-tools zijn getraind, zelfs voordat ze worden vrijgegeven. Verder is er internationale financiering en brede juridische ondersteuning nodig, alsmede samenwerking met leiders uit de technologische industrie, terwijl tegelijkertijd de onafhankelijkheid wordt gewaarborgd.

Kortom, het consortium benadrukt de noodzaak van investeringen in een comité van experts en een toezichtsorgaan. Op die manier kan generatieve AI op een verantwoorde manier vooruitgang boeken en is er een balans tussen innovatie en maatschappelijk welzijn.

 

Over het consoritum

 

Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale effecten van AI van Amsterdam UMC, IAS en de faculteit Bètawetenschappen van de UvA.

 

Publicatiegegevens

 

Living guidelines for generative AI — why scientists must oversee its use (nature.com), Claudi L. Bockting, Jelle Zuidema, Robert van Rooij, Johan Bollen, Eva A.M. van Dis, werd op 19 oktober 2023 gepubliceerd in Nature.

Foto credits: Universiteit van Amsterdam

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 CuspAI stelt zich voor in LAB42

6 September 2024

CuspAI stelt zich voor in LAB42 >

Op 5 september 2024 presenteerden Max Welling en Chad Edwards, oprichters van CuspAI, hun innovatieve bedrijf tijdens de IvI koffie & taart-bijeenkomst. 

Lees meer >

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten

5 September 2024

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten >

Een consortium van toonaangevende Nederlandse onderzoeksinstituten en overheidsinstellingen, waaronder de TU Delft, Universiteit van Amsterdam, TNO en de Koninklijke Marechaussee, is van start gegaan met een ambitieus project: de ontwikkeling van geavanceerde kunstmatige intelligentie (AI) voor bewakingsrobots. Het OpenBots consortium, officieel gelanceerd op 4 september, richt zich op de ontwikkeling van AI-systemen die menselijke beveiligers kunnen ondersteunen in diverse veiligheidsomgevingen.

Lees meer >

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie

5 September 2024

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie >

Met de toekenning van een AiNed Fellowship grant verdiept dr. Charlotte Frenkel van de TU Delft zich in neuromorphic computing, een grensverleggend onderzoek dat zich richt op energiezuinige en efficiënte AI-systemen, gebaseerd op de werking van het menselijk brein. Dit onderzoek brengt de wereld van AI en neurowetenschappen samen om computersystemen te ontwikkelen die sneller, energiezuiniger en intelligenter zijn.

Lees meer >