19 november 2023
‘Onafhankelijke wetenschappers moeten het voortouw nemen in toezicht op AI’
Eerste auteur van het Nature-artikel is Claudi Bockting, hoogleraar Klinische psychologie van de psychiatrie aan Amsterdam UMC en mededirecteur van het Centre for Urban Mental Health. Zij stelt dat 'AI-tools het internet kunnen overspoelen met verkeerde informatie en 'deep fakes' die niet van echt te onderscheiden zijn. Op termijn kan dit het vertrouwen tussen mensen onderling, in politici, instellingen en de wetenschap aantasten. Daarom moeten onafhankelijke wetenschappers het voortouw nemen bij het testen en verbeteren van de veiligheid en beveiliging van generatieve AI. De meeste wetenschappers kunnen nu echter beperkt generatieve AI-tools ontwikkelen en niet op voorhand evalueren. Het ontbreekt hen aan toegang tot trainingsdata, faciliteiten of aan financiering.' De andere auteurs van de richtlijnen zijn: Robert van Rooij en Willem Zuidema, van het Institute for Logic, Language and Computation van de Universiteit van Amsterdam; Eva van Dis van Amsterdam UMC; en Johan Bollen van Indiana University.
De richtlijnen in Nature zijn opgesteld na twee topbijeenkomsten met leden van internationale organisaties zoals de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts en leden van organisaties als UNESCO en de Verenigde Naties. Het initiatief van dit consortium biedt een evenwichtig perspectief te midden van het trage tempo van overheidsregulering, versnipperde richtlijnontwikkelingen en de onduidelijkheid of grote technologische bedrijven aan zelfregulering zullen doen.
Traag tempo
Volgens de auteurs is toezicht de taak van een wetenschappelijk instituut. Dit instituut moet zich dan vooral richten op kwantitatieve metingen van effecten van AI, zowel positief als potentieel nadelig. De evaluaties dienen volgens wetenschappelijke methodes worden uitgevoerd. Openbaar welzijn en de authenticiteit van wetenschappelijk onderzoek hebben daarbij prioriteit, en niet commerciële belangen.
De 'levende richtlijnen' draaien om drie belangrijke principes:
Voorwaarden
De auteurs benadrukken de dringende behoefte aan het door hen voorgestelde wetenschappelijke orgaan, dat ook eventuele opkomende of onopgeloste problemen op het gebied van AI kan aanpakken. Er zijn wel een aantal voorwaarden voordat dit orgaan zijn werk goed kan uitvoeren. Het wetenschappelijke instituut moet over voldoende rekenkracht beschikken om modellen op ware grootte te kunnen testen. En het moet voldoende informatie over de brongegevens krijgen om te kunnen beoordelen hoe AI-tools zijn getraind, zelfs voordat ze worden vrijgegeven. Verder is er internationale financiering en brede juridische ondersteuning nodig, alsmede samenwerking met leiders uit de technologische industrie, terwijl tegelijkertijd de onafhankelijkheid wordt gewaarborgd.
Kortom, het consortium benadrukt de noodzaak van investeringen in een comité van experts en een toezichtsorgaan. Op die manier kan generatieve AI op een verantwoorde manier vooruitgang boeken en is er een balans tussen innovatie en maatschappelijk welzijn.
Over het consoritum
Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale effecten van AI van Amsterdam UMC, IAS en de faculteit Bètawetenschappen van de UvA.
Publicatiegegevens
Living guidelines for generative AI — why scientists must oversee its use (nature.com), Claudi L. Bockting, Jelle Zuidema, Robert van Rooij, Johan Bollen, Eva A.M. van Dis, werd op 19 oktober 2023 gepubliceerd in Nature.
Foto credits: Universiteit van Amsterdam
Vergelijkbaar >
Vergelijkbare nieuwsitems
14 November 2024
De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie
Lees meer >
14 November 2024
Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma
Lees meer >
14 november
AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs
Lees meer >