< Terug naar nieuws

19 Oktober 2023

Wetenschappelijk toezicht als voorwaarde voor verantwoorde AI

AMSTERDAM - Interdisciplinaire experts van het Amsterdam UMC en de Universiteit van Amsterdam, twee instellingen binnen het Amsterdamse AI-ecosysteem, hebben vandaag hun ‘levende richtlijnen’ voor verantwoord gebruik van generatieve AI gepubliceerd in Nature.
Hoofdauteur Claudi Bockting, hoogleraar klinische psychologie van de psychiatrie aan het Amsterdam UMC en mededirecteur van het Center for Urban Mental Health, gelooft dat ‘AI-tools het internet kunnen overspoelen met verkeerde informatie en ‘deep fakes’ die niet te onderscheiden zijn van echte individuen. Dit zou na verloop van tijd het vertrouwen tussen mensen, in politici, instellingen en wetenschap kunnen ondermijnen. Onafhankelijke wetenschappers moeten het voortouw nemen bij het testen, bewijzen en verbeteren van de veiligheid en beveiliging van generatieve AI. De meeste wetenschappers hebben echter geen toegang tot de faciliteiten of publieke financiering om generatieve AI-tools te ontwikkelen of te evalueren.’
 
De richtlijnen zijn opgesteld na twee internationale topconferenties met leden van internationale organisaties zoals de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts, en leden van mondiale instellingen zoals UNESCO en de Verenigde Naties. Dit initiatief komt voort uit een dringende behoefte om wetenschappelijk en maatschappelijk toezicht te waarborgen in een snel evoluerende sector.
Volgens de auteurs moet het toezicht worden gemodelleerd naar het voorbeeld van een wetenschappelijk instituut. Met een focus op kwantitatieve metingen van reële effecten, zowel positief als potentieel schadelijk, en het toepassen van de wetenschappelijke methode in haar evaluaties. Het consortium bewaart afstand van dominerende commerciële belangen en geeft prioriteit aan het publieke welzijn en de authenticiteit van wetenschappelijk onderzoek.
Dit initiatief is een proactief antwoord op mogelijke hiaten in het huidige bestuur en biedt een evenwichtig perspectief te midden van het trage tempo van overheidsregelgeving, de fragmentatie van de ontwikkeling van richtlijnen en de onvoorspelbaarheid van zelfregulering door grote technologie-entiteiten.
 
De ‘leefrichtlijnen’ draaien rond drie belangrijke principes:
 
  • Verantwoording: Het consortium pleit voor een door mensen ondersteunde aanpak en is van mening dat hoewel generatieve AI kan helpen bij taken met een laag risico, essentiële inspanningen zoals het voorbereiden van wetenschappelijke manuscripten of peer reviews menselijk toezicht moeten behouden.

  • Transparantie: Duidelijke openbaarmaking van het gebruik van generatieve AI is absoluut noodzakelijk. Hierdoor kan de bredere wetenschappelijke gemeenschap de implicaties van generatieve AI op de onderzoekskwaliteit en besluitvorming beoordelen. Bovendien dringt het consortium er bij ontwikkelaars van AI-tools op aan transparant te zijn over hun methodologieën, waardoor uitgebreide evaluaties mogelijk worden.

  • Onafhankelijk toezicht: Gezien de enorme financiële implicaties van de generatieve AI-sector is het niet haalbaar om uitsluitend op zelfregulering te vertrouwen. Externe, onafhankelijke objectieve audits zijn van cruciaal belang om een ​​ethisch en kwalitatief hoogstaand gebruik van AI-instrumenten te garanderen.

Het voorgestelde wetenschappelijke orgaan moet over voldoende rekenkracht beschikken om modellen op volledige schaal uit te voeren, en over voldoende informatie over brongevallen, om te beoordelen hoe AI-tools zijn getraind, zelfs voordat ze worden vrijgegeven. Effectieve richtlijnen vereisen internationale financiering en brede juridische goedkeuring en zullen alleen werken in samenwerking met leiders in de technologie-industrie, terwijl tegelijkertijd de onafhankelijkheid ervan wordt gewaarborgd. De auteurs onderstrepen de dringende behoefte aan hun voorgestelde wetenschappelijke instantie, die ook eventuele opkomende of onopgeloste problemen op dit gebied kan aanpakken.
 
In essentie benadrukt het consortium de noodzaak van gerichte investeringen in een commissie van deskundigen en een toezichthoudend orgaan. Dit zorgt ervoor dat generatieve AI op verantwoorde wijze vooruitgang boekt en een evenwicht vindt tussen innovatie en maatschappelijk welzijn.
 
Over het consortium
Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale impact van AI van AmsterdamUMC, IAS en de faculteit Bètawetenschappen van de UvA, opgenomen in het Amsterdamse AI-ecosysteem en Indiana University (VS). Deze gezamenlijke inspanning, ondersteund door leden van mondiale en wetenschappelijke instellingen, streeft naar een toekomst voor generatieve AI die zowel innovatief als ethisch bewust is

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 CuspAI stelt zich voor in LAB42

6 September 2024

CuspAI stelt zich voor in LAB42 >

Op 5 september 2024 presenteerden Max Welling en Chad Edwards, oprichters van CuspAI, hun innovatieve bedrijf tijdens de IvI koffie & taart-bijeenkomst. 

Lees meer >

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten

5 September 2024

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten >

Een consortium van toonaangevende Nederlandse onderzoeksinstituten en overheidsinstellingen, waaronder de TU Delft, Universiteit van Amsterdam, TNO en de Koninklijke Marechaussee, is van start gegaan met een ambitieus project: de ontwikkeling van geavanceerde kunstmatige intelligentie (AI) voor bewakingsrobots. Het OpenBots consortium, officieel gelanceerd op 4 september, richt zich op de ontwikkeling van AI-systemen die menselijke beveiligers kunnen ondersteunen in diverse veiligheidsomgevingen.

Lees meer >

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie

5 September 2024

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie >

Met de toekenning van een AiNed Fellowship grant verdiept dr. Charlotte Frenkel van de TU Delft zich in neuromorphic computing, een grensverleggend onderzoek dat zich richt op energiezuinige en efficiënte AI-systemen, gebaseerd op de werking van het menselijk brein. Dit onderzoek brengt de wereld van AI en neurowetenschappen samen om computersystemen te ontwikkelen die sneller, energiezuiniger en intelligenter zijn.

Lees meer >