SVG Image
< Terug naar nieuws

4 december 2023

De richtingenstrijd bij OpenAI: 'Winstbejag gekozen boven verantwoord uitrollen'

Deze week vierde OpenAI de eerste verjaardag van ChatGPT. Maar vorige maand leek het er nog even op dat de toekomst van het bedrijf op het spel stond door een grote crisis. Het legde een interne richtingenstrijd bloot waar het laatste woord nog niet over is gezegd.

Zie het als strijd tussen gas geven op het ontwikkelen van kunstmatige intelligentie (AI) of die ontwikkeling juist afremmen. "Ik denk dat er heel veel mensen geloven dat hoe sneller de technologie wordt ontwikkeld, hoe eerder we een aantal grote problemen oplossen", zegt Jelle Prins, medeoprichter is van een AI-startup. "Dat moet je niet te veel willen vertragen."

 

Wim Nuijten, directeur van het AI-instituut van de TU Eindhoven, is kritisch op wat er bij OpenAI is gebeurd. "Winstbejag lijkt het te hebben gewonnen van het verantwoord uitrollen van technologie die een zeer grote impact kan hebben."

 

Slimmer dan de mens

 

Om te beseffen wat er gebeurde en wat de betekenis is, is allereerst belangrijk om te begrijpen wat het uiteindelijke doel is van OpenAI. Het bedrijf wil toewerken naar wat we 'AGI' (artificial general intelligence) noemen. Computers die slimmer zijn dan mensen zelf.

 

Als dat ooit bereikt wordt - daarover verschillen de meningen nogal - zou dit onze hele samenleving kunnen veranderen. Dat zou de mensheid veel goeds kunnen brengen, is de gedachte. Maar er zijn ook zorgen. Met als ultieme angst dat AI dan bepaalt wat het beste is voor ons en in theorie zelfs ervoor zou kunnen kiezen de mensheid uit te roeien.

 

Het kan de angst voeden dat OpenAI daadwerkelijk met iets bezig is wat potentieel een existentieel risico kan opleveren. "Gaat het de hele mensheid vernietigen? Daar ben ik niet bang voor", reageert Antske Fokkens, hoogleraar Taaltechnologie aan de Vrije Universiteit. Ze maakt zich meer zorgen over de gevaren die er nu al zijn, zoals de verspreiding van misinformatie.

 

OpenAI-ceo Sam Altman, die vorige maand plots ontslagen werd, gelooft dat de positieve effecten groter zullen zijn dan de negatieve effecten. Maar daar is bij OpenAI niet iedereen het mee eens.

 

Het gezicht van de 'tegenbeweging' is Ilya Sutskever, een toonaangevende AI-onderzoeker en een van de mede-oprichters van het bedrijf. Uit een artikel van The Atlantic blijkt dat hij steeds overtuigder raakte van de kracht van de technologie die OpenAI ontwikkelt. Maar daarmee groeide ook zijn overtuiging dat de gevaren groot zijn. Hij was ook degene die namens het bestuur Altman ontsloeg, om daar vervolgens spijt van te krijgen.

 

"In dit verhaal ontbreekt een hele belangrijke derde richting", zegt Jelle Zuidema, universitair hoofddocent explainable AI aan de Universiteit van Amsterdam. "Namelijk de groep die het niet wil hebben over het existentiële gevaar, want dat vinden ze overdreven, maar wel degelijk bezorgd is over de effecten die het nu heeft."

 

Een 'AI-doorbraak'

 

Daar komt nog bij dat er volop speculatie is over de vraag of OpenAI dit jaar een technologische 'doorbraak' heeft bereikt, wat de systemen nog veel krachtiger kan maken. Aanleiding is berichtgeving van The Information en Reuters. Het gaat hier om de doorbraak die ook wel "Q*" (uitgesproken als Q-star) wordt genoemd. Het zou onder meer in staat zijn wiskundige sommen op te lossen die andere AI-varianten te moeilijk vinden.

 

De veronderstelde doorbraak zou medewerkers ongerust hebben gemaakt dat er niet genoeg veiligheidswaarborgen zijn. Onderzoekers zouden het bestuur hiervoor in een brief hebben gewaarschuwd. Het wekt de suggestie dat die zorgen hebben bijgedragen aan Altmans ontslag, al meldde technieuwsbrief Platformer dat het bestuur nooit zo'n brief heeft ontvangen.

 

Volgens Nuijten van de TU Eindhoven zou het een doorbraak betekenen in hoe AI redeneert, iets waar al decennia aan wordt gewerkt. Al kan hij moeilijk inschatten of OpenAI daar werkelijk al is. "Het zou dan op de basis van de kennis en regels die wij hebben over de logica en de fysieke wereld bepaalde theorieën kunnen bewijzen en nieuwe uitvindingen doen."

 

Zuidema merkt daarbij op dat zulke nieuwsberichten over technologische doorbraken ook een ander doel kunnen dienen, namelijk de wereld ervan overtuigen dat OpenAI verder is dan de concurrentie.

 

Ook strijd rond nieuwe regels

 

Alle drie de deskundigen beamen dat je techbedrijven niet kunt vertrouwen in het ontwikkelen van AI zonder toezicht. Er moet regelgeving komen. Daar wordt bijvoorbeeld in Europa aan gewerkt, al is dat ook een strijd op zich.

 

Europarlementariër Kim van Sparrentak (GroenLinks) neemt deel aan de onderhandelingen en zegt dat het spannend wordt. Duitsland, Frankrijk en Italië willen niet te strenge regels, uit angst om Europese bedrijven dwars te zitten. Van Sparrentak merkt dat er ondertussen stevig wordt gelobbyd door techbedrijven, waaronder ook OpenAI.

 

Dit artikel is gepubliceerd door NOS

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie

14 November 2024

De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie >

In het nieuwe beleid, De Amsterdamse Visie op AI, wordt beschreven hoe kunstmatige intelligentie (AI) een rol mag spelen in Amsterdam, en hoe deze technologie het leven in de stad mag beïnvloeden volgens de inwoners. Deze visie is tot stand gekomen na een maandenlang proces van gesprekken en dialoog, waarin een breed scala aan Amsterdammers – van festivalbezoekers tot schoolkinderen en van experts tot digibeten – hun mening gaven over de toekomst van AI in hun stad.  

Lees meer >

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma

14 November 2024

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma >

ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.

Lees meer >

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs

14 november

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs >

De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.

Lees meer >