< Terug naar nieuws

4 Juli 2024

Een methode ontwikkelen om AI begrijpelijk te maken voor mensen

AI kan veel van onze taken overnemen en biedt eindeloze mogelijkheden. Maar hoe kunnen we ervoor zorgen dat AI-modellen begrijpelijk en verklaarbaar zijn voor mensen? In een nieuw interdisciplinair onderzoeksproject ontwikkelen UvA-onderzoekers een methode hiervoor. 'We accepteren gemakkelijker wat voor ons logisch lijkt - en dat kan ertoe leiden dat we systemen vertrouwen die niet betrouwbaar zijn.'

AI-modellen kunnen veel taken oplossen, maar worden ook steeds complexer. Het veld van Explainable AI (XAI) richt zich op het ontleden van het complexe gedrag van deze modellen op een manier die mensen kunnen begrijpen. In het project HUE: bridging AI representations to Human-Understandable Explanations ontwikkelen onderzoekers Giovanni Cinà (Faculteit Geneeskunde) en Sandro Pezzelle (Faculteit der Natuurwetenschappen) een methode die het mogelijk maakt om AI-modellen 'door te lichten' en transparanter te maken.

 

'Veel AI-modellen zijn black boxes,' legt Pezzelle uit. 'We kunnen ze voeden met veel data en ze kunnen een voorspelling doen – die wel of niet correct kan zijn – maar we weten niet wat er intern gebeurt.' Dit is problematisch, omdat we de output interpreteren volgens onze eigen verwachtingen, ook wel confirmation bias genoemd.

 

Cinà: 'We zijn eerder geneigd om verklaringen te geloven die overeenkomen met onze eerdere overtuigingen. We accepteren gemakkelijker wat voor ons logisch lijkt, en dat kan ertoe leiden dat we modellen vertrouwen die niet echt betrouwbaar zijn. Dit is een groot probleem, bijvoorbeeld wanneer we AI-modellen gebruiken om medische gegevens te interpreteren om ziektes te detecteren. Onbetrouwbare modellen kunnen artsen gaan beïnvloeden en hen leiden tot verkeerde diagnoses.'

 

De onderzoekers ontwikkelen een methode om deze confirmation bias te verminderen. 'We willen afstemmen wat we denken dat het model doet met wat het daadwerkelijk doet,' zegt Cinà. 'Om een model transparanter te maken, moeten we enkele verklaringen onderzoeken waarom het met een bepaalde voorspelling kwam.' Hiervoor creëren de onderzoekers een formeel kader waarmee ze hypotheses kunnen formuleren die door mensen begrijpelijk zijn over wat het model heeft geleerd, en deze nauwkeuriger testen.

 

Pezzelle: 'Onze methode kan worden toegepast op elk machine learning- of deep learning-model, zolang we het kunnen inspecteren. Daarom is een model als ChatGPT geen goede kandidaat, omdat we er niet in kunnen kijken: we krijgen alleen de uiteindelijke output. Het model moet open source zijn voor onze methode om te werken.'

 

Cinà en Pezzelle, die uit verschillende academische achtergronden komen – medische AI en natuurlijke taalverwerking (NLP) – hebben de krachten gebundeld om een methode te ontwikkelen die in verschillende domeinen kan worden toegepast. Pezzelle: 'Momenteel bereiken oplossingen die in een van deze disciplines worden voorgesteld, niet noodzakelijkerwijs het andere veld. Ons doel is dus om een meer uniforme aanpak te creëren.'

 

Cinà: 'Er is een technische uitdaging en ook een uitdaging in termen van expertise: we praten over systemen die ruwweg vergelijkbaar zijn, maar we hebben zeer verschillende terminologie. Maar tegelijkertijd is het heel waardevol om elkaars expertise te kunnen gebruiken.'

 

Bron: UvA.nl 

 

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
TikTok zet in op AI en schrapt honderden banen wereldwijd

14 Oktober

TikTok zet in op AI en schrapt honderden banen wereldwijd >

TikTok, het populaire sociale mediaplatform, heeft wereldwijd honderden banen geschrapt, vooral in de afdeling contentmoderatie. Het bedrijf wil meer gebruik maken van kunstmatige intelligentie (AI) om content te beoordelen. Dit besluit heeft grote impact, met name in Maleisië en Nederland, zoals verschillende bronnen melden, waaronder de NOS , de Volkskrant en NRC .

Lees meer >

Analyse: OpenAI verlaat idealistische wortels voor commerciële toekomst

14 Oktober

Analyse: OpenAI verlaat idealistische wortels voor commerciële toekomst >

OpenAI, het bedrijf achter ChatGPT, heeft 6,6 miljard dollar opgehaald van investeerders, waarmee het bedrijf nu gewaardeerd wordt op 157 miljard dollar. Wat begon als een non-profit organisatie met idealistische doelen, transformeert nu naar een winstgevend bedrijf. Deze ontwikkelingen en de financiële herstructurering markeren een nieuwe fase voor OpenAI, zoals geanalyseerd door de Volkskrant .

Lees meer >

Verantwoorde AI maak je samen

14 Oktober

Verantwoorde AI maak je samen >

Hoe kunnen we AI ontwikkelen die niet discrimineert of energieverslindt, maar juist de maatschappij ten goede komt? Dit vraagstuk staat centraal in een grootschalig nationaal AI-initiatief, ondergebracht bij het Informatica Instituut van de UvA. In samenwerking met bedrijven en (semi)overheidsinstellingen wordt hier gewerkt aan verantwoorde AI-oplossingen voor maatschappelijke uitdagingen, zoals voedselverspilling, kankerbehandelingen en het tegengaan van discriminatie.

Lees meer >