< Terug naar nieuws
14 Februari 2024
Raquel Fernández probeert chatbots menselijker te maken
Vorig jaar braken AI-systemen die menselijke teksten schrijven wereldwijd door. Toch zijn veel wetenschappelijke vragen over hoe ze precies werken nog onbeantwoord. De UvA vroeg drie UvA-onderzoekers hoe zij de onderliggende taalmodellen transparanter, betrouwbaarder en menselijker proberen te maken. Deze week vertelt collega Raquel Fernández over haar onderzoek.
UvA-hoogleraar Computational Linguistics & Dialogue Systems Raquel Fernández, verbonden aan het ILLC, probeert een brug te slaan tussen grote taalmodellen en de manier waarop mensen taal gebruiken. Fernández, die de onderzoeksgroep Dialogue Modelling leidt: 'Ik ben geïnteresseerd in hoe mensen met elkaar praten en hoe we dit vermogen op een natuurlijke manier kunnen overbrengen op machines.'
Voor computationeel taalkundigen als Fernández bieden grote taalmodellen ineens een nieuw instrument om allerlei eigenschappen van menselijke dialogen te kwantificeren en te testen of bepaalde hypothesen over menselijk taalgebruik kloppen. Zo is een van de theorieën uit de psycholinguïstiek dat mensen onbewust hun taalgebruik zo aanpassen dat hun gesprekspartner hen met zo min mogelijk inspanning kan begrijpen. Bijvoorbeeld door een zin korter te maken, of door eenvoudigere woorden of eenvoudigere constructies te gebruiken. Fernández: 'Met deze krachtige taalmodellen kunnen we tot op zekere hoogte kwantificeren hoe mensen taal gebruiken. Dan zien we dat mensen inderdaad proberen om zo te spreken dat de ander hen met minimale inspanning begrijpt. Maar we zien ook dat voor sommige zinnen en voor sommig taalgebruik de modellen die inspanning onderschatten. Dat komt doordat grote taalmodellen op veel meer teksten zijn getraind dan jij en ik ooit kunnen lezen.'
Hoewel grote taalmodellen heel goed zijn in het genereren van taal, is het moeilijk om ze een specifieke taak te laten doen, zoals een restaurant of een ticket boeken. Fernández: 'Taalmodellen genereren wat het meest waarschijnlijk is en ze zijn niet getraind om samen met jou het doel te bereiken dat jij voor ogen hebt. Daarvoor moet het systeem weten wat het doel is en hoe het dat kan bereiken. Dat is op dit moment een grote uitdaging.'
Lees hier het gehele artikel.
Gepubliceerd door de Universiteit van Amsterdam.
Vergelijkbaar >
Vergelijkbare nieuwsitems
14 November 2024
De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie
In het nieuwe beleid, De Amsterdamse Visie op AI, wordt beschreven hoe kunstmatige intelligentie (AI) een rol mag spelen in Amsterdam, en hoe deze technologie het leven in de stad mag beïnvloeden volgens de inwoners. Deze visie is tot stand gekomen na een maandenlang proces van gesprekken en dialoog, waarin een breed scala aan Amsterdammers – van festivalbezoekers tot schoolkinderen en van experts tot digibeten – hun mening gaven over de toekomst van AI in hun stad.
Lees meer >
14 November 2024
Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma
ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.
Lees meer >
14 november
AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs
De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.
Lees meer >