SVG Image
< Terug naar nieuws

Verantwoordelijke AI bij de BBC

De BBC onderzoekt hoe ze verantwoord kunnen omgaan met AI-technologieën. In samenwerking met het AI, Media & Democracy Lab hebben onderzoekers Hannes Cools en Anna Schjøtt Hansen zich verdiept in hoe de BBC AI toepast als publieke omroep.

De BBC heeft, net als veel mediaorganisaties, kritisch gekeken naar haar positie ten opzichte van snel evoluerende AI-technologieën. In samenwerking met het AI, Media & Democracy Lab van de Universiteit van Amsterdam hebben onderzoekers Hannes Cools en Anna Schjøtt Hansen het afgelopen jaar nauw samengewerkt met het Responsible Innovation-team van de BBC. In twee projecten onderzochten ze hoe de BBC AI-technologieën, zoals large language models, verantwoord ontwikkelt en inzet.

Het eerste project, ‘Towards Responsible Recommender Systems at BBC?’, richtte zich op hoe transparantie binnen verschillende teams wordt begrepen en toegepast, en welke uitdagingen dit met zich meebrengt. De centrale vraag was hoe de transparantieprincipes van de Machine Learning Engine Principles (MLEP) kunnen worden vertaald naar de praktijk binnen de BBC-teams.

Het tweede project, ‘Exploring AI design processes and decisions as moments of responsible intervention’, onderzocht hoe verantwoorde AI-praktijken, begeleid door de MLEP-principes, beter kunnen worden geïntegreerd in het ontwerpproces van AI-systemen bij de BBC. Dit onderzoek richtte zich vooral op de Personalisation Team en de rol van verantwoordelijke besluitvorming.

Tijdens een symposium over Responsible AI bij het BBC Broadcasting House in Londen, zes maanden geleden, lag de focus op het identificeren van uitdagingen in de industrie en het opstellen van samenwerkingsagenda's voor de toekomst. Een belangrijk onderwerp was hoe mediaorganisaties verder kunnen gaan dan oppervlakkige uitspraken over transparantie, toezicht en privacy bij het ontwikkelen van AI-technologieën.

Met het project dat ten einde komt, bedanken we de teams van de BBC en BRAID voor de samenwerking. We kijken uit naar meer gezamenlijke onderzoeksprojecten in de toekomst.

 

Lees hier meer.

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie

14 November 2024

De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie >

In het nieuwe beleid, De Amsterdamse Visie op AI, wordt beschreven hoe kunstmatige intelligentie (AI) een rol mag spelen in Amsterdam, en hoe deze technologie het leven in de stad mag beïnvloeden volgens de inwoners. Deze visie is tot stand gekomen na een maandenlang proces van gesprekken en dialoog, waarin een breed scala aan Amsterdammers – van festivalbezoekers tot schoolkinderen en van experts tot digibeten – hun mening gaven over de toekomst van AI in hun stad.  

Lees meer >

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma

14 November 2024

Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma >

ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.

Lees meer >

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs

14 november

AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs >

De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.

Lees meer >