< Terug naar nieuws
13 september 2023
Verklaarbare, betrouwbare en verantwoordelijke AI in beeldverwerking
De technologieën voor beeld- en videoanalyse en -begrip zijn de laatste jaren enorm verbeterd. Dit is te danken aan de opkomst van moderne deep learning netwerkarchitecturen (bijv. varianten van RNN's zoals LSTMs/GRUs, Generative Adversarial Networks, Transformers, Diffusion models) en leerparadigma's (bijv. adversarial learning, deep reinforcement learning, contrastive learning) en het bestaan van grootschalige datasets met ground-truth annotaties die de training van deze architecturen kunnen ondersteunen.
Bovendien is er een snel groeiend aantal onderzoekers dat geïnteresseerd is in het ontwikkelen van methoden die verklaringen geven over de werkingsmechanismen en de beslissingen/voorspellingen van diepe neurale netwerken. Er is al opmerkelijke vooruitgang geboekt op het gebied van patroonherkenning (zoals in deep learning-architecturen voor beeldclassificatie, objectdetectie, semantische segmentatie en zero-shot learning), terwijl er recent pogingen zijn gedaan om de output te verklaren van deep learning-architecturen die zich bezighouden met videodata (bijvoorbeeld architecturen voor videogebeurtenis/activiteitsherkenning en -classificatie, videobijschrift en videosamenvatting). Hoewel het succes van deep learning-modellen enorm is, zijn er verschillende uitdagingen die nog moeten worden aangepakt om deze modellen adequaat in te zetten in de echte wereld.
Verklaarbaar: Modellen ondergaan significante variaties in hun nauwkeurigheid die te wijten kunnen zijn aan redenen zoals variatie in hyperparameters of beelden die uit de distributie zijn. Deze variaties leiden tot een gevoel van wantrouwen over de prestaties van de modellen en geven het gevoel een black-box te zijn. Daarom is het uiterst belangrijk om de kennis te ontcijferen die deze modellen opdoen om bepaalde taken uit te voeren, zoals gezichtsherkenning of beeldclassificatie.
Betrouwbaar: Deep learning-modellen zijn gevoelig voor verstoringen door tegenstanders en natuurlijke ruis. Daar komt nog bij dat de eerlijkheid van deze modellen op verschillende demografische groepen op het gebied van gezichtsherkenning en beelden van buitenaf ernstige zorgen baart. Daarom is het belangrijk dat de ontwikkelde deep learning-modellen niet alleen accuraat zijn, maar ook effectief om kunnen gaan met de variaties in de beelden die ontstaan door ruis en beelden die zijn vastgelegd van personen uit verschillende demografische groepen.
Verantwoorde AI: De integratie van AI-technologieën in meer gangbare producten en diensten moet verantwoord worden (AI-ontwikkelaars moeten verantwoordelijk zijn voor de acties en beslissingen van een AI-gebaseerd systeem, vooral een meer autonoom systeem), inclusief (AI moet rekening houden met alle menselijke rassen en ervaringen), betrouwbaar en veilig (AI moet presteren zoals het oorspronkelijk is ontworpen en veilig reageren op nieuwe situaties), eerlijk (AI-beslissingen mogen niet discriminerend zijn of een vooroordeel over geslacht/ras/seksualiteit/religie vertonen ten opzichte van een groep of individu), transparant (over hoe het model is gemaakt, bijv. welke trainingsgegevens en algoritmen er zijn gebruikt) en transparant (over hoe het model is gemaakt, bijv. welke trainingsgegevens en algoritmen er zijn gebruikt). welke trainingsgegevens en algoritmen het heeft gebruikt, hoe het gegevenstransformaties en andere bijbehorende middelen heeft toegepast), en privé en veilig (hoe het persoonlijke informatie beveiligt, verschillende privacybeschermingen toepast, bijv, door gegevens te randomiseren en ruis toe te voegen om persoonlijke informatie te verbergen).
Het doel van dit onderzoeksthema is het verzamelen van nieuwe modellen en datasets voor machinaal leren die kunnen helpen bij het oplossen van de bovengenoemde problemen. Dit onderzoeksthema accepteert papers in de vorm van Origineel onderzoek, Methoden, Review, Hypothese & Theorie, Mini Review, Perspectief, Case Report, Kort Onderzoeksrapport, Data Report over onderwerpen met inbegrip van, maar niet beperkt tot:
- Gezichtsherkenning
- Ontwikkeling van nieuwe modellen voor machinaal leren en diep leren
- Objectclassificatie
- Eerlijke AI
- XAI voor beeld-/videoanalyse en -begrip
- Betrouwbare AI
- Efficiënte en effectieve AI
- Ontwikkeling van nieuwe modellen voor machinaal leren en diep leren
- Objectclassificatie
- Eerlijke AI
- XAI voor beeld-/videoanalyse en -begrip
- Betrouwbare AI
- Efficiënte en effectieve AI
Vergelijkbaar >
Vergelijkbare nieuwsitems
14 November 2024
De Amsterdamse Visie op AI: Een Realistische Blik op Kunstmatige Intelligentie
In het nieuwe beleid, De Amsterdamse Visie op AI, wordt beschreven hoe kunstmatige intelligentie (AI) een rol mag spelen in Amsterdam, en hoe deze technologie het leven in de stad mag beïnvloeden volgens de inwoners. Deze visie is tot stand gekomen na een maandenlang proces van gesprekken en dialoog, waarin een breed scala aan Amsterdammers – van festivalbezoekers tot schoolkinderen en van experts tot digibeten – hun mening gaven over de toekomst van AI in hun stad.
Lees meer >
14 November 2024
Interview: KPN Responsible AI Lab met Gianluigi Bardelloni en Eric Postma
ICAI's Interview featured deze keer Gianluigi Bardelloni en Eric Postma, zij praten over de ontwikkelingen in hun ICAI Lab.
Lees meer >
14 november
AI pilots TLC Science: Generatieve AI in wetenschappelijk onderwijs
De UvA is een nieuw project gestart waarbij het Teaching & Learning Centre Science onderzoekt hoe Generatieve AI, specifiek ChatGPT, kan bijdragen aan het verbeteren van academisch onderwijs. Binnen dit pilotprogramma aan de Faculteit der Natuurwetenschappen worden diverse toepassingen van GenAI in het hoger onderwijs getest en geëvalueerd.
Lees meer >