< Terug naar nieuws

13 september 2023

Verklaarbare, betrouwbare en verantwoordelijke AI in beeldverwerking

De technologieën voor beeld- en videoanalyse en -begrip zijn de laatste jaren enorm verbeterd. Dit is te danken aan de opkomst van moderne deep learning netwerkarchitecturen (bijv. varianten van RNN's zoals LSTMs/GRUs, Generative Adversarial Networks, Transformers, Diffusion models) en leerparadigma's (bijv. adversarial learning, deep reinforcement learning, contrastive learning) en het bestaan van grootschalige datasets met ground-truth annotaties die de training van deze architecturen kunnen ondersteunen.
Bovendien is er een snel groeiend aantal onderzoekers dat geïnteresseerd is in het ontwikkelen van methoden die verklaringen geven over de werkingsmechanismen en de beslissingen/voorspellingen van diepe neurale netwerken. Er is al opmerkelijke vooruitgang geboekt op het gebied van patroonherkenning (zoals in deep learning-architecturen voor beeldclassificatie, objectdetectie, semantische segmentatie en zero-shot learning), terwijl er recent pogingen zijn gedaan om de output te verklaren van deep learning-architecturen die zich bezighouden met videodata (bijvoorbeeld architecturen voor videogebeurtenis/activiteitsherkenning en -classificatie, videobijschrift en videosamenvatting). Hoewel het succes van deep learning-modellen enorm is, zijn er verschillende uitdagingen die nog moeten worden aangepakt om deze modellen adequaat in te zetten in de echte wereld.
 
Verklaarbaar: Modellen ondergaan significante variaties in hun nauwkeurigheid die te wijten kunnen zijn aan redenen zoals variatie in hyperparameters of beelden die uit de distributie zijn. Deze variaties leiden tot een gevoel van wantrouwen over de prestaties van de modellen en geven het gevoel een black-box te zijn. Daarom is het uiterst belangrijk om de kennis te ontcijferen die deze modellen opdoen om bepaalde taken uit te voeren, zoals gezichtsherkenning of beeldclassificatie.
 
Betrouwbaar: Deep learning-modellen zijn gevoelig voor verstoringen door tegenstanders en natuurlijke ruis. Daar komt nog bij dat de eerlijkheid van deze modellen op verschillende demografische groepen op het gebied van gezichtsherkenning en beelden van buitenaf ernstige zorgen baart. Daarom is het belangrijk dat de ontwikkelde deep learning-modellen niet alleen accuraat zijn, maar ook effectief om kunnen gaan met de variaties in de beelden die ontstaan door ruis en beelden die zijn vastgelegd van personen uit verschillende demografische groepen.
 
Verantwoorde AI: De integratie van AI-technologieën in meer gangbare producten en diensten moet verantwoord worden (AI-ontwikkelaars moeten verantwoordelijk zijn voor de acties en beslissingen van een AI-gebaseerd systeem, vooral een meer autonoom systeem), inclusief (AI moet rekening houden met alle menselijke rassen en ervaringen), betrouwbaar en veilig (AI moet presteren zoals het oorspronkelijk is ontworpen en veilig reageren op nieuwe situaties), eerlijk (AI-beslissingen mogen niet discriminerend zijn of een vooroordeel over geslacht/ras/seksualiteit/religie vertonen ten opzichte van een groep of individu), transparant (over hoe het model is gemaakt, bijv. welke trainingsgegevens en algoritmen er zijn gebruikt) en transparant (over hoe het model is gemaakt, bijv. welke trainingsgegevens en algoritmen er zijn gebruikt). welke trainingsgegevens en algoritmen het heeft gebruikt, hoe het gegevenstransformaties en andere bijbehorende middelen heeft toegepast), en privé en veilig (hoe het persoonlijke informatie beveiligt, verschillende privacybeschermingen toepast, bijv, door gegevens te randomiseren en ruis toe te voegen om persoonlijke informatie te verbergen).
 
Het doel van dit onderzoeksthema is het verzamelen van nieuwe modellen en datasets voor machinaal leren die kunnen helpen bij het oplossen van de bovengenoemde problemen. Dit onderzoeksthema accepteert papers in de vorm van Origineel onderzoek, Methoden, Review, Hypothese & Theorie, Mini Review, Perspectief, Case Report, Kort Onderzoeksrapport, Data Report over onderwerpen met inbegrip van, maar niet beperkt tot:
 
- Gezichtsherkenning
- Ontwikkeling van nieuwe modellen voor machinaal leren en diep leren
- Objectclassificatie
- Eerlijke AI
- XAI voor beeld-/videoanalyse en -begrip
- Betrouwbare AI
- Efficiënte en effectieve AI
 

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
 CuspAI stelt zich voor in LAB42

6 September 2024

CuspAI stelt zich voor in LAB42 >

Op 5 september 2024 presenteerden Max Welling en Chad Edwards, oprichters van CuspAI, hun innovatieve bedrijf tijdens de IvI koffie & taart-bijeenkomst. 

Lees meer >

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten

5 September 2024

Geavanceerde AI voor Bewakingsrobots: Samenwerking Tussen Nederlandse Instituten >

Een consortium van toonaangevende Nederlandse onderzoeksinstituten en overheidsinstellingen, waaronder de TU Delft, Universiteit van Amsterdam, TNO en de Koninklijke Marechaussee, is van start gegaan met een ambitieus project: de ontwikkeling van geavanceerde kunstmatige intelligentie (AI) voor bewakingsrobots. Het OpenBots consortium, officieel gelanceerd op 4 september, richt zich op de ontwikkeling van AI-systemen die menselijke beveiligers kunnen ondersteunen in diverse veiligheidsomgevingen.

Lees meer >

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie

5 September 2024

NeuroAI: Charlotte Frenkel onderzoekt de toekomst van AI met het menselijk brein als inspiratie >

Met de toekenning van een AiNed Fellowship grant verdiept dr. Charlotte Frenkel van de TU Delft zich in neuromorphic computing, een grensverleggend onderzoek dat zich richt op energiezuinige en efficiënte AI-systemen, gebaseerd op de werking van het menselijk brein. Dit onderzoek brengt de wereld van AI en neurowetenschappen samen om computersystemen te ontwikkelen die sneller, energiezuiniger en intelligenter zijn.

Lees meer >