We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
DOSP-VHR-001884 | Explainable AI voor eindgebruikers en ontwikkelaars
Details
- Business Unit
- DOSP-PXL
- Kennisgroep
- EC Smart ICT Research
- Beschrijving (Original)
-
Het gebruik van artificiële intelligentie in hedendaagse software groeit pijlsnel. Voor allerlei taken, zoals automatische classificatie van beelden, het capteren en interpreteren van allerlei signalen van de gebruiker (bijvoorbeeld bewegingen en interacties met objecten), het aansturen van automatische chatbots en het uitvoeren van machine translation, wordt er gebruik gemaakt van complexe algoritmes uit domeinen als machine learning, computer vision, planning en knowledge reasoning. Dit leidt echter tot twee prominente problemen: (1) voor softwareontwikkelaars zonder diepgaande expertise in deze domeinen is het moeilijk om de juiste algoritmes te kiezen en zeer uitdagend om een algoritme op de juiste manier aan te sturen (bijvoorbeeld feature selection uit sensor data), en (2) voor gebruikers van de software gedragen de algoritmes zich vaak als "black boxes" die gebruik maken van allerlei gebruikersdata zonder de gebruikers daarover te informeren. Beide problemen zijn uiteraard sterk gelinkt aan elkaar: de gebruiker van een AI algoritme - of dat nu een ontwikkelaar is of een eindgebruiker van de software - moet bewust gemaakt worden van de werking van het achterliggende AI algoritme en de juiste handvatten aangeboden krijgen om er controle over te verwerven. Een recent onderzoeksdomein dat hierop inspeelt is eXplainable Artificial Intelligence (XAI).
- Beschrijving (Enhanced)
- Ontdek hoe artificiële intelligentie wordt ingezet in moderne software en de uitdagingen die daarbij komen kijken, zoals het kiezen van de juiste algoritmes en het begrijpen van complexe processen. Leer meer over eXplainable Artificial Intelligence (XAI) voor transparantere AI-ervaringen.
- Beschrijving (Cleaned)
-
Het gebruik van artificiële intelligentie in hedendaagse software groeit pijlsnel. Voor allerlei taken, zoals automatische classificatie van beelden, het capteren en interpreteren van allerlei signalen van de gebruiker (bijvoorbeeld bewegingen en interacties met objecten), het aansturen van automatische chatbots en het uitvoeren van machine translation, wordt er gebruik gemaakt van complexe algoritmes uit domeinen als machine learning, computer vision, planning en knowledge reasoning.
Dit leidt echter tot twee prominente problemen: (1) voor softwareontwikkelaars zonder diepgaande expertise in deze domeinen is het moeilijk om de juiste algoritmes te kiezen en zeer uitdagend om een algoritme op de juiste manier aan te sturen (bijvoorbeeld feature selection uit sensor data), en (2) voor gebruikers van de software gedragen de algoritmes zich vaak als "black boxes" die gebruik maken van allerlei gebruikersdata zonder de gebruikers daarover te informeren.
Beide problemen zijn uiteraard sterk gelinkt aan elkaar: de gebruiker van een AI algoritme - of dat nu een ontwikkelaar is of een eindgebruiker van de software - moet bewust gemaakt worden van de werking van het achterliggende AI algoritme en de juiste handvatten aangeboden krijgen om er controle over te verwerven. Een recent onderzoeksdomein dat hierop inspeelt is eXplainable Artificial Intelligence (XAI).
- Resultaatsbeschrijving
-
In de eerste fase van het project werd er een verzameling gemaakt van papers met betrekking tot het gebruik van (X)AI. Deze is raadpleegbaar via Airtable, https://airtable.com/shrnwfAjA2jaCn8MO/tblVOq7iFktArwTYY/viwkHwVXpbpeqZiLd?blocks=hide
Onze eerste demonstrator betreft scheepsdata van een haven, waar grote schepen in de haven geleid moeten worden met sleepboten. De data bevat verschillende scheepskarakteristieken en externe factoren, zoals windrichting en -snelheid, die invloed kunnen hebben op hoeveel sleepboten nodig zijn om een schip te begeleiden. AI kan hier advies bieden over het aantal benodigde sleepboten. XAI zorgt voor extra informatie, zoals welke karakteristieken het meeste invloed hadden op dit advies, zodat er een geïnformeerde beslissing genomen kan worden. Op deze manier kunnen overtrusten undertrust in het systeem vermeden worden.
Onze tweede demonstrator betreft beeldgegevens, waarbij een AI model beelden classificeert als een ‘normaal’ beeld of een beeld dat artefacten (storingen) bevat. Met XAI krijgen eindgebruikers en ontwikkelaar hier meer inzicht door de aanduiding van welke pixels de meeste impact hebben gegeven bij de classificatie. Dit in meerdere vormen, waarbij een eerste aanduiding gegenereerd wordt volgens een model explanation approach dat de werking van het globale complexe model probeert de benaderen en anderzijds via model inspection, dat heatmaps van pixels of interest genereert voor het oorspronkelijk beeld.
Daarnaast werd er ook ingezet op een unsupervised learning sidetrack, waarbij een autoencoder getraind werd met juiste beelden, waarna artefacten met een te grote reconstructiefout als artefact gelabeld konden worden. Explainability werd toegevoegd door de latent space te verkennen (typische eigenschap van autoencoders) en hoe alle samples in een 2D-ruimte worden geprojecteerd.
Onze derde demonstrator betreft de chatbot dAIsy, om met een zichzelf verklarende NLP-chatbot de database aan papers te verkennen. Dit om eindgebruikers die op zoek zijn naar welbepaalde papers de meest op de vraag aansluitende papers aan te raden. Bovendien verkrijgt de eindgebruiker de optie om een NLP-gegenereerde samenvatting van een paper te lezen, om te bepalen of het aansluit bij wat de gebruiker zoekt. Deze gegenereerde samenvatting wordt op haar beurt ook verklaarbaar gemaakt, door aan te duiden welke termen in de paper het meest hebben bijgedragen tot het genereren van de samenvatting.
Tijdens het project werd eveneens een Summer School rond Explainable AI georganiseerd. Hiervoor werd het nodige workshop materiaal ontwikkeld, dat deels ook ingezet wordt binnen het hoger onderwijs.
De project website is beschikbaar via https://www.explainableai.be/
Meer info via Steven Palmaers (PXL) of Mieke Haesen (UHasselt-EDM).
- Resultaatsbeschrijving (Cleaned)
-
In de eerste fase van het project werd een verzameling gemaakt van papers over het gebruik van (X)AI. Deze is raadpleegbaar via Airtable: https://airtable.com/shrnwfAjA2jaCn8MO/tblVOq7iFktArwTYY/viwkHwVXpbpeqZiLd?blocks=hide
Onze eerste demonstrator betreft scheepsdata van een haven, waar grote schepen met sleepboten worden geleid. De data bevat scheepskarakteristieken en externe factoren, zoals windrichting en -snelheid, die invloed kunnen hebben op het aantal benodigde sleepboten. AI kan advies geven over het aantal sleepboten. XAI biedt extra informatie, zoals welke karakteristieken het meest van invloed waren op het advies, zodat er een geïnformeerde beslissing kan worden genomen. Zo kunnen over- of onderschatting van het systeem worden vermeden.
Onze tweede demonstrator behandelt beeldgegevens, waarbij een AI-model beelden classificeert als 'normaal' of met artefacten (storingen). Met XAI krijgen gebruikers en ontwikkelaars meer inzicht door te laten zien welke pixels het meest hebben bijgedragen aan de classificatie. Dit wordt gedaan op verschillende manieren, met een eerste aanduiding volgens een modeluitlegbenadering die probeert het complexe model te begrijpen en anderzijds via modelinspectie, waar heatmaps van interessante pixels worden gegenereerd voor het oorspronkelijke beeld.
Er werd ook aandacht besteed aan een onbegeleide leertechniek, waarbij een auto-encoder werd getraind met correcte beelden. Artefacten met een te grote reconstructiefout konden zo als zodanig worden gelabeld. Verklaarbaarheid werd toegevoegd door de latent space te verkennen (een typische eigenschap van auto-encoders) en door te tonen hoe alle samples in een 2D-ruimte worden geprojecteerd.
Onze derde demonstrator is de chatbot dAIsy, een zelfverklarende NLP-chatbot om de database aan papers te verkennen. Dit helpt gebruikers die op zoek zijn naar specifieke papers de meest relevante aanbevelingen te doen. Gebruikers kunnen ook een NLP-generieerde samenvatting van een paper lezen om te bepalen of het aan hun behoeften voldoet. De gegenereerde samenvatting wordt ook verklaarbaar gemaakt door aan te geven welke termen het meest hebben bijgedragen aan de samenvatting.
Tijdens het project werd ook een Summer School over Explainable AI georganiseerd. Hiervoor werd workshopmateriaal ontwikkeld dat deels wordt gebruikt in het hoger onderwijs.
De projectwebsite is te vinden op: https://www.explainableai.be/
Voor meer informatie kunt u contact opnemen met Steven Palmaers (PXL) of Mieke Haesen (UHasselt-EDM).
- Start Datum
- 10-01-2019
- Eind Datum
- 31-12-2021
- Verification Status
- Not verified