We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
DOSP-VHR-001010 | Explainable AI voor eindgebruikers en ontwikkelaars.
Details
- Business Unit
- DOSP-PXL
- Kennisgroep
- EC Smart ICT Research
- Beschrijving (Original)
-
In dit project brengen we XAI in kaart voor ontwikkelaars, beslissingsnemers en eindgebruikers. Gezien de bruikbaarheid, begrijpelijkheid (ook wel 'intelligibility' genoemd) en controle van een AI-gebaseerd systeem in belangrijke mate bijdragen aan de acceptatie en het nut van deze technologie, is het belangrijk dat de Vlaamse industrie deze aspecten eenvoudig kan optimaliseren binnen hun AI-oplossingen. Teneinde een werkbare scope te verkrijgen, focussen we op een aantal specifieke klassen van AI-algoritmes. Initieel beogen we oplossingen voor software die gebruik maakt van neurale netwerken, statistische modellen, of beslissingsbomen. Afhankelijk van de cases die door de industriële partners van dit project worden aangeleverd, kunnen andere klassen van algoritmes beoogd worden.
- Beschrijving (Enhanced)
- Optimaliseer eenvoudig bruikbaarheid en controle van AI-systemen voor Vlaamse industrie. Focus op neurale netwerken, statistische modellen en beslissingsbomen. Aanpassingen mogelijk afhankelijk van industriële cases.
- Beschrijving (Cleaned)
-
In dit project brengen we XAI in kaart voor ontwikkelaars, beslissingsnemers en eindgebruikers. Gezien de bruikbaarheid, begrijpelijkheid (ook wel 'intelligibility' genoemd) en controle van een AI-gebaseerd systeem in belangrijke mate bijdragen aan de acceptatie en het nut van deze technologie, is het belangrijk dat de Vlaamse industrie deze aspecten eenvoudig kan optimaliseren binnen hun AI-oplossingen.
Teneinde een werkbare scope te verkrijgen, focussen we op een aantal specifieke klassen van AI-algoritmes. Initieel beogen we oplossingen voor software die gebruik maakt van neurale netwerken, statistische modellen, of beslissingsbomen. Afhankelijk van de cases die door de industriële partners van dit project worden aangeleverd, kunnen andere klassen van algoritmes beoogd worden.
- Resultaatsbeschrijving
-
In de eerste fase van het project werd er een verzameling gemaakt van papers met betrekking tot het gebruik van (X)AI. Deze is raadpleegbaar via Airtable, https://airtable.com/shrnwfAjA2jaCn8MO/tblVOq7iFktArwTYY/viwkHwVXpbpeqZiLd?blocks=hide
Onze eerste demonstrator betreft scheepsdata van een haven, waar grote schepen in de haven geleid moeten worden met sleepboten. De data bevat verschillende scheepskarakteristieken en externe factoren, zoals windrichting en -snelheid, die invloed kunnen hebben op hoeveel sleepboten nodig zijn om een schip te begeleiden. AI kan hier advies bieden over het aantal benodigde sleepboten. XAI zorgt voor extra informatie, zoals welke karakteristieken het meeste invloed hadden op dit advies, zodat er een geïnformeerde beslissing genomen kan worden. Op deze manier kunnen overtrusten undertrust in het systeem vermeden worden.
Onze tweede demonstrator betreft beeldgegevens, waarbij een AI model beelden classificeert als een ‘normaal’ beeld of een beeld dat artefacten (storingen) bevat. Met XAI krijgen eindgebruikers en ontwikkelaar hier meer inzicht door de aanduiding van welke pixels de meeste impact hebben gegeven bij de classificatie. Dit in meerdere vormen, waarbij een eerste aanduiding gegenereerd wordt volgens een model explanation approach dat de werking van het globale complexe model probeert de benaderen en anderzijds via model inspection, dat heatmaps van pixels of interest genereert voor het oorspronkelijk beeld.
Daarnaast werd er ook ingezet op een unsupervised learning sidetrack, waarbij een autoencoder getraind werd met juiste beelden, waarna artefacten met een te grote reconstructiefout als artefact gelabeld konden worden. Explainability werd toegevoegd door de latent space te verkennen (typische eigenschap van autoencoders) en hoe alle samples in een 2D-ruimte worden geprojecteerd.
Onze derde demonstrator betreft de chatbot dAIsy, om met een zichzelf verklarende NLP-chatbot de database aan papers te verkennen. Dit om eindgebruikers die op zoek zijn naar welbepaalde papers de meest op de vraag aansluitende papers aan te raden. Bovendien verkrijgt de eindgebruiker de optie om een NLP-gegenereerde samenvatting van een paper te lezen, om te bepalen of het aansluit bij wat de gebruiker zoekt. Deze gegenereerde samenvatting wordt op haar beurt ook verklaarbaar gemaakt, door aan te duiden welke termen in de paper het meest hebben bijgedragen tot het genereren van de samenvatting.
Tijdens het project werd eveneens een Summer School rond Explainable AI georganiseerd. Hiervoor werd het nodige workshop materiaal ontwikkeld, dat deels ook ingezet wordt binnen het hoger onderwijs.
De project website is beschikbaar via https://www.explainableai.be/
Meer info via Steven Palmaers (PXL) of Mieke Haesen (UHasselt-EDM).
- Resultaatsbeschrijving (Cleaned)
-
In de eerste fase van het project werd een verzameling gemaakt van papers met betrekking tot het gebruik van (X)AI. Deze is raadpleegbaar via Airtable, https://airtable.com/shrnwfAjA2jaCn8MO/tblVOq7iFktArwTYY/viwkHwVXpbpeqZiLd?blocks=hide
Onze eerste demonstrator betreft scheepsdata van een haven, waar grote schepen in de haven geleid moeten worden met sleepboten. De data bevat verschillende scheepskarakteristieken en externe factoren, zoals windrichting en -snelheid, die invloed kunnen hebben op hoeveel sleepboten nodig zijn om een schip te begeleiden. AI kan hier advies bieden over het aantal benodigde sleepboten. XAI zorgt voor extra informatie, zoals welke karakteristieken het meeste invloed hadden op dit advies, zodat er een geïnformeerde beslissing genomen kan worden. Op deze manier kunnen overtrusten undertrust in het systeem vermeden worden.
Onze tweede demonstrator betreft beeldgegevens, waarbij een AI model beelden classificeert als een ‘normaal’ beeld of een beeld dat artefacten (storingen) bevat. Met XAI krijgen eindgebruikers en ontwikkelaar hier meer inzicht door de aanduiding van welke pixels de meeste impact hebben gegeven bij de classificatie. Dit in meerdere vormen, waarbij een eerste aanduiding gegenereerd wordt volgens een model explanation approach dat de werking van het globale complexe model probeert de benaderen en anderzijds via model inspection, dat heatmaps van pixels of interest genereert voor het oorspronkelijk beeld.
Daarnaast werd er ook ingezet op een unsupervised learning sidetrack, waarbij een autoencoder getraind werd met juiste beelden, waarna artefacten met een te grote reconstructiefout als artefact gelabeld konden worden. Explainability werd toegevoegd door de latent space te verkennen (typische eigenschap van autoencoders) en hoe alle samples in een 2D-ruimte worden geprojecteerd.
Onze derde demonstrator betreft de chatbot dAIsy, om met een zichzelf verklarende NLP-chatbot de database aan papers te verkennen. Dit om eindgebruikers die op zoek zijn naar welbepaalde papers de meest op de vraag aansluitende papers aan te raden. Bovendien verkrijgt de eindgebruiker de optie om een NLP-gegenereerde samenvatting van een paper te lezen, om te bepalen of het aansluit bij wat de gebruiker zoekt. Deze gegenereerde samenvatting wordt op haar beurt ook verklaarbaar gemaakt, door aan te duiden welke termen in de paper het meest hebben bijgedragen tot het genereren van de samenvatting.
Tijdens het project werd eveneens een Summer School rond Explainable AI georganiseerd. Hiervoor werd het nodige workshopmateriaal ontwikkeld, dat deels ook ingezet wordt binnen het hoger onderwijs.
De projectwebsite is beschikbaar via https://www.explainableai.be/
Meer info via Steven Palmaers (PXL) of Mieke Haesen (UHasselt-EDM).
- Start Datum
- 30-09-2019
- Eind Datum
- 30-12-2021
- Verification Status
- Not verified