ELSA Lab Meaningful Human Control over Public AI Systems

Gepubliceerd op: 2 juni 2022

Het gebruik van AI in de uitvoering van beleid levert niet alleen de belofte op om maatschappelijke uitdagingen beter aan te kunnen, maar brengt ook kosten met zich mee met betrekking tot democratische en publieke waarden. Die kosten komen nu vaak ofwel anekdotisch ofwel als generieke normatieve kaders op tafel.

Dat miskent het integratieve karakter van deze problematiek en miskent de lokale complexiteit van de uitvoering en effecten voor de burger, waar AI op soms grote en soms subtiele wijze ingrijpt. Dit ELSA Lab richt zich op AI-systemen in de beleidsuitvoering.

Aan welke maatschappelijke uitdaging op het gebied van AI wordt gewerkt?

Artificiële Intelligentie (AI) wordt ingezet ten behoeve van diverse maatschappelijke uitdagingen, zoals het bevorderen van goede gezondheid en welzijn, het verminderen van ongelijkheid, en het bevorderen van vrede, recht en veiligheid. Tegelijkertijd wordt aan de ontwikkeling van verantwoorde AI en het innoveren van het openbaar bestuur gewerkt, wat bijdraagt aan innovatie, infrastructuur en sterke instituties.

Wat voor type oplossing wordt de uiteindelijke gebruiker geboden?

Dit ELSA Lab draagt bij aan het identificeren van realistische kaders voor mensgerichte AI waaraan moet worden voldaan bij toepassing in overheidscontext, dit wordt op basis van een integrale blik gedaan. Zowel de normatieve kaderstelling, de inrichting van waarborgen daarvoor, als de partijen die betrokken zijn bij de implementatie worden geholpen. Dit geldt voor de partijen die een rol hebben in het gebruik van AI in de beleidsuitvoering als degenen die betrokken zijn bij het ontwikkelen en implementeren van verantwoorde AI-toepassingen. Belangrijk is te vermelden dat deze combinatie ook heel goed kan leiden tot een besluit om voor bepaalde domeinen, vraagstukken of context géén AI in te zetten.

Welke AI-methoden of technologieën worden er tijdens het onderzoek gebruikt?

Het ELSA Lab richt zich op algoritmische ondersteunende systemen voor besluitvorming. Dat kan zijn: ML/NLP voor het ondersteunen van operationele processen en eventueel besluitvorming; beslismodellen; computer vision bij veiligheid op straat; zelflerende decision-support. De concrete methoden en technieken zitten in de actie-cases; het criterium daarvoor is dat er een AI-toepassing wordt gebruikt of in ontwikkeling is. Die toepassingen zijn data-intensief, wat ook afhankelijkheden oplevert die in het kader van het betrekken van de juiste stakeholders. Deels wordt ook met synthetische data gewerkt. Tenslotte wordt met één van de partners aan AI gewerkt dat leert op basis van de oordelen en kaders van professionals/experts, waardoor geen big data nodig is en toch besluitvormingsondersteuning kan worden geboden.

Wordt er samengewerkt met andere sectoren?

In dit ELSA Lab wordt samengewerkt vanuit een consortium van wetenschappers uit verschillende disciplines (onder andere bestuurskunde, rechten, informatica, complexe systemen); partijen uit het maatschappelijk middenveld, waaronder belangengroepen en partijen die activistisch onderzoek doen; technologie partijen, waaronder startups; overheidsorganisaties uit de hele justitie- en veiligheidsketen; overheidsorganisaties uit andere domeinen en vanuit alle lagen. Ieder van die partijen is ook weer ingebed in een eigen netwerk.

De samenwerking tussen al deze sectoren is hecht; de stakeholders zijn bij actie-onderzoek en de opbouw van het ecosysteem traject betrokken. We hanteren hierbij een ketenperspectief; welke partijen spelen een rol bij de data, de technologie, het beleid, de uitvoering op verschillende niveaus (management, street level), de burger of andere klant/cliënt, belangenbehartigers, toezicht-organisaties. Dit steeds rondom concrete cases, op een zo inclusief mogelijke wijze. De samenstelling van de labpartners maakt dit realistisch en haalbaar.

Wat is het ultieme succes dat dit ELSA Lab kan bereiken?

Dit is een wereld met zoveel complexiteit, wederzijdse afhankelijkheden, diverse belangen en variëteit in perspectieven dat het zoeken naar een ultiem doel zelf een oneindig proces kan worden. Naast onze inhoudelijke doelen, streven wij een domeinoverstijgend samenwerkingsplatform na, waarbinnen de quadrupel helix de implicaties en schaalbaarheid evalueert van op AI-gebaseerde systemen in deze sector. Dat geeft gestalte aan een breed ecosysteem dat kan ondersteunen in het toepassen van human meaningful control.

NL AIC Label

Gehonoreerd met het NL AIC Label

De Nederlandse AI Coalitie heeft het NL AIC Label ontwikkeld om haar visie op de ontwikkeling en toepassing van AI in Nederland kracht bij te zetten. Een NL AIC Label is een formele erkenning van (de kwaliteit van) een activiteit in lijn met de ambities en strategische doelen van de NL AIC. De NL AIC feliciteert het ELSA Lab Meaningful Human Control over Public AI Systems van harte!

Meer informatie?

Geïnteresseerd in dit ELSA Lab? Neem dan contact op met één van de onderstaande contactpersonen. Wilt u meer informatie over Mensgerichte AI en het ELSA concept, dan nodigen we u graag uit deze pagina te bezoeken.

Delen via: