AI Oversight Lab: Ontwikkelen van betrouwbare AI-algoritmen voor publieke instanties

Gepubliceerd op: 11 maart 2021

De ontwikkeling en toepassing van betrouwbare artificiële intelligentie (AI) is essentieel voor het vergroten van het vertrouwen van burgers in AI. De uitdaging is om bestaande algoritmen meer betrouwbaar en ethisch-verantwoord te maken, door te investeren in onder andere goed datagebruik, het verhogen van transparantie, verminderen van bias en een duidelijk beeld te creëren van de effectiviteit en inbedding in een breder toepassingsproces.

Hierbij dienen de bestaande ethische richtlijnen voor betrouwbare AI te worden vertaald naar best practices en concrete tools. Lokale overheden kunnen deze toepassen bij het gebruik van AI-methodes, maar ook softwarebedrijven kunnen hier gebruik van maken bij de verdere ontwikkeling van de AI-methodes.

Inzet van Artificiële Intelligentie

Binnen het project wordt voornamelijk gewerkt aan innovaties rondom ‘betrouwbare AI’, ofwel Trustworthy AI. Hierbij is er aandacht voor zowel de theorie (in de vorm van handboeken, richtlijnen en criteria) alsook de praktijk (concrete cases van overheden en het ontwikkelen van praktische tools).

Welke uitdaging lost het op?

Het uiteindelijke doel is het vergroten van het vertrouwen in AI-algoritmen door concreet handen en voeten te geven aan betrouwbare AI. Huidige richtlijnen voor het ontwikkelen en toepassen van betrouwbare AI zijn abstract en vaak lastig in gebruik voor de specifieke context van onder andere gemeenten, inspecties en andere publieke instanties. Dit wordt uitgewerkt in het project via twee assen: Via het onderzoeken van concrete cases uit de praktijk, zoals AI-methodes die door overheidsinstanties worden gebruikt en door het vertalen van de theorie en ethische richtlijnen naar best practices en concrete tools.

Wat levert de use case op?

De beoogde resultaten zijn het formuleren en ontwikkelen van:

  • Beleid rondom het gebruik van AI-algoritmen.
  • Criteria voor betrouwbare AI-tools en het verzamelen van best practices rondom deze tools.

Verder wordt er aan een Community of Practice gewerkt, waarin overheden en andere partners participeren om van elkaar te leren over betrouwbare toepassing van AI. De resultaten worden vastgelegd in een handboek.

Eerste resultaten

De Gemeente Nissewaard zet een algoritme in voor risico-indicatie van misbruik of oneigenlijk gebruik van ontvangers van bijstandsuitkeringen. Het specifieke doel van dit algoritme is om de eerder gehanteerde algemene periodieke controle te vervangen, waarbij het toezicht zoveel mogelijk gericht is op de cliënten die de aandacht verdienen (ook wel genoemd: risico-gestuurd handhaven). De gemeente Nissewaard vindt het belangrijk dat het gebruik van het algoritme op correcte wijze plaatsvindt en wil de eigen werkwijze ook kritisch bekijken. Daarom heeft de Gemeente Nissewaard gevraagd mogelijke risico’s ten aanzien van het (gebruik van het) algoritme in kaart te brengen en is er een technisch-inhoudelijke evaluatie van het AI-algoritme uitgevoerd. Bekijk hier het opgestelde eindrapport.

De Inspectie Leefomgeving en Transport (ILT) gebruikt machine learning modellen als onderdeel van hun datagedreven koers om inspecteurs te ondersteunen: dat doen ze selectief en effectief om hun schaarse capaciteit in te zetten. Bijvoorbeeld het inschatten welke bedrijven schepen bezitten die het risico lopen om illegaal te worden gedumpt (sloopschepen). ILT vindt het belangrijk dat deze modellen uitlegbaar en interpreteerbaar zijn. Bovendien willen ze graag dat de algoritmes fair zijn, bijvoorbeeld een gelijke pakkans voor overtreders onafhankelijk van de grootte van het bedrijf. TNO heeft in nauwe samenwerking twee overzichten van beschikbare methodes op het gebied van transparantie en non-discriminatie opgeleverd en heeft enkele verschillende technieken voor machine learning getest. Met deze samenwerking kan ILT concrete technieken verder uitwerken, en heeft het ILT datascience team haar kennis van uitlegbare en interpreteerbare AI-technieken uitgebreid. Die kennis zal ook gebruikt worden voor andere (toekomstige) use cases.

De Immigratie- en Naturalisatie Dienst (IND) is gestart met het experimenteel in praktijk brengen van Informatie Gestuurd Werken (IGW). Hiervoor is door de IND intern een risicomodel ontwikkeld dat kan inschatten of een erkende referent (een persoon of organisatie die belang heeft bij het verblijf van een persoon uit het buitenland in Nederland) niet meer aan de voorwaarden voldoet of zijn verplichtingen niet nakomt. Voordat een dergelijk risicomodel in gebruik genomen wordt, is het belangrijk om te begrijpen welke gevoeligheden het met zich meebrengt. In samenwerking met TNO wordt onderzocht wat mogelijke gevoelige eigenschappen van het model zijn en hoe robuust het model is.

Daarnaast wordt er een handboek op opgesteld. Dit handboek is een eerste stap naar best practices in het toepassen van Trustworthy AI.

Samenwerkingspartners

Dit project is onderdeel van het Appl.AI programma van TNO en wordt mede gefinancierd vanuit de startimpuls die de NL AIC ontving van het kabinet voor onderzoek naar en het ontwikkelen van AI-toepassingen.

In de use cases worden modellen van overheden en publieke autoriteiten gezamenlijk onderzocht. Overheden en publieke autoriteiten die willen participeren in het project zijn van harte welkom en kunnen contact opnemen met Milena Kooij-Janic.

Delen via: