De verwachting is dat Artificiële Intelligentie (AI) grote impact gaat hebben op onze samenleving. En de overheid heeft een voorbeeldrol als het gaat om het verantwoord ontwikkelen en toepassen van AI. Binnen de Nederlandse AI Coalitie (NL AIC) is er dan ook een werkgroep actief die zich specifiek richt op de kansen die AI biedt om publieke diensten te verbeteren. De ruim tachtig deelnemers van die werkgroep vertegenwoordigen de overheid in de breedste zin van het woord. Naast gemeentes, provincies en ministeries zijn bijvoorbeeld ook verschillende uitvoeringsorganisaties van de partij. Ook bedrijven en kennisinstellingen met interesse voor de overheid nemen deel.
“AI is geen sciencefiction. Ook binnen de overheid zien we steeds meer praktijkvoorbeelden”, trapt Barbara Visser (DUO, werkgroep Publieke Diensten) het gezamenlijke video-interview af. “En dat is goed, want zolang er alleen maar over mogelijke toepassingen wordt gepraat, zien mensen al snel allerlei beren op de weg. Of ze zien het juist als iets paradijselijks. Samen met alle andere deelnemers van onze werkgroep willen we AI in een meer realistisch perspectief zetten. En dat gaat het best door er ervaring mee op te doen en lessen met elkaar te delen. Heel goed dus dat de overheid steeds meer AI-oplossingen ontwikkelt en in de praktijk toepast, waarbij het ook nog eens om verschillende vormen van AI gaat.”
Op veel vlakken inzetbaar
Er is niet alleen enorm veel variatie op het vlak van AI, maar het toepassingsgebied is ook nog eens heel breed. Van slim gebruik van satellietbeelden tot de inzet van AI voor tekstanalyse. En van chatbots tot een pro-actievere dienstverlening omdat AI alle relevante informatie precies op het juiste moment kan tonen.
De overschatting van AI…
“De ontwikkelingen op het vlak van AI gaan inderdaad snel”, ziet ook Marieke van Putten (Ministerie van BZK, Voorzitter werkgroep Publieke Diensten). “Zo waren er twee jaar geleden binnen de overheid nog nauwelijks opgeschaalde toepassingen. En die zijn er nu heel duidelijk wel. Daarbij valt het me wel op dat het ontwikkelen en implementeren van AI vaak nog wordt overschat. Dan denken mensen dat zo’n AI-model vanzelf tot leven komt. Maar nee dus: wij mensen moeten toch echt nog het nodige voorwerk doen. En als een AI-oplossing in de praktijk wordt gebracht, is het belangrijk dat de organisatie er ook goed mee kan werken. Daarbij moeten we zo’n systeem actief blijven monitoren.”
…maar ook onderschatting
“Aan de andere kant wordt de waarde van AI ook nog regelmatig onderschat”, vervolgt ze. “Want neem de discussie over het borgen van publieke waarden en grondrechten. Te weinig mensen beseffen dat je daar juist AI heel goed voor kunt inzetten. Zo kun je AI inzetten om fake video’s van echte video’s te onderscheiden. Of je kunt AI als hulpmiddel inzetten om teksten of video’s beter toegankelijk te maken, en er zo voor zorgen dat meer mensen met die informatie worden geholpen.”
Momenteel de grootste uitdaging
Toepassingen van AI in het sociaal domein liggen momenteel gevoelig. En dat het soms fout gaat, ligt lang niet altijd aan de technologie. Vaak ligt het probleem op het organisatorische vlak. Zo vereist het werken met AI andere vaardigheden van individuele ambtenaren en soms ook vrij ingrijpende procesveranderingen binnen overheidsorganisaties. Dat is momenteel dus de grootste uitdaging: ervoor zorgen dat AI-systemen en mensen echt een team vormen en goed met elkaar kunnen samenwerken. Daarbij moet de mens ook in staat zijn om het doel scherp in de gaten houden en op de rem te trappen, als er iets mis dreigt te gaan.
Aanpassing van de wet- en regelgeving
“Het zou ook schelen als er een duidelijkere sociaaljuridische basis zou zijn, zodat we als overheidspartijen precies weten waar AI-toepassingen aan moeten voldoen”, geeft Chantal van Wijst (Belastingdienst, werkgroep Publieke Diensten) aan. “Daar moet het Nederlands recht voor worden aangepast. Er is op dat vlak nog veel werk te doen.”
“Op Europees niveau speelt dat ook”, weet Marieke. “De Europese Commissie heeft op 21 april conceptregelgeving op het vlak van AI gepubliceerd. Maar eerst moeten alle belangen nog worden gehoord en afgewogen. Ook daar kan het dus nog wel enige tijd duren voor die regulering daadwerkelijk wordt ingevoerd.”
High risk?
“Aanvankelijk werd de hele publieke sector als ‘high risk’ aangemerkt. Maar daarvan hebben wij gezegd dat het risiconiveau heel sterk per onderwerp verschilt. Zo maakt het nogal een verschil of een AI-systeem zich op mensen richt of op bijvoorbeeld planten. Dat punt hebben ze in Den Haag dus meegenomen in hun reactie op de whitepaper AI van de Europese Commissie. En die kanttekening is ook meegenomen in de conceptregelgeving.”
Mensgerichte aanpak
“Ondertussen is het natuurlijk uitermate belangrijk om extra zorgvuldig om te gaan met AI-projecten waarbij er een risico bestaat dat mensen benadeeld kunnen worden”, benadrukt Chantal. “We weten inmiddels hoe essentieel het voor overheidspartijen is om naast technologiepartijen en wetenschappers ook medewerkers en burgers actief bij de ontwikkeling van AI-systemen te betrekken. Je moet het echt samen doen.”
AI voor maatschappelijke doelen
“De mens centraal. Dat is ook een belangrijk speerpunt van de NL AIC, waar dan termen bij horen als ‘verantwoorde AI’ en ‘een mensgerichte aanpak’. Op die vlakken vinden er momenteel trouwens al aardig wat onderzoeken en experimenten plaats. Binnen de ELSA-labs bijvoorbeeld, waarbij ELSA verwijst naar Ethical, Legal and Societal Aspects. Die speciale labs zijn een initiatief van de NL AIC, waarbij bedrijven, overheid, kennisinstellingen en de inwoners van Nederland samen aan AI-oplossingen werken om maatschappelijke doelen te realiseren. Als werkgroep volgen wij die ontwikkeling uiteraard op de voet en willen we initiatieven vanuit de publieke sector stimuleren.”
Gezamenlijke focus op datakwaliteit
“Dat geldt ook voor initiatieven waarbij het delen van data centraal staat”, aldus Barbara. “Data is natuurlijk de grondstof voor elke AI-toepassing. Dus om met AI te kunnen werken, moet je eerst goede afspraken maken over de manier van dataverzameling en de kwaliteit van die data. Ook daar kunnen we samen met alle andere deelnemers van de werkgroep aan bijdragen.”
Ongegronde zorgen wegnemen
“Alleen het delen van ervaringen op het vlak van AI helpt al om dat onderwerp toegankelijker te maken”, concludeert ze. “Daarbij helpt het ook om zorgen weg te nemen. Ik weet dat nog aardig wat collega’s bang zijn dat er door de inzet van AI banen verloren gaan. Maar op basis van wat we allemaal al voorbij hebben zien komen, ben ik ervan overtuigd dat er misschien wel banen zullen vervallen, maar dat daar dan andere banen voor in de plaats komen. Het is een zoektocht naar balans en nieuwe vormen van samenwerking tussen mens en machine.”
Computer says no
Ook Chantal ziet nog wel wat koudwatervrees bij overheidsorganisaties. “Soms is er de angst dat AI echt dingen gaat overnemen. Je weet wel: computer says no. Wat we nu vooral merken, is dat organisaties wel met iets kleins experimenteren, maar dat ze afhaken als het serieuzer wordt. Want hoe laat je verschillende afdelingen goed met elkaar samenwerken? Welke externe partijen moet je aanhaken? Hoe zit het met zaken als compliance en privacy? Is het de investering waard? Organisaties kunnen tijdens een AI-project echt in een transitie terechtkomen. Begrijpelijk dus dat ze eerst maar eens voorzichtig links en rechts hun teentjes in het ‘AI-water’ steken. Maar je leert zoveel sneller en meer als je ook op een onderwerp de diepte in kan gaan.”
Wat is de meerwaarde?
Ondertussen komen er meer AI-oplossingen, die steeds geavanceerder worden en die steeds grootschaliger worden ingezet. De NL AIC moedigt die ontwikkeling aan. Daarbij benadrukt Barbara wel dat het belangrijk is om kritisch te blijven kijken in hoeverre AI een probleem oplost. “Bij DUO hebben we bijvoorbeeld twee jaar geleden een experiment gedaan met een chatbot die vragen telefonisch afhandelde. Hij was goed gebouwd en deed het op zich prima. Maar uiteindelijk bleek hij niet beter en ook niet sneller te zijn dan een medewerker. Het projectteam heeft toen besloten om die chatbot niet in te zetten. Dat vond ik stoer. En goed. Want je moet een AI-oplossing pas invoeren als die echt een meerwaarde heeft.”
Dit is het eerste deel van een serie. In komende artikelen gaan we dieper in op hoe de overheid haar ambities in de praktijk brengt. Dus hoe we in Nederland specifieke maatschappelijke opgaven met behulp van AI willen aanpakken. En wat er nodig is om dat op een verantwoorde en mensgerichte manier te doen. Wordt dus vervolgd.
Werkgroep Publieke Diensten
Als werkgroep Publieke Diensten bouwen we aan een bredere community om het gebruik van AI binnen de overheid te bevorderen. Daarbij willen we samen met andere partijen ontdekken hoe je AI verantwoord bij publieke diensten kunt toepassen en opschalen. Als werkgroep ontwikkelen we instrumenten voor een goede toepassing van AI. Ook delen we goede voorbeelden en maken we gebruik van de kansen die er binnen de NL AIC ontstaan om AI daadwerkelijk te ontwikkelen en toe te passen.
- Marieke van Putten, innovatiemanager bij het ministerie van Binnenlandse Zaken en Koninkrijksrelaties, én voorzitter van de werkgroep Publieke Diensten
- Chantal van der Wijst, strategisch adviseur Compliance & Technologische innovatie bij de Belastingdienst
- Barbara Visser, adviseur Strategie & Innovatie bij DUO (Dienst Uitvoering Onderwijs)
Geïnteresseerd in dit thema? Word deelnemer van de NL AIC en profiteer van de kennis en het netwerk rondom Publieke Diensten en andere relevante AI-thema’s.