Ethische AI-toepassingen: dat blijft mensenwerk

Gepubliceerd op: 29 september 2023

AI-ethiek is al langer een gespreksonderwerp. Dat waren meestal filosofisch getinte discussies. Die verkenningen hebben absoluut geholpen om tot belangrijke morele waarden en principes te komen. Maar het bleef over het algemeen nogal abstract. En toen begin 2023 de generatieve AI-hype losbarstte, werd al snel duidelijk dat er op het vlak van ethiek nog geen goede vangrails aanwezig zijn. Zo hebben AI-bots nogal eens de neiging om te ‘hallucineren’, waarbij duidelijk wordt dat de onderliggende taalmodellen van die bots nog niet goed in staat zijn om feiten van fictie te onderscheiden.

Maatschappelijke onrust

Het grote publiek ervaart momenteel hoe krachtig AI-toepassingen zijn en welke voordelen dat heeft. Tegelijkertijd is het voor iedereen meer dan duidelijk dat die technologie nog niet volledig betrouwbaar is. Daarbij zijn er zorgen over het feit dat iedereen nu over geavanceerde AI-toepassingen kan beschikken, dus ook mensen met kwade bedoelingen. En dat zorgt voor maatschappelijke onrust, vooral omdat de ontwikkelingen op het vlak van AI momenteel in een stroomversnelling zitten. In Europa is er weliswaar regelgeving in de maak om de mogelijke risico’s van AI zoveel mogelijk in te dammen, maar voordat die wet daadwerkelijk op nationaal niveau van kracht is, zijn we waarschijnlijk al een paar jaar verder.

Levendige discussie

Een voordeel van de recente ontwikkelingen is wel dat een ethische toepassing van AI nu echt overal hoog op de agenda staat. Bij de werkgroep Mensgerichte AI van de Nederlandse AI Coalitie merken ze dat ook. Het succes van de door die werkgroep samen met partners georganiseerde AI-Parade is daar een goed voorbeeld van. Dit initiatief om via openbare bibliotheken het grote publiek te bereiken en te betrekken bij de discussie over de maatschappelijke impact van AI, blijkt een goede manier om zorgen te delen en misverstanden over die technologie uit de wereld te helpen.

Team Ethiek

Nu generatieve AI-toepassingen over elkaar heen buitelen, klinkt de roep om ethische principes harder dan ooit. En het team Ethiek van de werkgroep Mensgerichte AI beseft dat maar al te goed. Het team bestaat uit drie experts die zich al jarenlang diepgaand met de ethische kant van AI bezighouden: Jeroen van den Hoven (hoogleraar Technologie en Ethiek aan TU Delft), Sophie Kuijt (Data & AI Ethics community leader bij IBM) en Kolja Verhage (manager Digital Ethics bij Deloitte). In de aanpak die nu door het team verder wordt uitgewerkt, ligt de nadruk op de praktische kant van de uitdaging om tot ethische AI-toepassingen te komen.

Systeemperspectief

“Als het om een ethische toepassing van AI gaat, kan iedereen al heel snel allerlei mooie principes opschrijven. Maar dat is nogal vrijblijvend”, benadrukt Jeroen van den Hoven. “Wat betekent het concreet? En wat moet er precies gebeuren om die mooie woorden ook echt waar te maken? Daarbij is het goed om te beseffen dat de aandacht niet alleen uit moet gaan naar het algoritme en de kwaliteit van de beschikbare data. Bij digitale ethiek is het zaak om een systeemperspectief te hanteren.”

The devil is in the details

Wie zich op het grotere geheel richt, beperkt zich niet tot het technische ontwerp en de ontwikkelfase, maar kijkt ook wat de beste manier is om alles daaromheen te organiseren. Aan welke juridische eisen moet een AI-systeem voldoen? Wat is sociaal wenselijk? En wat is er allemaal nodig om een AI-toepassing tijdens de gebruikersfase goed te kunnen te monitoren en waar nodig bij te sturen? Jeroen van den Hoven: “Het is net als bij een kerncentrale. Als het daar over risico’s gaat, denken mensen al snel aan technische problemen die leiden tot een meltdown. Maar als bewakers van die centrale niet goed getraind zijn of als ze makkelijk omkoopbaar zijn, heb je ook een probleem. Zo ook als de inspectie niet goed wordt uitgevoerd, het kernafval niet goed wordt afgevoerd of als er iets mis is met een geigerteller. The devil is in the details. Zo ook bij AI-systemen.”

Vooruitlopen op de Europese AI Act

Het lastige bij AI-toepassingen is dat ze enorm verschillen qua risiconiveau. Zo vraagt de inzet van AI in de gezondheidszorg of het militaire domein om strengere eisen dan wanneer het om een toepassing in de retail gaat. Die verschillen qua risico’s staan ook centraal in de AI Act waar de EU momenteel aan werkt en die er straks voor moet zorgen dat AI-toepassingen in Europa op een mensgerichte en ethische manier gebeurt. “De komst van die AI Act is voor bedrijven ook wel een motivatie om op dit moment bij de ontwikkeling van AI-toepassingen al nadrukkelijk het ethische aspect mee te nemen”, merkt Sophie Kuijt. “En het project Legal Parade, van de werkgroep Mensgerichte AI, sluit daar goed bij aan. Dat is namelijk een initiatief waarbij de impact van de AI wet- en regelgeving op bedrijven en organisaties worden getoond en besproken.”

Het belang van het hele ecosysteem

“Daarbij is het belangrijk dat ze ook goed weten wat bedrijven en organisatie zelf qua ethiek belangrijk vinden en in hoeverre hun waarden aansluiten bij de toepassingsgebieden in het domein waarin ze werkzaam zijn”, vervolgt ze. “Die waarden en toepassingen moeten goed op elkaar worden afgestemd. En dat vraagt om meer dan multidisciplinaire teams. Om echt tot verantwoorde en ethische AI-toepassingen te komen, ontkomen bedrijven er niet aan om het hele ecosysteem van ontwerpers, ontwikkelaars, juristen en gebruikers mee te nemen. Daarbij is het belangrijk om ervoor te zorgen dat gebruikers van een AI-systeem worden aangemoedigd om feedback te geven. Want die feedback is een goede trigger voor organisaties om hun op AI gebaseerde producten of diensten te verbeteren.”

Andere context, andere ethische vragen

Een actueel dilemma is de snelle opkomst van AI-toepassingen die het mogelijk maken om heel makkelijk iemands stem te klonen. Dat is goed nieuws voor ALS-patiënten, want als zij teksten omzetten in spraak, kunnen zij daar nu hun eigen stemgeluid voor gebruiken. Maar artiesten wiens stem wordt ‘gestolen’, zijn minder blij. En als cybercriminelen gebruikmaken van gekloonde stemmen, wordt die toepassing ronduit gevaarlijk. “Dezelfde technologie kan in een andere context opeens een hoog risico opleveren”, beaamt Kolja Verhage. “Dat betekent dus ook dat er bij een andere context ook andere ethische vragen moeten worden gesteld.”

De juiste processen ontwikkelen

“Ik kan me een initiatief herinneren waarbij het plan was om AI in te zetten om werknemers op basis van ergonomische principes te helpen bij het verbeteren van hun lichaamshouding”, noemt hij als voorbeeld. “Met behulp van sensoren en dataverzameling zou het mogelijk zijn om werknemers gericht advies te geven. Maar dat leidde al snel tot kritische vragen. Want wat zou er precies met die data gebeuren? Zouden werkgevers ook toegang tot die data krijgen en zo werknemers in de gaten kunnen houden? Maar diezelfde technologie toepassen in fysiotherapiepraktijken in ziekenhuizen? Dat leverde geen ethische bezwaren op. Bij het ontwikkelen van AI-tools is het dus belangrijk om eerst de context goed te doorgronden en daarna pas de juiste processen te ontwikkelen die leiden tot een verantwoorde en ethische toepassing van die AI-oplossing.”

Ethiek coderen?

“Bij discussies over het meenemen van ethische waarden bij AI-ontwikkelingen is er momenteel nog wel an elephant in the room”, merkt Kolja Verhage. “Want hoe kun je ethiek coderen in zo’n systeem? Het kan dat de context zo voorspelbaar is dat zoiets inderdaad mogelijk is. Maar in de meeste gevallen zal er echt nog een menselijk waardeoordeel nodig zijn. De uitdaging is nu dus om binnen een AI-systeem een samenwerking te krijgen tussen human values en human judgement met machine prediction. We zien dat daar momenteel hard aan gewerkt wordt en dat het duidelijk die kant op gaat.”

Steeds duidelijker plaatje

Elke AI-ontwikkeling kent specifieke kansen en uitdagingen. Op de vraag wat er precies moet gebeuren om tot verantwoorde en ethische AI-toepassingen te komen, is er dus ook geen kant en klaar antwoord. Maar het team Ethiek heeft al wel duidelijk in beeld welke basisprincipes helpen om ethiek integraal onderdeel uit te laten maken van de design-, ontwikkel-, gebruiks- en monitoringfase. Dat plaatje wordt steeds duidelijker. Ook binnen de community van de werkgroep Mensgerichte AI beseft iedereen dat het nu echt tijd is voor een volgende stap, waarbij de focus op handelen ligt. Zo wordt er momenteel gewerkt aan een handleiding Digitale Ethiek, met concrete aanbevelingen voor organisaties die op het vlak van AI actief zijn en die wel wat hulp kunnen gebruiken bij de ethische aspecten daarvan. Wordt dus vervolgd!

Interesse?

Meer weten over de aanpak voor ethische en juridische vraagstukken van de werkgroep Mensgerichte AI? Neem dan contact op met Náhani Oosterwijk of één van de genoemde contactpersonen. U kunt ook het hernieuwde Manifest Mensgerichte AI raadplegen of u abonneren op onze nieuwsbrief om op de hoogte te blijven.

Delen via: