De militair van de toekomst zal moeten omgaan met misleidende of onjuiste informatie, vijandelijk gebruik van AI en met het verwerken van grote hoeveelheden data. AI speelt hierin dan ook een cruciale rol. De invoering van nieuwe technologie bij defensie biedt kansen, maar veroorzaakt ook risico’s. De introductie van AI brengt ethische, juridische en maatschappelijke vraagstukken met zich mee. Hoe kunnen AI-aangedreven systemen onder menselijke controle worden gehouden? Hoe kunnen menselijke controle en waardigheid worden gehandhaafd wanneer machines meer autonomie krijgen? En hoe wordt er binnen de verschillende juridische kaders gewerkt?
Voor een verantwoorde toepassing moeten deze en andere aspecten voortdurend in acht genomen worden bij het ontwerp, de implementatie en het onderhoud van AI-gebaseerde systemen. De centrale vraag van het ELSA Lab Defence luidt daarom als volgt: Hoe kan het ministerie van Defensie strategisch concurrerend blijven en aan de spits van militaire innovatie staan, met respect voor ethische, juridische en maatschappelijke waarden?
Aan welke maatschappelijke uitdaging op het gebied van AI wordt gewerkt?
Momenteel is het onduidelijk welke AI-gebaseerde systemen aanvaardbaar zijn vanuit ethisch, juridisch en maatschappelijk oogpunt en welke niet. Ook is nog onduidelijk onder welke voorwaarden/omstandigheden deze systemen wel aanvaardbaar zouden zijn. Dit leidt tot overmatig gebruik (bijvoorbeeld het gebruik van teveel AI-systemen in teveel situaties, zonder rekening te houden met de mogelijke gevolgen) en/of tot te weinig gebruik (bijvoorbeeld het niet gebruiken van AI, door gebrek aan kennis of angst voor de gevolgen van AI-systemen). Zowel overmatig gebruik als te weinig gebruik van AI-technologie kan in het defensiedomein leiden tot nog onbekende gevolgen met betrekking tot de bescherming van de vrijheid en veiligheid van de samenleving.
Wat voor type oplossing wordt de uiteindelijke gebruiker geboden?
Het ELSA Lab Defence ontwikkelt een toekomstbestendig, onafhankelijk en adviserend ecosysteem voor het verantwoord gebruik van AI binnen het defensiedomein. Zo onderzoeken we onder welke omstandigheden een AI-technologie gebaseerde toepassing acceptabel is of niet. Het lab zal een methode ontwikkelen die bij analyse, ontwerp en evaluatie van militaire AI-gebaseerde toepassingen (afhankelijk van de context) rekening houdt met de ethische, juridische en maatschappelijke aspecten. Om de bewustwording rond het ELSA concept te verhogen en om ELSA te implementeren ziet het ELSA Lab Defence oplossingen die rusten op twee pijlers:
- Ontwikkelen van methoden om te garanderen dat ELSA factoren integraal onderdeel worden bij het opstellen van eisen, productspecificaties, aanschaf en inzet van materieel.
- Ontwikkelen van onderwijsprogramma’s, voorlichting en advies gericht op militair personeel, media en de politiek.
Welke AI-methoden of technologieën worden er tijdens het onderzoek gebruikt?
Er wordt voortgebouwd op bestaande benaderingen zoals ‘value sensitive design’, ‘explainable’ algoritmen en mens-machine teaming. Deze methoden worden aangepast aan de specifieke defensiecontext door gebruik te maken van realistische casestudies.
Daarnaast zal ook worden onderzocht hoe de samenleving en het defensiepersoneel de inzet van militaire AI ervaart, hoe dit zich in de tijd ontwikkelt, en hoe het verandert in verschillende situaties. Verder zal het ELSA Lab Defence wereldwijde technologische, militaire en maatschappelijke ontwikkelingen, die de perceptie omtrent de inzet van AI systemen beïnvloeden, volgen om deze kennis toe te passen in het ELSA Lab.
Wordt er samengewerkt met andere sectoren?
De partners in het consortium van ELSA Lab Defence hebben ruime ervaring met (militaire) AI-systemen met een focus op juridische (Universiteit Leiden, Asser), ethische (TU Delft), maatschappelijke (HHS) en technische (TNO, NLDA) aspecten. Daarnaast is het ministerie van Defensie betrokken en wordt actief samengewerkt met de NAVO. Tijdens het project zal ook de industrie worden gevraagd zitting te nemen in de adviesraad van het ELSA Lab Defence. Zowel kleine en middelgrote als grotere ondernemingen binnen de defensie-industrie zullen hierbij worden betrokken.
Wat is het ultieme succes dat dit ELSA Lab kan bereiken?
ELSA Lab Defence wordt een onafhankelijk adviesbureau dat advies geeft over de toepassing van ELSA aspecten bij de inzet van militaire systemen met AI-gebaseerde technologie. Aangezien ELSA zeer contextafhankelijk is, en de technologie zich voortdurend ontwikkelt, zal dit geen one-size-fits-all oplossing opleveren. Daarom worden regelgevende en adviserende instanties gevormd, die advies op maat verstrekken.
Gehonoreerd met het NL AIC Label
De Nederlandse AI Coalitie heeft het NL AIC Label ontwikkeld om haar visie op de ontwikkeling en toepassing van AI in Nederland kracht bij te zetten. Een NL AIC Label is een formele erkenning van (de kwaliteit van) een activiteit in lijn met de ambities en strategische doelen van de NL AIC. De NL AIC feliciteert het ELSA Lab Defence van harte.
Honorering financiering ELSA Lab
NWO en de Nederlandse AI Coalitie hebben de NWA-call ‘Mensgerichte AI voor een inclusieve samenleving – naar een ecosysteem van vertrouwen’ gelanceerd. Na een toetsing door een onafhankelijke NWO beoordelingscommissie zijn eind januari 2022 vijf projecten gehonoreerd, waaronder dit ELSA Lab. De NL AIC feliciteert alle betrokkenen met deze honorering en wenst hen veel succes toe bij de verdere ontwikkeling van het Lab.
Meer informatie?
De volgende partijen nemen deel aan dit ELSA Lab: TNO (Jurriaan van Diggelen, Martijn van Emmerik, Marlijn Heijnen), ministerie van Defensie (Rob Ceuleers, Fenna Leijten, Merle Zwiers), TU Delft (Jeroen van den Hoven, Mark Neerincx, Filippo Santoni de Sio), ASSER Instituut (Berenice Boutin), Haagse Hogeschool (Elif Kiesow-Cortez), NLDA (Roy Lindelauf), Universiteit Leiden (Bart Custers, Eduard Fosch Villaronga), HCSS (Tim Sweijs) en HSD (Marlou Snelders).
Wilt u meer informatie over het ELSA Lab Defence? Neem dan contact op met Jurriaan van Diggelen of Martijn van Emmerik. Bent u geïnteresseerd in meer informatie over Mensgerichte AI en het ELSA concept, dan nodigen we u graag uit deze pagina te bezoeken.