ELSA Lab AI Multi-Agency Public Safety issues

Gepubliceerd op: 29 november 2022

Hoe kunnen we in Nederland AI-technologie inzetten om de publieke veiligheid te verbeteren? En hoe doen we dat op een verantwoorde, mensgerichte manier, zodat de inzet van AI niet tot ongewenste effecten en tot maatschappelijk ongenoegen leidt? Dat is waar de deelnemers van dit ELSA Lab momenteel mee worden geconfronteerd. Dit ELSA Lab richt zich met een brede samenwerking op concrete praktijkcases, en probeert zo stap voor stap vorderingen te maken.

Aan welke maatschappelijke uitdaging op het gebied van AI wordt gewerkt?

Als het om veiligheidsvraagstukken gaat, ligt de nadruk soms wel erg op de inzet van datatechnologie. Maar inmiddels weten we dat die technologie ook weer tot nieuwe problemen en sociale onrust kunnen leiden. Je kunt in een situatie belanden waarin de veiligheid feitelijk gezien verbeterd is, maar dat ondertussen wel gepaard gaat met maatschappelijk ongenoegen. Bijvoorbeeld omdat mensen zich zorgen maken over privacy-issues. Bij dit soort ontwikkelingen is het dus belangrijk om veel aandacht te hebben voor sociale, juridische en maatschappelijke aspecten. Daarbij gaat het om het zoeken van een goede balans tussen wat er voor het verbeteren van de publieke veiligheid nodig is en welke oplossingen een breed maatschappelijk draagvlak hebben.

Wat voor type oplossing wordt de uiteindelijke gebruiker geboden?

Dit ELSA Lab richt zich op drie specifieke use cases. De eerste gaat over high impact crime, waar bijvoorbeeld roof en inbraken onder vallen. Daarnaast kijkt dit ELSA Lab naar woonwijken, en dan met name naar aandachtwijken. Daar is bewust voor gekozen omdat veel mensen in die wijken een onveilig gevoel kunnen ervaren, terwijl dat gevoel lang niet altijd met criminaliteit te maken heeft. Uit verkennende onderzoeken is bekend dat er veel oorzaken van die sociale onvrede zijn, zoals slecht opgeruimd huisvuil, parkeeroverlast of rondcrossende scootertjes. En de derde use case gaat over crowd control. Hierbij gaat het om real-time beeldanalyse in de openbare ruimte. Belangrijk aandachtspunt daarbij is in hoeverre er in zo’n opzet privacy-issues spelen. Daarbij gaat het niet alleen om de juridische verantwoordelijkheid, maar bijvoorbeeld ook om de ethische vraag wat voor samenleving we willen. Ook is er aandacht voor de sociologische kant. Welke invloed hebben de toegenomen surveillanceaspecten bijvoorbeeld op de samenleving? Dat alles met het doel om tot goed doordachte AI-oplossingen te komen met veel aandacht voor de manier waarop die technologie wordt ontworpen.

Welke AI-methoden of technologieën worden er tijdens het onderzoek gebruikt?

De Erasmus universiteit Rotterdam, één van de initiatiefnemers van dit ELSA Lab, gaat bij de inzet van datatechnologie uit van open toegang en een aanpak die is gebaseerd op eerlijkheid, feitelijkheid en wetenschappelijke integriteit. Bij die opzet zijn meerdere partijen betrokken, die de verschillende uitdagingen met meerdere aanpakken en meerdere doelstellingen aangaan. Zeer complex dus. Vandaar ook dat er een nieuwe term voor deze aanpak in het leven is geroepen: transdisciplinaire innovatie. Dat betekent ook dat er binnen dit ELSA Lab veel verschillende soorten datatechnologieën worden ingezet: van het Data Document Initiative (voor vragenlijsten en observatiedata) en het Tekst Encoding Initiative (voor tekstuele data) tot de Dublin Core Metadata Set (voor video- en audiodata). Bij dat alles is er een belangrijke rol weggelegd voor een data engineer.

Wordt er samengewerkt met andere sectoren?

Het consortium bestaat uit een zeer diverse mix van partijen. De Nationale Politie, Woonstad Rotterdam (woningcorporatie), Rathenau Instituut, HSD (The Hague Security Delta), Erasmus Universiteit Rotterdam, TU Delft, Universiteit Leiden, TNO, ICAI, Google en Deloitte, om er maar een paar te noemen. Naast overheid, bedrijven en kennisinstellingen, zijn er dus ook maatschappelijke organisaties aan boord.

Wat is het ultieme succes dat dit ELSA Lab kan bereiken?

De ambitie is om tot toepassingen te komen waar alle betrokken partijen zich in kunnen vinden en waarvan bij implementatie duidelijk wordt dat ze niet alleen concreet bijdragen aan het bevorderen van de openbare veiligheid, maar daarbij ook een positieve invloed hebben op het maatschappelijk welbevinden. De lat ligt dus hoog. En om dat langetermijndoel te halen, richt dit ELSA Lab zich eerst op belangrijke steppingstones. In de beginfase ligt de focus daarbij op een onderzoeksprogramma waarbij vier PhD’s de mogelijkheid krijgen om te promoveren op onderwerpen die centraal staan. Dat zorgt voor een mooi fundament waar het consortium vervolgens verder op kan bouwen.

Gehonoreerd met het NL AIC LabelNL AIC Label

De Nederlandse AI Coalitie heeft het NL AIC Label ontwikkeld om haar visie op de ontwikkeling en toepassing van AI in Nederland kracht bij te zetten. Een NL AIC Label is een formele erkenning van (de kwaliteit van) een activiteit in lijn met de ambities en strategische doelen van de NL AIC. De NL AIC feliciteert het ELSA Lab AI Multi-Agency Public Safety issues van harte!

Meer informatie?

Onderstaande personen zijn betrokken bij de ontwikkeling van dit ELSA Lab:

Wilt u meer informatie over Mensgerichte AI en het ELSA concept, dan nodigen we u graag uit deze pagina te bezoeken.

Delen via: