ELSA Lab AI, Media & Democracy

Gepubliceerd op: 10 april 2022

Machine learning en data-analyse kunnen een rol spelen in de gehele productieketen in de media. AI-systemen in de hele keten moeten transparant en verklaarbaar zijn, niet alleen om te voldoen aan de regelgeving, maar ook om het vertrouwen van de gebruiker te verbeteren.

Aan welke maatschappelijke uitdaging op het gebied van AI wordt gewerkt?

Desinformatie, fake news en polarisatie vormen een reëel gevaar voor de werking en vitaliteit van een democratische samenleving. Door de snelle opmars van AI-gebaseerde technologieën wordt dit gevaar steeds acuter. Het ELSA Lab AI, Media & Democracy ontwikkelt modellen en algoritmen om de verspreiding van desinformatie en polarisatie te kwantificeren en bij te sturen. 

Geautomatiseerde aanbevelingssystemen kunnen er door middel van feedback loops voor zorgen dat gebruikers steeds dezelfde soort content te zien krijgen, het zogenaamde ‘filter bubble effect.’ Dit ELSA Lab werkt aan het verbeteren van de diversiteit en inclusiviteit van aanbevelingssystemen door het ontwikkelen van nieuwe metrieken die worden gebruikt om verschillende aanbevelings-algoritmen en -systemen te evalueren.

Om ervoor te zorgen dat AI-gedreven oplossingen op een manier worden ontwikkeld en ingezet die onze publieke waarden en fundamentele rechten respecteert, moeten de nodige juridische en ethische richtsnoeren worden ontwikkeld. De wetgevingskaders die op dit moment in Brussel en Den Haag ontstaan, dienen aan te sluiten op de democratische rol van de media, en de realiteit van mediabedrijven, de creatieve industrie, burgers en de maatschappij.

Wat voor type oplossing wordt de uiteindelijke gebruiker geboden?

Fundamentele, theoretische modellen die inzicht geven in de interactie dynamiek binnen netwerken van strategische en lerende (AI-)agenten. Zulke modellen kunnen worden gebruikt bij het analyseren van empirische data, laten toe om belangrijke controleparameters te identificeren en kunnen richtinggevend zijn bij het opstellen van regelgeving. En praktische handvatten voor het ethisch en sociaal verantwoord ontwerpen implementeren van AI-modellen in de praktijk. Door het onder andere ontwikkelen van prototypes van oplossingen voor specifieke vraagstukken, maar ook richtlijnen en ethisch/juridische beoordelingskaders. Deze oplossingen worden ontwikkeld in co-creatie met mediaprofessionals en eindgebruikers.

Welke AI-methoden of technologieën worden er tijdens het onderzoek gebruikt?

AI is vaak een black box. Er wordt naar transparantie en uitlegbaarheid in al onze systemen gestreefd en er worden nieuwe methoden ontwikkeld om dit te bewerkstelligen. Het ELSA Lab richt zich hierbij niet (alleen) op het algoritme zelf, maar ook op transparantie van de hele AI-pijplijn. Dat wil zeggen ook op de selectie van trainings- en testdata, de pre-processing stappen, de parameters van het algoritme, en de resulterende voorspellingen van het algoritme en de manier waarop verschillende gebruikers deze resultaten kunnen inzien en bevragen.

Er wordt gebruikgemaakt van de volgende technologieën: Multi-agent systems, mechanism design, game theory, machine learning, deep learning, multi-agent reinforcement learning, natural language processing, data analytics, knowledge representation en reasoning, human-computer interaction, affective interactive systems.

Wordt er samengewerkt met andere sectoren?

In samenwerking met het Utrecht Media Lab en het Cultural AI Lab wordt er naar de verschillen en overeenkomsten gekeken tussen de cultureel-erfgoed sector en de mediasector, met name wat betreft diversiteit en inclusiviteit van recommender systemen.  

Wat is het ultieme succes dat dit ELSA Lab kan bereiken?

Het ontwikkelen van theoretisch onderbouwde conceptuele kaders en methodologieën die de werking van feit-gebaseerde en onafhankelijke media ondersteunen. En een breed besef bij media-professionals over de mogelijkheden en bezwaren van AI en hoe deze technologie zo kan worden ingezet dat het de democratische functie van media versterkt.

Gehonoreerd met het NL AIC Label

De Nederlandse AI Coalitie heeft het NL AIC Label ontwikkeld om haar visie op de ontwikkeling en toepassing van AI in Nederland kracht bij te zetten. Een NL AIC Label is een formele erkenning van (de kwaliteit van) een activiteit in lijn met de ambities en strategische doelen van de NL AIC. De NL AIC feliciteert het ELSA Lab AI, Media & Democracy van harte.

Honorering financiering ELSA Lab

NL AIC Label

NWO en de Nederlandse AI Coalitie hebben de NWA-call ‘Mensgerichte AI voor een inclusieve samenleving – naar een ecosysteem van vertrouwen’ gelanceerd. Na een toetsing door een onafhankelijke NWO beoordelingscommissie zijn eind januari 2022 vijf projecten gehonoreerd, waaronder dit ELSA Lab. De NL AIC feliciteert alle betrokkenen met deze honorering en wenst hen veel succes toe bij de verdere ontwikkeling van het Lab.

Meer informatie?

Geïnteresseerd in dit ELSA Lab? Bezoek dan de website. Wilt u meer informatie over Mensgerichte AI en het ELSA concept, dan nodigen we u graag uit deze pagina te bezoeken.

Delen via: