ELSA Lab AI, Media & Democracy

Machine learning en data-analyse kunnen een rol spelen in de gehele productieketen in de media. AI-systemen in de hele keten moeten transparant en verklaarbaar zijn, niet alleen om te voldoen aan de regelgeving, maar ook om het vertrouwen van de gebruiker te verbeteren.

Aan welke maatschappelijke uitdaging op het gebied van AI wordt gewerkt?

Desinformatie, fake news en polarisatie vormen een reëel gevaar voor de werking en vitaliteit van een democratische samenleving. Door de snelle opmars van AI-gebaseerde technologieën wordt dit gevaar steeds acuter. Het ELSA Lab AI, Media & Democracy ontwikkelt modellen en algoritmen om de verspreiding van desinformatie en polarisatie te kwantificeren en bij te sturen. 

Geautomatiseerde aanbevelingssystemen kunnen er door middel van feedback loops voor zorgen dat gebruikers steeds dezelfde soort content te zien krijgen, het zogenaamde ‘filter bubble effect.’ Dit ELSA Lab werkt aan het verbeteren van de diversiteit en inclusiviteit van aanbevelingssystemen door het ontwikkelen van nieuwe metrieken die worden gebruikt om verschillende aanbevelings-algoritmen en -systemen te evalueren.

Om ervoor te zorgen dat AI-gedreven oplossingen op een manier worden ontwikkeld en ingezet die onze publieke waarden en fundamentele rechten respecteert, moeten de nodige juridische en ethische richtsnoeren worden ontwikkeld. De wetgevingskaders die op dit moment in Brussel en Den Haag ontstaan, dienen aan te sluiten op de democratische rol van de media, en de realiteit van mediabedrijven, de creatieve industrie, burgers en de maatschappij.

Wat voor type oplossing wordt de uiteindelijke gebruiker geboden?

Fundamentele, theoretische modellen die inzicht geven in de interactie dynamiek binnen netwerken van strategische en lerende (AI-)agenten. Zulke modellen kunnen worden gebruikt bij het analyseren van empirische data, laten toe om belangrijke controleparameters te identificeren en kunnen richtinggevend zijn bij het opstellen van regelgeving. En praktische handvatten voor het ethisch en sociaal verantwoord ontwerpen implementeren van AI-modellen in de praktijk. Door het onder andere ontwikkelen van prototypes van oplossingen voor specifieke vraagstukken, maar ook richtlijnen en ethisch/juridische beoordelingskaders. Deze oplossingen worden ontwikkeld in co-creatie met mediaprofessionals en eindgebruikers.

Welke AI-methoden of technologieën worden er tijdens het onderzoek gebruikt?

AI is vaak een black box. Er wordt naar transparantie en uitlegbaarheid in al onze systemen gestreefd en er worden nieuwe methoden ontwikkeld om dit te bewerkstelligen. Het ELSA Lab richt zich hierbij niet (alleen) op het algoritme zelf, maar ook op transparantie van de hele AI-pijplijn. Dat wil zeggen ook op de selectie van trainings- en testdata, de pre-processing stappen, de parameters van het algoritme, en de resulterende voorspellingen van het algoritme en de manier waarop verschillende gebruikers deze resultaten kunnen inzien en bevragen.

Er wordt gebruikgemaakt van de volgende technologieën: Multi-agent systems, mechanism design, game theory, machine learning, deep learning, multi-agent reinforcement learning, natural language processing, data analytics, knowledge representation en reasoning, human-computer interaction, affective interactive systems.

Wordt er samengewerkt met andere sectoren?

In samenwerking met het Utrecht Media Lab en het Cultural AI Lab wordt er naar de verschillen en overeenkomsten gekeken tussen de cultureel-erfgoed sector en de mediasector, met name wat betreft diversiteit en inclusiviteit van recommender systemen.  

Wat is het ultieme succes dat dit ELSA Lab kan bereiken?

Het ontwikkelen van theoretisch onderbouwde conceptuele kaders en methodologieën die de werking van feit-gebaseerde en onafhankelijke media ondersteunen. En een breed besef bij media-professionals over de mogelijkheden en bezwaren van AI en hoe deze technologie zo kan worden ingezet dat het de democratische functie van media versterkt.

Gehonoreerd met het NL AIC Label

De Nederlandse AI Coalitie heeft het NL AIC Label ontwikkeld om haar visie op de ontwikkeling en toepassing van AI in Nederland kracht bij te zetten. Een NL AIC Label is een formele erkenning van (de kwaliteit van) een activiteit in lijn met de ambities en strategische doelen van de NL AIC. De NL AIC feliciteert het ELSA Lab AI, Media & Democracy van harte.

Honorering financiering ELSA Lab

NL AIC Label

NWO en de Nederlandse AI Coalitie hebben de NWA-call ‘Mensgerichte AI voor een inclusieve samenleving – naar een ecosysteem van vertrouwen’ gelanceerd. Na een toetsing door een onafhankelijke NWO beoordelingscommissie zijn eind januari 2022 vijf projecten gehonoreerd, waaronder dit ELSA Lab. De NL AIC feliciteert alle betrokkenen met deze honorering en wenst hen veel succes toe bij de verdere ontwikkeling van het Lab.

Meer informatie?

Geïnteresseerd in dit ELSA Lab? Bezoek dan de website. Wilt u meer informatie over Mensgerichte AI en het ELSA concept, dan nodigen we u graag uit deze pagina te bezoeken.

Delen met:
Share on linkedin
Share on twitter
Share on whatsapp
Share on email
Share on print
Share on facebook

Meer informatie

Bouwstenen

De NL AIC werkt samen aan de benodigde kennis, expertise en resultaten op vijf thema’s, ook wel bouwstenen genoemd, die belangrijk zijn voor een innovatieve impact in economische en maatschappelijke toepassingsgebieden.

Toepassingsgebieden

AI is een generieke technologie die uiteindelijk haar toepassing vindt in alle sectoren. Het is van belang in te zetten op specifieke, voor Nederland relevante sectoren, waar goede resultaten te behalen zijn en waar kennis en ervaring opgeschaald kan worden voor toepassing in andere sectoren.

Word deelnemer

Om initiatieven in Artificial Intelligence te stimuleren en te verbinden, zijn we er als Nederlandse AI Coalitie van overtuigd dat een actieve samenwerking met een breed palet aan stakeholders essentieel is. In het eigen vakgebied en met andere stakeholders in het ecosysteem om een zo groot mogelijke impact te bereiken voor de ontwikkeling en toepassing van AI in Nederland. Vertegenwoordigers uit het bedrijfsleven (groot, klein, startup), overheid, onderzoeks- en onderwijsinstellingen en maatschappelijke organisaties kunnen deelnemen.

Geïnteresseerd? Kijk voor meer informatie op de pagina over de NL AIC.