
De publieke omroep wordt teruggebracht van dertien naar vier of vijf huizen. Nieuwe toetreders zijn voorlopig niet meer welkom. Het gevaar ligt voor de hand: een gevecht om posities, tradities en netwerken, waarbij inhoud en publiek op de achtergrond raken. Hoe zorg je dat dit proces niet verzandt in politieke willekeur?
Kortom, een operatie die al snel kan ontaarden in politieke koehandel en bestuurlijke spierballentaal. Kunstmatige intelligentie kan helpen om het proces te ontdoen van willekeur, mits de uitkomsten open en begrijpelijk zijn – en de leden het laatste woord houden. Niet als vervanging van menselijke keuzes, maar als instrument om het debat te voeden met feiten in plaats van sentiment.
AI kan patronen ontdekken in informatie waar mensen snel doorheen kijken of die niet passen in de door hen gewenste uitkomst. Door statuten, beleidsplannen, jaarverslagen en programmagidsen te analyserensamen met wat is uitgezonden, wordt zichtbaar waar omroepen elkaar overlappen en waar juist gaten vallen. Publieksdata, onderzoeksrapporten en zelfs sociale media kunnen het beeld verder aanscherpen. Algoritmes hebben geen boodschap aan reputatie of historie; ze kijken naar inhoud en impact.
Zo kan een profiel per omroep ontstaan: welke thema’s domineren, welke doelgroepen worden bereikt of gemist, welke genres zijn verzadigd? Met simulaties kan vervolgens worden doorgerekend wat er gebeurt als bijvoorbeeld VPRO en BNNVARA samengaan, of KRO-NCRV met EO. Hoe verandert het publieksbereik, en waar dreigt verlies van diversiteit?
Cruciaal is dat deze inzichten niet in een ivoren toren blijven. Door de resultaten te vertalen naar toegankelijke dashboards en kaarten, kunnen leden zelf zien welke scenario’s voorliggen. Niet alleen de ledenraden – die inmiddels mijlen veraf staan van hun leden bij de programmabladen-uitgeverijen – maar alle leden zouden daarna hun stem moeten kunnen uitbrengen. Een fusieproces dat zo wordt ingericht, maakt de achterban eigenaar van de uitkomst – niet bestuurders of Den Haag.
Transparantie is daarbij een harde eis. De modellen en datasets moeten open en controleerbaar zijn. Een onafhankelijke partij, bijvoorbeeld een universiteit of de Rekenkamer, zou verantwoordelijk moeten zijn voor de ontwikkeling en toetsing. Dat voorkomt dat kunstmatige intelligentie zelf een nieuwe black box wordt.
Het risico van machtsconcentratie ligt immers altijd op de loer. Het voorbeeld van Vereniging Veronica, die recent geruisloos in een stichting werd omgezet en de leden buitenspel zette, toont hoe snel de stem van de achterban kan verdwijnen. Voor de publieke omroep moet het omgekeerde gelden: technologie moet juist helpen om leden meer invloed te geven.
Uiteindelijk kan AI de clustering niet beslissen. Het blijft mensenwerk om te bepalen welke waarden en ambities de publieke omroep moeten dragen. Maar een data gedreven voorbereiding maakt het gesprek zuiverder. In plaats van strijd om wie de knoppen bedient, kan de discussie zich richten op inhoud, doelgroepen en maatschappelijke rol.
De hamvraag is of bestuurders en politiek dat aandurven. Met inzet van kunstmatige intelligentie kan het laatste woord bij de leden liggen waarvan de omroepen tenslotte zijn.
PS: Ter referentie wat AI ermee kan: het ChatGPT-onderzoek dat ik snel even liet uitvoeren, groepeerde de dertien omroepen in vijf logische omroephuizen — Nieuws & Educatie (NOS/NTR), Waarden & Religie (KRO-NCRV/EO), Innovatie & Diversiteit (BNNVARA, VPRO, HUMAN, Omroep Zwart), Amusement & Familie (AVROTROS/MAX) en Actualiteit & Opinie (WNL, Ongehoord Nederland, PowNed).
Het volledige overzicht, inclusief sterktes en zwaktesvan deze klusering, staat in het AI-achtergrondrapporten dat vind je hier. Wellicht handig voor Meindert Landsmeer…

Geef als eerste een reactie