Nieuws / media

Kritische mening of opzettelijk nepnieuws?

Verslag debat De Balie 10 september 2023

Deze zomer lanceerde de Europese Unie de Digital Services Act (DSA). Critici spreken van een ‘censuurwet’. Zij vrezen dat onder het mom van ‘desinformatie’ politiek ongewenste meningen geweerd gaan worden. Wat is desinformatie? Wie bepaalt dat? En hoe wordt de vrijheid van meningsuiting gewaarborgd?

Farid Tabarki ging op 10 september hierover in gesprek met Paddy Leerssen (postdoctoraal onderzoeker UvA), Evelyn Austin (directeur Bits of Freedom), techniekfilosoof Martijntje Smits van de Vierde Golf en een volle zaal. Het debat werd georganiseerd in en samen met het Cultureel Centrum De Balie.

Wat behelst de DSA?

Paddy Leerssen onderzoekt hoe het EU-recht reageert op ontwikkelingen zoals de algoritmische aanbevelingssystemen en de invloed die deze kunnen hebben op het pluralisme in de media. Ook onderzoekt hij hoe beleidsinstrumenten een transparante en democratische aansturing van die algoritmische systemen mogelijk kunnen maken.

Hij legt uit dat de DSA bedoeld is voor meer harmonisatie van de voorwaarden voor het aanbieden van intermediaire digitale diensten, met name van onlineplatforms die door hun klanten gedeelde inhoud hosten. De DSA bestrijkt een grote variëteit aan onderwerpen, van consumentenbescherming (wat doen de platforms met de informatie die we toeleveren) en de regulering van advertentie-algoritmen tot kinderporno en inhoudsmoderatie. Het laatste raakt aan de vrijheid van meningsuiting.

Sinds 25 augustus stelt de wet voorwaarden aan de grote platforms zoals Google, Twitter/X, Facebook en TikTok zoals het hebben van heldere beroepsprocedures en  transparantie over hun regulering van schadelijke en illegale content. Vanaf februari 2024 volgen de kleinere platforms. Zogenoemde ‘trusted flaggers’ moeten ‘illegale content’ gaan rapporteren. Ook hebben de platforms zorgplichten.

Dat de beroepsmogelijkheden inzichtelijker worden voor de gebruiker is een verbetering, vindt Leerssen. Ook krijgen onderzoekers meer toegang tot data. Maar hoe de DSA verder gaat uitwerken zal pas over een jaar duidelijk worden. Zo is bijvoorbeeld nog niet duidelijk waar je naartoe kunt als je er met een platform niet uitkomt. Waarschijnlijk wordt dat in Nederland de ACM (Autoriteit Consument en Markt). Maar daarboven staat de Europese Commissie, een politiek orgaan, als toezichthouder. En het zwaard van Damocles dat boven de platforms hangt is dat ze hoge boetes kunnen krijgen, tot maar liefst 6% van hun omzet of een verbod om in Europa te opereren. Dat kan ertoe leiden dat de platforms liever te veel dan te weinig content gaan verwijderen.

We staan pas het begin van de discussie

Wat Leerssen betreft is met het ingaan van de DSA de zaak niet rond, maar staan we juist aan het begin van meer discussie hierover, zoals het gesprek van deze avond.

Vanuit de zaal wordt gevraagd wat er gebeurt als de Europese Commissie een aanwijzing geeft om informatie over Covid te verwijderen. Dat zou niet kunnen aldus Leerssen, maar men kan wel het bereik verminderen.

En wat te doen, vraagt iemand, aan regels van Twitter die in zichzelf al desinformatie zijn? Zoals het verbod om te zeggen dat het coronavirus bedreigender is voor specifieke doelgroepen? Of als desinformatie juist vanuit de overheid komt, zoals de bewering dat je na coronavaccinatie niemand meer kan besmetten? En de “trusted flaggers”, wie zijn dat?
Als “trusted flaggers” schakelen platforms journalisten in, zegt Leerssen. “Maar wie dat precies zijn? Dat kan nog een stuk transparanter.”

‘Desinformatie bestrijden’

Advocaat Stan Baggen merkt op dat het woord “desinformatie” in de wetsartikelen zelf niet voorkomt, maar in de preambule wel 20 of 30 keer staat. Dat zal een bedrijf als X het gevoel geven te moeten gaan strijden tegen desinformatie. Leerssen beaamt dit, en raadt aan om te benadrukken dat er daarvoor productievere methoden zijn, zoals zogenaamde ‘community notes’: het gezamenlijk toevoegen van context aan mogelijk misleidende posts.

Onderzoeksjournalist Marcel van Silfhout (Follow the Money) geeft vanuit de zaal aan dat zijn account al 21x van LinkedIn verwijderd is. Dankzij zijn goede contacten werd dit de eerste keer in twee weken hersteld. De tweede keer duurde dat acht weken. Nu net is Wendy Mittemeijer (met haar focus op ethiek en farma) voor de derde keer verwijderd. Bob de Wit was een jaar lang weg. En vele anderen, Van Silfhout kent er wel 40. Hij moet op zo’n moment zijn paspoort laten zien, en waar het vooral toe leidt is zelfcensuur, angst. Je blijft je onveilig voelen. Hij heeft geen enkel vertrouwen in nieuwe wet, en denkt dat die slechts tot een schare aan ‘trusted flaggers’ en consultants zal leiden.

Hoe dienen we het publieke debat?

Directeur Bits of Freedom Evelyn Austin is van mening dat de situatie nu beter is dan vier jaar geleden en dat er veel zaken in de wet staan die veel kúnnen gaan betekenen. Martijntje Smits werpt daar tegenin dat ze sinds corona wantrouwen heeft gekregen in de manier waarop de platforms zichzelf censureren: die hebben géén belang bij de vraag: “Hoe dienen we het publieke debat?” Wie bepaalde de probleemdefinitie bij het uitwerken van de DSA, wie zat daar aan tafel? De begrippen ‘nepnieuws’ en ‘desinformatie’ raakten in zwang onder het presidentschap van Donald Trump. Die noemde hem onwelgevallige berichtgeving ‘fake news’, en we lachten daar om. Maar tijdens de coronapandemie werd het verwante begrip ‘desinformatie’ door overheden en onderzoeksinstituties juist steeds vaker in de mond genomen in hun strijd tegen claims rond het virus en de vaccinaties die afweken van het overheidsnarratief. Zelf communiceerde de overheid geregeld met grote stelligheid vanuit achteraf voorbarige veronderstellingen… ‘desinformatie’?

Austin geeft aan dat in Nederland geen gedegen onderzoek is gedaan naar desinformatie. Wel praat het kabinet er over sinds 2018-2019. Zij constateert dat de voorbereiders van de DSA niet zo obsessief bezig hadden moeten zijn met on/offline halen van content, maar zich meer hadden moeten richten op de kwaliteit van het publieke debat.

Onbedoelde effecten

Smits stelt dat er niet is nagedacht over de onbedoelde effecten: er is geredeneerd vanuit een technocratische instrumentele rationaliteit. Wetenschap is een heel proces om te bepalen wat waarschijnlijkheden zijn die bredere acceptatie krijgen. In je eerste college wetenschapsfilosofie leer je dat feiten niet bestaan. Waarom verwijderde LinkedIn een post van arts en vaccindeskundige Jona Walk waarin zij vragen stelde over de procedure van goedkeuring van de vaccins?

Austin vindt dat de wetten hadden moeten zorgen dat er geen enkel platform meer zou zijn dat meer dan 45 miljoen mensen bedient. En ze wil dat alle geluiden gehoord kunnen worden. Ze geeft aan dat sommige mensen de meldingsmogelijkheid ‘weaponizen’. Daar zou ze ook iets aan willen doen.

Vanuit de zaal wordt opgemerkt dat de overheid lijkt uit te gaan van willoze consumenten die beschermd moeten worden, en niet van burgers die zelf kunnen discussiëren: de sociale media zijn het enige kanaal waar je als wetenschapper nog iets terug kunt posten. Zonder dat wordt het helemaal eenrichtingverkeer!

Meer publiek debat …

De grote vraag is: hoe willen we dan wèl het publieke debat voeren? Alleen al het stellen van zo’n vraag roept reacties op dat dit “wappietaal is”. Smits stelt dat het probleem veel groter is en veel verder gaat dan internet. Misschien kan Nederland een voorbeeld nemen aan Spanje: daar is onlangs belastingvermindering ingesteld voor de lokale cafés, omdat de mensen elkaar dáár ontmoeten en met elkaar spreken.