Natali Helberger is universiteitshoogleraar Recht en Digitale Technologie aan de Universiteit van Amsterdam en een van de oprichters en onderzoekers betrokken bij het Digital Services Act Observatory van het Instituut voor Informatierecht (IViR).

Michael Klos is als universitair docent aan de Universiteit Leiden gespecialiseerd in de (juridische) aanpak van van desinformatie. Hij houdt zich in zijn onderzoek bezig met de regulering van online inhoud door overheden en onlineplatforms.

Wat is de Digital Services Act (DSA) precies? 

Helberger: “De DSA is een update van oude wetgeving die stamt uit het jaar 2000, de zogenaamde e-Commerce richtlijn. Sinds die tijd is er ontzettend veel veranderd in de online wereld, en hebben we er grote platformen zoals Facebook en Twitter bijgekregen. Dat vraagt om nieuwe, moderne regelgeving. Het doel van de DSA is om een veilige online omgeving te waarborgen en de verantwoordelijkheid van grote platformen vast te leggen voor problemen die het resultaat zijn van hun algoritmes en businessmodellen.” 

 

Wat voor regels staan er zoal in de DSA? 

Klos: “In de eerste plaats staan in de DSA strengere en duidelijkere regels voor de aanpak van illegale content, zoals bijvoorbeeld kinderporno. Platformen zijn – dat was voor de DSA ook al zo – in principe niet verantwoordelijk voor de content die op hun platform geplaatst wordt, tenzij ze ‘kennis hebben genomen’ van die illegale content. Dat kan bijvoorbeeld doordat mensen er een melding van hebben gemaakt. In de DSA staat dit principe duidelijker uitgelegd dan voorheen, en wordt het bovendien makkelijker gemaakt om illegale content te ‘flaggen’, waarna de platformen er dus verplicht iets mee moeten doen. Dat flaggen kan worden gedaan door gewone burgers, maar ook door zogenaamde ‘trusted flaggers’. Dat zijn personen die worden aangewezen op basis van hun expertise, ik denk bijvoorbeeld aan iemand van het Expertisebureau Online Kindermisbruik. Als een ‘trusted flagger’ melding maakt van mogelijk illegale content, dan moeten de platformen hier met prioriteit mee aan de slag.”

 

Valt desinformatie ook onder illegale content? 

Klos: “Het verspreiden van onjuiste informatie is in principe niet illegaal. Desinformatie valt in een categorie die sommige mensen ‘lawful but awful’ noemen: het is schadelijk, maar in de meeste gevallen wel legaal. De DSA gaat in de eerste plaats over illegale content, maar dat betekent niet dat er helemaal niks over de bestrijding van desinformatie in de DSA staat. 

Helberger: “Zeer grote platformen zoals Facebook en Twitter, die in de wet ‘VLOP’s’ (Very Large Online Platforms) worden genoemd, moeten naast het adresseren van illegale content namelijk aan extra regels voldoen. Zo moeten ze elk jaar een risicoanalyse uitvoeren, waarin ze zelf proactief moeten kijken of hun algoritmes en contentmoderatiesystemen ‘systematische risico’s’ geven door bijvoorbeeld desinformatie te promoten. Als dat inderdaad uit zo’n analyse komt, dan moeten die platformen maatregelen nemen.” 

Klos: “Daarbij kun je bijvoorbeeld denken aan samenwerken met onafhankelijke factcheckers, context geven bij berichten of berichten verwijderen.”

 

Als platformen jouw content verwijderen, kun je daar dan nog iets tegenin brengen?

Helberger: “Ja, in de DSA staan betere waarborgen dan voorheen voor mensen van wie  content wordt weggehaald. Voorheen was het zo dat platformen een bericht konden verwijderen zonder dat je daar veel tegenin kon brengen; de DSA regelt nu dat er procedures zijn om tegen de besluiten van een platform in beroep te gaan.”

 

Hebben nationale overheden ook een rol in het moderatiebeleid?

Helberger: “De DSA heeft een bepaling waarin staat dat lidstaten van een platform kunnen verlangen om content die onder hun wetgeving illegaal is weg te halen. Dus dat geeft die lidstaten redelijk veel flexibiliteit om van een platform te eisen dat inhoud verwijderd wordt. We hebben tijdens de coronacrisis maar ook meer in het algemeen gezien dat enkele lidstaten wetten tegen desinformatie gemaakt hebben, en sommige van die wetten gaan best ver.”

 

In welke landen is dit gebeurd?

Helberger: “In Hongarije bijvoorbeeld is het strafbaar om valse informatie over beschermende maatregelen tegen het coronavirus te verspreiden, en kan dat zelfs met een gevangenisstraf worden vervolgd. Maar ook in bijvoorbeeld Griekenland, Malta, Frankrijk, Cyprus en Tsjechië kan het verspreiden van bepaalde vormen van desinformatie bestraft worden met een gevangenisstraf. De definities van desinformatie zijn vaak breed en kunnen uitlopen van “spreading an alarming message which is untrue” (Slowakije) tot “any form of false news or news that can potentially harm civil order or the public’s trust towards the State or its authorities or cause fear or worry among the public” (Cyprus). Zo heb je een aantal landen die redelijk brede en strenge desinformatie-wetten gemaakt hebben (voor meer gedetailleerde informatie zie deze studie voor ERGA), en daarmee de mogelijkheid hebben om in te grijpen en content te censureren.

 

Is dat niet een enorme inbreuk op de vrijheid van meningsuiting? 

Klos: “Dat klopt, maar er is gelukkig wel een mechanisme ingebouwd dat de vrijheid van meningsuiting moet beschermen. De bepaling die lidstaten de macht geeft om content die volgens hun wetgeving illegaal is weg te laten halen, geldt namelijk alleen als die wetten niet in strijd zijn met de Europese rechtsorde. Dat betekent in de praktijk dat als een land bijvoorbeeld zou zeggen dat alle informatie over abortus illegaal is en dus verwijderd moet worden, dat platformen eerst moeten toetsen of dat niet in strijd is met Europese regels.”

 

En het ‘crisis response mechanism’. Wat is dat precies?

Helberger: “Een tijdje geleden heeft de Europese Raad de Russische zenders RT en Sputnik geband, vanwege de verspreiding van desinformatie over de Oekraïne-oorlog. Daar was toen best wat discussie over, omdat onduidelijk was of de Raad überhaupt de bevoegdheid had om die zenders te verbieden. Naar aanleiding van deze discussie heeft de Europese Commissie daarom het ‘crisis response mechanism’ in de DSA bedacht. Dat houdt in dat in gevallen van serieuze gevaren voor de publieke gezondheid of veiligheid de Europese Commissie platformen kan bevelen op te treden. De Europese Commissie kan dus bij een volgende crisis Facebook of Twitter bevelen om bepaalde dingen te verbieden.

 

Er zijn dus best wat risico’s voor de vrijheid van meningsuiting. Die kan namelijk door de platformen, door nationale overheden en door de Europese Commissie zelf worden ingeperkt. Gaat dat niet te ver?

Helberger: “Ik denk dat we er niet per se van moeten uitgaan dat platformen of overheden nu ineens enorm en opzettelijk de vrijheid van meningsuiting gaan schenden, maar ik denk dat er wel gevaar is en dat we daar alert op moeten zijn. Hier ligt een taak voor overheden, wetenschappers en organisaties als BENEDMO, maar ook voor platformen zelf.”

Klos: “De DSA is een flinke stap voorwaarts als het gaat om de rechtsbescherming van gebruikers: onlineplatformen moeten bijvoorbeeld duidelijk maken waarom bepaalde content wordt verwijderd, en gebruikers kunnen hier vervolgens tegen in beroep gaan. Daarmee blijft het risico voor de vrijheid van meningsuiting naar mijn mening beperkt.”

 

Ten slotte: wat gebeurt er als platformen zich niet aan de regels van de DSA houden? 

Klos: “Wanneer grote onlineplatformen zoals Facebook zich niet aan de DSA houden, dan kunnen ze aanvullende maatregelen opgelegd krijgen. Als een livestreamfunctie op een platform bijvoorbeeld continu wordt gebruikt voor opruiing of andere illegale inhoud, en het platform totaal niet handhaaft, dan kan van het platform worden geëist om deze dienst aan te passen. Als het betreffende platform zich daarna nog steeds niet – of niet voldoende – aan de verplichtingen uit de DSA houdt, dan kan de Europese Commissie boetes tot wel 6 procent van de totale wereldwijde jaaromzet opleggen.”

 

Placeholder-female-2x

Maaike Reinhoudt

BENEDMO Project-assistent

Profiel-pagina