DOI: 10.5553/NtER/138241202020026506005

Nederlands tijdschrift voor Europees rechtAccess_open

Digitale markten

Platformaansprakelijkheid – van ‘notice and takedown’ naar algoritmisch toezicht

Trefwoorden Digital Services Act, Platformen, Aansprakelijkheid, Filters, Algoritmen
Auteurs
DOI
Toon PDF Toon volledige grootte
Auteursinformatie Statistiek Citeerwijze Citaties (1)
Dit artikel is keer geraadpleegd.
Dit artikel is 0 keer gedownload.
Aanbevolen citeerwijze bij dit artikel
Mr. dr. S. Kulk, 'Platformaansprakelijkheid – van ‘notice and takedown’ naar algoritmisch toezicht', NtER 2020-5-6, p. 132-140

Dit artikel wordt geciteerd in

      Wat kan en moet Facebook doen om smaad en laster te stoppen? Wat kan er van YouTube verlangd worden als het gaat om onthoofdingsvideo’s? En is Twitter aansprakelijk voor haatzaaiende berichten van twittergebruikers? Deze vragen raken allemaal aan de aansprakelijkheid en verantwoordelijkheid die internetplatforms hebben voor illegale en onrechtmatige inhoud die door hun gebruikers wordt gedeeld. De Richtlijn inzake elektronische handel is vooralsnog van groot belang als het gaat om de aansprakelijkheid van platformaanbieders. Maar dat staat te veranderen. Op een aantal specifieke terreinen heeft de Europese wetgever reeds nieuwe regelgeving aangenomen die ertoe strekt dat platfor‍m­aanbieders meer moeten doen om bepaalde inhoud van hun platformen te weren. Er is bovendien een voorstel voor een ‘Digital Services Act package’ in de maak. Daarmee beoogt de Europese Commissie een nieuw kader neer te zetten voor het reguleren van digitale dienstverleners, waarin ook de aansprakelijkheid van deze dienstverleners zal worden herijkt. In deze bijdrage wordt een overzicht geboden van die ontwikkelingen en wordt in het bijzonder stilgestaan bij het gebruik van algoritmen om toezicht te houden op de online uitwisseling van informatie.1x Deze bijdrage betreft de verspreiding van illegale en onrechtmatige inhoud. Desinformatie wordt buiten beschouwing gelaten.

    • Aansprakelijkheid volgens de Richtlijn inzake elektronische handel

      De aansprakelijkheid van platformaanbieders en de verplichtingen die aan hen kunnen worden opgelegd zijn op Unieniveau vooralsnog hoofdzakelijk ingekaderd door de Richtlijn inzake elektronische handel.2x Richtlijn 2000/31/EG van het Europees Parlement en de Raad van 8 juni 2000 betreffende bepaalde juridische aspecten van de diensten van de informatiemaatschappij, met name de elektronische handel, in de interne markt (Richtlijn inzake elektronische handel), PbEG 2000, L 178/1-16. Deze richtlijn is een vroeg stukje internetregulering dat tot stand kwam in een tijd waarin het web nog in de kinderschoenen stond. Om inhoud te delen was technische kennis nodig en moest doorgaans met geld worden betaald voor hosting. Het Nederlandse web hing met ‘startpagina’s’ aan elkaar3x Zie bijv.: M. Klaver, ‘Houvast voor startende surfers’, NRC Handelsblad 10 juni 1999: ‘Uit een meting van marktonderzoekbureau Multiscope blijkt dat de portal bijna vanuit het niets is opgeklommen tot de top 10 van best bezochte sites in Nederland. 22 procent van de 2,3 miljoen Nederlandse surfers bezoekt de site minstens een keer per maand.’ en was doorzoekbaar met vroege internetzoekmachines zoals Ilse en zoek.nl.4x Zie bijv.: ‘Op zoek in Nederland’, NRC Handelsblad 3 februari 1998, p. 21. Het Europese internet werd nog niet gedomineerd door Amerikaanse techreuzen. Het is de tijd waarin Google­o‍prichters Larry Page en Sergey Brin vanuit hun garage werkten aan een krachtige zoekmachine. YouTube bestond nog niet. En Facebookoprichter Mark Zuckerberg zat nog op een Amerikaanse middelbare school. Van de inzet van algoritmen om op grote schaal inhoud te controleren was nog lang geen sprake.
      De aansprakelijkheidsbeperkingen die werden geïntroduceerd in de Richtlijn inzake elektronische handel waren toegespitst op de dienstverlening die werd verricht door internetaanbieders en traditionele hostingbedrijven. Met de richtlijn werd beoogd een helder kader neer te zetten dat de interne markt moest bevorderen. Daarnaast moest enerzijds de ontwikkeling van een nieuwe digitale infrastructuur en economie worden bevorderd. Anderzijds moest worden voorkomen dat het internet een broedplaats zou worden voor schadelijke en gevaarlijke online inhoud.
      Op grond van de Richtlijn inzake elektronische handel moeten lidstaten ervoor zorgen dat internetdienstverleners niet aansprakelijkheid gehouden kunnen worden voor de informatie die zij voor anderen opslaan of doorgeven. De aansprakelijkheidsbeperkingen in de richtlijn zijn ‘horizontaal’ van aard. Dat wil zeggen dat ze in beginsel gelden ten aanzien van de doorgifte en opslag van ieder type inhoud.5x Een uitzondering is het gegevensbeschermingsrecht. Dat is onverminderd van kracht op dienstverleners die informatie doorgeven en opslaan voor anderen. Zie overweging 14 Richtlijn inzake elektronische handel. Artikel 12 en 13 van de richtlijn beperken in het bijzonder de aansprakelijkheid van internetaanbieders en andere dienstverleners ten aanzien van de informatie die zij respectievelijk doorgeven of tijdelijk opslaan. Artikel 14 van de richtlijn heeft betrekking op informatie die wordt opgeslagen voor anderen – zogenoemde hosting. Aansprakelijkheid is dan, kortgezegd, beperkt voor zover de dienstverlener niet weet, of redelijkerwijs niet behoort te weten, van de onrechtmatige inhoud. Op het moment dat de dienstverlener kennis verkrijgt van het onrechtmatige karakter van de inhoud, dient hij de inhoud snel te verwijderen om in aanmerking te komen voor de aansprakelijkheidsbeperking voor hosting. Deze regels hebben geleid tot notice-and-takedown systemen waarmee dienstverleners op de hoogte gebracht kunnen worden van onrechtmatige of illegale inhoud (notice) en verwijderen (takedown).
      Over de toepasselijkheid van de aansprakelijkheidsbeperking voor hosting ontstond na verloop van tijd onduidelijkheid, met name door de opkomst van platformen die niet alleen informatie opslaan voor anderen, maar die informatie bijvoorbeeld ook doorzoekbaar maken en andere interessante inhoud aanbevelen.6x Zie bijv. T. Madiega, ‘Reform of the EU liability regime for online intermediaries. Background on the forthcoming digital services act’, European Parliamentary Research Service 2020, p. 5. Platformaanbieders genereren in de regel bovendien inkomsten door de verkoop van advertentieruimte rond opgeslagen en beschikbaar gestelde inhoud. Discussies over de toepasselijkheid van de aansprakelijkheidsbeperking op platformaanbieders zoals YouTube en Facebook hangen daarom vooral samen met het ‘actieve’ karakter van hun platformen en het gebrek aan ‘neutraliteit’.7x In de uitspraak in Eva Glawischnig-Piesczek/Facebook zegt het Hof van Justitie tussen neus en lippen door: ‘Om te beginnen staat vast dat Facebook Ireland “host”-diensten verricht in de zin van artikel 14 van richtlijn 2000/31’ (HvJ 3 oktober 2019, zaak C-18/18, ECLI:EU:C:2019:821, punt 22).
      De Richtlijn inzake elektronische handel heeft uitdrukkelijk ruimte gelaten voor rechterlijke bevelen aan internetdienstverleners.8x Zie ten aanzien van internetaanbieders art. 12 lid 3 Richtlijn inzake elektronische handel. Zie met betrekking tot hosting art. 14 lid 3 van de richtlijn. Zie tevens art. 18 lid 1 van de richtlijn. Van belang is dat bevelen en eventuele nadere lidstatelijke regelgeving niet mogen leiden tot een ‘algemene toezichtverplichting’ waarbij door de internetdienstverlener actief gezocht moet worden naar feiten of omstandigheden die op onrechtmatigheden duiden. Dat volgt uit artikel 15 Richtlijn inzake elektronische handel.9x Art. 15 Richtlijn inzake elektronische handel: ‘Met betrekking tot de levering van de in de artikelen 12, 13 en 14 [Richtlijn inzake elektronische handel] bedoelde diensten leggen de lidstaten de dienstverleners geen algemene verplichting op om toe te zien op de informatie die zij doorgeven of opslaan, noch om actief te zoeken naar feiten of omstandigheden die op onwettige activiteiten duiden.’ De ratio van deze bepaling is hoofdzakelijk gelegen in het voorkomen van een onredelijke belasting van internetdienstverleners, maar ook de bescherming van de vrijheid van meningsuiting speelde een rol.10x In 2003 zei de Europese Commissie over art. 15 Richtlijn inzake elektronische handel: ‘Dit is belangrijk aangezien algemeen toezicht op miljoenen sites en webpagina’s in de praktijk onmogelijk zou zijn en zou leiden tot onevenredige lasten voor tussenpersonen en tot hogere kosten voor toegang tot basisdiensten voor de gebruikers (…) In dit verband is het belangrijk erop te wijzen dat de verslagen en studies over de doelmatigheid van blokkeer- en filtertoepassingen lijken aan te tonen dat er nog geen technologie bestaat die niet te omzeilen is en die illegale en schadelijke informatie op afdoende wijze tegenhoudt of filtert zonder tegelijkertijd de legale informatie volledig tegen te houden, hetgeen zou leiden tot inbreuken op de vrijheid van meningsuiting.’ (Verslag van de Commissie aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité, Eerste verslag over de toepassing van Richtlijn 2000/31/EG van het Europees Parlement en de Raad van 8 juni 2000 betreffende bepaalde juridische aspecten van de diensten van de informatiemaatschappij, met name de elektronische handel, in de interne markt (‘Richtlijn inzake elektronische handel’), COM 2003/702 def., p. 16 en in voetnoot 73. Daarnaast voorkomt het verbod ondermijning van de aansprakelijkheidsbeperking voor hosting, omdat algemeen toezicht zou kunnen leiden tot het verkrijgen van kennis van onrechtmatige inhoud en daarmee dus het wegvallen van die aansprakelijkheidsbeperking.11x Vgl. conclusie A-G Szpunar 4 juni 2019, zaak C-18/18, ECLI:EU:C:2019:458 (Eva Glawischnig-Piesczek/Facebook), punt 36. Behalve het verbod op algemene toezichtverplichtingen is van belang dat het Hof van Justitie in diverse uitspraken steeds heeft bepaald dat, bij de invulling van aan internetdienstverleners op te leggen bevelen, er een balans gevonden moet worden tussen de relevante grondrechten, waaronder ook de grondrechten van internetgebruikers, zoals de vrijheid van meningsuiting en de rechten op privacy en gegevensbescherming.12x Zie met name HvJ 29 januari 2008, zaak C-275/06, ECLI:EU:C:2008:54, IER 2008, 44, m.nt. F.W. Grosheide (Promusicae); HvJ 19 april 2012, zaak C-461/10, ECLI:EU:C:2012:219 (Bonnier Audio); HvJ 24 november 2011, zaak C-70/10, ECLI:EU:C:2011:771, Mediaforum 2012-3, m.nt. S. Kulk en F.J. Zuiderveen Borgesius (Scarlet/Sabam); HvJ 27 maart 2014, zaak C-314/12, ECLI:EU:C:2014:192, IER 2014/15, m.nt. S. Kulk (UPC Telekabel); HvJ 15 september 2016, zaak C-484/14, ECLI:EU:C:2016:689, IER 2017/13, m.nt. J.M.B. Seignette (Mc Fadden).

    • Algoritmisch toezicht

      Notice-and-takedown is inmiddels voor de grote online platformen in de praktijk al lang niet meer het uitgangspunt.13x In 2020 ondernam Facebook bijvoorbeeld in ruim 88 procent van de gevallen van ‘hate speech’ actie voordat daarover door gebruikers werd gerapporteerd, zie: https://transparency.facebook.com/community-standards-enforcement#hate-speech. Platformaanbieders houden in toenemende mate proactief toezicht op de inhoud die door hun gebruikers gedeeld wordt. Platformaanbieders doen dat soms uit eigen beweging, bijvoorbeeld om hun gebruikers te beschermen of om regulering te voorkomen,14x Zo zetten Google en Facebook al contentidentificatietechnologieën in voordat daartoe min of meer een verplichting bestond op grond van de hierna te bespreken Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt. maar ook recente – hierna te bespreken – Uniewetgeving strekt tot proactief optreden door platformaanbieders tegen bepaalde inhoud en activiteiten.
      Om proactief toezicht te houden zetten platformaanbieders algoritmen in die het mogelijk maken om inhoud te filteren. Inhoud wordt dan vooraf beoordeeld en na een inhoudelijke controle niet online geplaatst als de verspreiding ervan – waarschijnlijk – in strijd is met het recht of de regels van het platform. De inzet van algoritmen brengt enorme efficiëntievoordelen mee en lijkt onvermijdelijk als grote hoeveelheden informatie moeten worden beoordeeld. De algoritmen maken een eerste schifting en leiden verdachte inhoud door naar een medewerker van het platform (een ‘moderator’) die een definitief oordeel velt over de inhoud. Het is ook denkbaar dat algoritmen autonoom beslissen over het weren van inhoud, zoals bijvoorbeeld reeds gebeurt met betrekking tot auteursrechtelijk beschermde werken en terroristische inhoud.15x Google heeft bijvoorbeeld voor het herkennen van beschermd materiaal ‘ContentID’ ontwikkeld. Het systeem van Facebook heet ‘Rights Manager’. Beide systemen checken geüpload materiaal tegen een database van auteursrechtelijk beschermde werken. Zie ook gifct.org/joint-tech-innovation/, waarin Facebook, Microsoft, Twitter en YouTube samenwerken om de verspreiding van terroristische inhoud te voorkomen en een ‘database of hashes’ onderhouden waarmee wordt voorkomen dat bepaalde content opnieuw op een van de platformen verschijnt.
      Problematisch aan de inzet van algoritmen is dat die het niet altijd bij het juiste eind hebben en ook onterecht inhoud als mogelijk onrechtmatig aanbrengen of zelfs automatisch verwijderen.16x Zie voor een uitgebreidere analyse van risico’s die kunnen ontstaan, in het bijzonder ten aanzien van de bestrijding van haatzaaiende inhoud: S. Kulk & T. Snijders, ‘Casestudy Contentmoderatie door online platformen’, in: S. Kulk & S. van Deursen, Juridische aspecten van algoritmen die besluiten nemen. Een verkennend onderzoek, Den Haag: WODC 2020. Omdat ze op grote schaal razendsnel beslissingen nemen, kunnen de gevolgen van die beslissingen ook op grote schaal voelbaar zijn. Het risico van een onterechte beslissing bestaat in het bijzonder als voor het beoordelen van bepaalde inhoud begrip van betekenis en context nodig is. Als gebruik wordt gemaakt van machine learning, waarbij algoritmen aan de hand van (gelabelde) data wordt aangeleerd hoe rechtmatige van onrechtmatige inhoud te onderscheiden, is het van belang dat het desbetreffende algoritme met representatieve data wordt getraind, gevalideerd, en getest. Als dat niet gebeurt, dan kan er bijvoorbeeld een risico op discriminatie ontstaan waarbij de uitingen van bepaalde groepen sneller als mogelijk onrechtmatig of illegaal worden aangemerkt dan uitingen van anderen.17x Zie daarover: T. Davidson, D. Bhattacharya & I. Weber, Racial Bias in Hate Speech and Abusive Language Detection Datasets (Proceedings of the Third Workshop on Abusive Language Online), 2019, p. 25-35; M. Sap e.a., The Risk of Racial Bias in Hate Speech Detection (Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics), 2019, p. 1668-1678; R. Binns (e.a.), ‘Like Trainer, Like Bot? Inheritance of Bias in Algorithmic Content Moderation’, in: G. Ciampaglia, A. Mashhadi & T. Yasseri (red.), Social Informatics (SocInfo 2017, Lecture Notes in Computer Science, vol. 10540), Cham (Zwitserland): Springer 2017, p. 405-415. Zie hierover uitgebreider: Kulk & Snijders 2020, p. 64.
      Of en in hoeverre algoritmen een geschikt middel zijn om online inhoud te modereren is sterk afhankelijk van de te modereren inhoud. Zo is tekst doorgaans beter te herkennen en te duiden door algoritmen dan (bewegende) beelden. Daarnaast zijn algoritmen niet in staat om uitingen te beoordelen waarvoor een (uitgebreide) analyse nodig is van de context waarin de uiting is gedaan – te denken valt aan auteursrechtsinbreuken en laster. Ook de rol die algoritmen spelen in het modereerproces is van groot belang om te beoordelen of de inzet van algoritmen geschikt is. Beslist het algoritme zelfstandig, of brengt het slechts inhoud aan die door menselijke moderators beoordeeld moet worden? Zijn menselijke moderators voldoende in staat om tot een zorgvuldige afweging te komen? En wat zijn precies de gevolgen als mogelijk onrechtmatige of illegale inhoud wordt gedetecteerd: komt de inhoud dan niet online tot een menselijke moderator een oordeel velt, wordt die inhoud tijdelijk lager gerankt, of verschijnt de inhoud gewoon (tijdelijk)? Ook de mogelijkheden om te kunnen verklaren hoe een algoritme tot een beslissing is gekomen en de mechanismen die bestaan om beslissingen te betwisten en terug te draaien spelen een rol.

    • Algoritmisch toezicht is algemeen toezicht?

      De opkomst van algoritmische toezichtverplichtingen roept vragen op over de reikwijdte van het algemene toezichtverbod in de Richtlijn inzake elektronische handel. In de overwegingen van de richtlijn valt te lezen dat ‘toezichtverplichtingen in speciale gevallen’ mogen.18x Overweging 47 Richtlijn inzake elektronische handel. Daarnaast laat de richtlijn ruimte voor zorgvuldigheidsverplichtingen die ertoe kunnen strekken dat ‘onwettige activiteiten’ worden opgespoord of voorkomen.19x Overweging 48 Richtlijn inzake elektronische handel. Maar wanneer is er sprake van een speciaal geval? Omhelst een plicht om proactief toezicht te houden op bepaalde inhoud niet altijd een vorm van verboden algemeen toezicht, omdat daarvoor altijd de uitingen van alle gebruikers van het platform gemonitord moeten worden?
      Uit het arrest Eva Glawischnig-Piesczek/Facebook volgt dat er binnen de grenzen van artikel 15 Richtlijn inzake elektronische handel best het een en ander mogelijk is met algoritmische toezichtverplichtingen.20x HvJ, Eva Glawischnig-Piesczek/Facebook. In deze zaak draaide het om een op Facebook gedeeld nieuwsbericht over een Oostenrijkse politica dat was voorzien van commentaar waarin zij werd uitgemaakt voor ‘vuile volksverraadster’, een ‘corrupte troela’ en werd verweten lid te zijn van een ‘fascistenpartij’.21x Conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 12. De Oostenrijkse rechter had vastgesteld dat het commentaar onrechtmatig was, omdat het de eer van de politica aantastte, haar beledigde en haar in opspraak kon brengen. De rechter beval Facebook daarom de verspreiding van zowel identieke als inhoudelijk overeenstemmende commentaren te stoppen.
      Was daarmee het verbod op een algemene toezichtverplichting overtreden? Volgens het Hof van Justitie is een dergelijk bevel niet in strijd met artikel 15 Richtlijn inzake elektronische handel. Zolang een verplichting specifiek is ten aanzien van de inhoud waarop toezicht gehouden moet worden, is er volgens het Hof van Justitie geen sprake van een algemene toezichtverplichting. Dat het voor dergelijke toezichtverplichtingen altijd nodig is om de uitwisseling van informatie tussen alle gebruikers te controleren, stond kennelijk niet in de weg aan het oordeel van het Hof van Justitie.
      Ook rechterlijke bevelen die strekken tot het verwijderd houden van inhoudelijk overeenstemmende informatie kunnen volgens het Hof van Justitie door de beugel. Het zou volgens het Hof van Justitie anders wel erg makkelijk zijn om een filter te omzeilen.22x HvJ, Eva Glawischnig-Piesczek/Facebook, punt 41. Tegelijkertijd volgt volgens het Hof van Justitie uit artikel 15 Richtlijn inzake elektronische handel dat een hostingprovider geen ‘excessieve verplichting’ opgelegd mag krijgen.23x HvJ, Eva Glawischnig-Piesczek/Facebook, punt 44. Een bevel om inhoudelijk overeenstemmende informatie te filteren dient daarom door de rechter te worden ingekaderd. Dat bevel moet volgens het Hof van Justitie bevatten: ‘de naam van de persoon op wie de eerder vastgestelde inbreuk betrekking had, de omstandigheden waarin deze inbreuk is vastgesteld en een inhoud die overeenstemt met de eerder onwettig verklaarde inhoud’.24x HvJ, Eva Glawischnig-Piesczek/Facebook, punt 45. Daarmee lijkt het erop dat rechters moeten aangeven wat in een concreet geval wordt verstaan onder inhoudelijk overeenstemmende inhoud. Volgens het Hof van Justitie zou het dan mogelijk moeten zijn om met ‘geautomatiseerde technieken en onderzoeksmethoden’, en zonder dat een autonome beoordeling nodig is van de inhoud, aan de verplichting te voldoen.25x HvJ, Eva Glawischnig-Piesczek/Facebook, punt 46. In wezen vertrouwt het Hof van Justitie er daarmee op dat algoritmen niet alleen kunnen worden ingezet om identieke inhoud te filteren, maar ook inhoud die daarop lijkt, mits goed ‘voorgeprogrammeerd’ door de nationale rechter.26x Zie voor een voorbeeld uit de Nederlandse rechtspraktijk: Rb. Amsterdam (vzr.) 11 november 2019, ECLI:NL:RBAMS:2019:8415, Mediaforum 2020/3, m.nt. O.G. Trojan (John de Mol/Facebook), r.o. 4.18. De vraag is wat mij betreft evenwel of in deze uitspraak voldoende scherpe kaders zijn gesteld door de voorzieningenrechter. Zie ook Rb. Amsterdam (vzr.) 15 mei 2020, ECLI:NL:RBAMS:2020:6202, Mediaforum 2020/3, m.nt. O.G. Trojan (Presentator EenVandaag/Facebook).
      Het is opvallend dat het Hof van Justitie in deze uitspraak met geen woord rept over de grondrechten die in het gedrang kunnen komen als platformaanbieders uitingen van hun gebruikers moeten onderzoeken.27x Vgl. Scarlet/Sabam, punt 41. De inzet van geautomatiseerde middelen kan leiden tot het onterecht verwijderen van inhoud door platformen en zo raken aan de vrijheid van meningsuiting van platformgebruikers.28x Zie over het gevaar van het onterecht blokkeren tot toegang tot informatie: UPC/Telekabel, punt 56; Mc Fadden, punt 94. Zie ook conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 74. Toezichtverplichtingen kunnen daarnaast raken aan de grondrechten op privacy en gegevensbescherming van de gebruikers van het platform. Bovendien geldt dat voor het vinden van overeenstemmende inhoud doorgaans geavanceerdere en kostbaardere technologie nodig is, waardoor ook de vrijheid van ondernemerschap van met name kleinere platformen aan de orde is.29x Zie ook: conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 73. Wellicht ligt het volgens het Hof van Justitie voor de hand dat de grondrechtenbalans moet uitslaan in het voordeel van slachtoffers van lasterlijke uitingen. Mogelijk heeft het Hof van Justitie daarnaast uiting willen geven aan de vrijheid van meningsuiting van internetgebruikers en de vrijheid van ondernemerschap van de platformaanbieder door te eisen dat in het rechterlijk bevel wordt bepaald wat als overeenstemmende inhoud heeft te gelden.30x Vgl. met betrekking tot de vrijheid van ondernemerschap van met name kleinere platformaanbieders: conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 73.
      Wat verder ook van deze uitspraak zij, vast staat dat het, ook onder het huidige regime van de Richtlijn inzake elektronische handel, mogelijk is om op grond van een gerechtelijk bevel, platformaanbieders ertoe te bewegen met behulp van algoritmen op bepaalde inhoud te filte­r‍en.

    • Sectorspecifieke wetgeving

      Ook in relatief recente Uniewetgeving wordt proactief optreden steeds meer het uitgangspunt. Cruciaal verschil is dat het daarbij steeds gaat om inhoud waarvan niet reeds door de rechter is vastgesteld dat die onrechtmatig is, maar dat van platformaanbieders wordt verlangd dat zij zelf op zoek gaan naar bepaalde inhoud en die filteren of verwijderen. In deze wetgeving wordt handen en voeten gegeven aan wat er precies verwacht wordt van platformaanbieders en welke waarborgen moeten worden geboden om recht te doen aan de (fundamentele) rechten en belangen die dan op het spel staan.

    • Auteursrecht

      In het voorjaar van 2019 is de Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt aangenomen.31x Richtlijn (EU) 2019/790 van het Europees Parlement en de Raad inzake auteursrechten en naburige rechten in de digitale eengemaakte markt en tot wijziging van Richtlijnen 96/9/EG en 2001/29/EG, PbEU 2019, L 130/92. De richtlijn is ontsproten uit de Digital Single Market-strategie van de Europese Commissie en beoogt het auteursrecht te moderniseren en toekomstbestendig te maken. Met artikel 17 van de richtlijn wordt in het bijzonder een poging gedaan om de inkomsten die platformaanbieders genereren met op hun platforms gedeelde inhoud, op een rechtvaardigere wijze te delen met rechthebbenden.32x Zie uitgebreider over art. 17 van de richtlijn: J.G. Reus, ‘De “filterverplichting” uit de nieuwe Auteursrechtrichtlijn’, NtEr 2019/9-10, p. 257. Zie ook: S. Kulk, Internet Intermediaries and Copyright Law, Alphen aan den Rijn: Kluwer Law International 2019, p. 132.
      Op grond van artikel 17 van de richtlijn maakt een platformaanbieder zelf het werk openbaar dat door gebruikers van het platform wordt gedeeld. Platfor‍m­aanbieders zullen daarom toestemming moeten vragen aan rechthebbenden (lees: licenties verkrijgen) om het werk openbaar te maken. Voor ongeautoriseerd materiaal dat wordt gedeeld zijn platformaanbieders aansprakelijk, tenzij zij zich kunnen beroepen op een aansprakelijkheidsbeperking die door lidstaten langs de lijnen van artikel 17 lid 4 vormgegeven zal moeten worden. Een platformaanbieder zou niet aansprakelijk moeten zijn als hij: (1) alles in het werk heeft gesteld om toestemming te krijgen voor gebruik van het werk, (2) overeenkomstig strenge sectorale normen op het gebied van professionele toewijding, alles in het werk heeft gesteld om ervoor te zorgen dat bepaalde werken en andere materialen waarvoor de rechthebbenden hem de nodige toepasselijke informatie hebben verstrekt, niet beschikbaar zijn, en in ieder geval, (3) na ontvangst van een voldoende onderbouwde melding van de rechthebbende, prompt heeft opgetreden om de toegang tot de werken en andere materialen in kwestie te deactiveren of deze van zijn website te verwijderen, en alles in het werk heeft gesteld om toekomstige uploads ervan te voorkomen.
      Uit punt 2 volgt dat, om niet aansprakelijk gehouden te worden, platformaanbieders moeten voorkomen dat beschermde materialen beschikbaar worden gesteld op het platform, voor zover zij informatie hebben ontvangen van rechthebbenden om die materialen te kunnen herkennen. En uit punt 3 volgt dat ongeautoriseerd materiaal waarvan de platformaanbieder op de hoogte is gebracht, moet worden verwijderd en dat een serieuze poging gedaan moet worden om toekomstige uploads ervan te voorkomen. Er wordt niet nadrukkelijk van de inzet van (een bepaalde) technologie gesproken om aan deze voorwaarden voor vrijwaring te voldoen. Maar het is moeilijk zich voor te stellen hoe platfor‍m­aanbieders aan deze voorwaarden kunnen voldoen zonder de inzet van contentherkenningsalgoritmen.33x Zie ook: M. Senftleben, ‘Bermuda Triangle – Licensing, Filtering and Pri‍vil­eging User-Generated Content Under the New Directive on Copyright in the Digital Single Market’, https://ssrn.com/abstract=3367219, p. 5. Bovendien maken YouTube en Facebook reeds gebruik van dergelijke zelfontwikkelde algoritmen waarmee uploads van gebruikers gecheckt kunnen worden tegen een database van beschermde werken. De inzet van deze technologieën is dus op de grote platformen al de facto de standaard.
      Met artikel 17 Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt is in wezen een uitzondering op het aansprakelijkheidsregime van artikel 14 de Richtlijn inzake elektronische handel gecreëerd. Een nieuw en specifiek regime dat alleen geldt voor auteursrechtelijk beschermd materiaal dat wordt gedeeld op online platformen.34x Art. 17 Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt is strikt genomen van toepassing op aanbieders ‘van een onlinedienst voor het delen van content’. Zie art. 2 lid 6 Auteursrechtrichtlijn voor een definitie van dat begrip. Er is in de nieuwe regelgeving nadrukkelijker aandacht voor de (grondrechtelijke) belangen die op het spel staan als platformaanbieders filteren. Zo wordt in de richtlijn bijvoorbeeld gewezen op de vrijheid van meningsuiting van platformgebruikers.35x Overweging 70 Auteursrechtrichtlijn. Ook valt het volgende in artikel 17 te lezen: ‘de toepassing van dit artikel leidt niet tot een algemene toezichtverplichting’.36x Daarmee lijkt het verbod op een algemene toezichtverplichting te worden herhaald. Deze zinsnede zou ook gelezen kunnen worden als de bevestiging dat contentidentificatiealgoritmen zonder problemen kunnen worden ingezet om vooraf bepaalde beschermde werken te filteren. Overweging 66 Auteursrechtrichtlijn lijkt echter aan een dergelijke interpretatie in de weg te staan: ‘De bij deze richtlijn ingestelde verplichtingen mogen er evenmin toe leiden dat de lidstaten een algemene toezichtsverplichting opleggen’ [cursivering toegevoegd]. Het blijft evenwel de vraag of de Uniewetgever met deze bepaling heeft bedoeld het uitgangspunt in art. 15 Richtlijn inzake elektronische handel slechts te herhalen of dat er sprake is van een lex specialis waaraan een auteursrechtelijk-specifieke uitleg kan worden gegeven. Desalniettemin biedt de richtlijn nauwelijks concrete beschermingsmechanismen die bijvoorbeeld kunnen helpen voorkomen dat de inzet van algoritmen leidt tot onterechte verwijdering van video’s die parodiëren of citeren.37x Zie in dat verband ook de zaak die Polen heeft aangespannen bij het Hof van Justitie om Artikel 14 lid 4 onder b en c te vernietigen (zaak C-401/19).
      Het wetsvoorstel ter implementatie van de richtlijn is in mei van dit jaar door de minister aan de Tweede Kamer aangeboden.38x Kamerstukken II 2019/20, 35454, nr. 1. De Europese Commissie werkt ondertussen aan richtsnoeren die nadere invulling moeten geven aan de regels in de richtlijn, waarbij ook de grondrechten van de verschillende partijen in acht genomen moeten worden.39x Art. 17 lid 10 Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt. Bij het formuleren van die richtsnoeren wordt sterk geleund op de input die is verzameld tijdens diverse stakeholder dialogues en een targeted consultation.40x Zie daarover: https://ec.europa.eu/digital-single-market/en/stake​holder-dialogue-application-article-17-directive-copyright-digital-single-market. Uit het document dat ter consultatie is gelegd aan belanghebbenden lijkt te volgen dat de Europese Commissie ervan doordrongen is dat concrete maatregelen om de vrijheid van meningsuiting te beschermen noodzakelijk zijn. Bijvoorbeeld door gebruikers de mogelijkheid te geven om protest aan te tekenen als een algoritme een ‘match’ vindt, waarna de inhoud door een menselijke moderator moet worden beoordeeld, zonder dat die inhoud eerst verwijderd wordt.41x Zie daarover het document dat beschikbaar is gesteld via: https://ec.europa.eu/digital-single-market/en/news/directive-copyright-digital-single-market-commission-seeks-views-participants-stakeholder. https://ec.europa.eu/eusurvey/runner/4fd43123-6008-a214-f572-4ecd331b9e0e.

    • Mediarecht

      Ook in het mediarecht heeft de Uniewetgever zich de afgelopen jaren geroerd. Met de in 2018 gewijzigde Richtlijn audiovisuele mediadiensten42x Richtlijn 2010/13/EU van het Europees Parlement en de Raad van 10 maart 2010 betreffende de coördinatie van bepaalde wettelijke en bestuursrechtelijke bepalingen in de lidstaten inzake het aanbieden van audiovisuele mediadiensten (Richtlijn audiovisuele mediadiensten), PbEU 2010, L 95/1. Deze richtlijn is in 2018 gewijzigd door Richtlijn (EU) 2018/1808 van het Europees Parlement en de Raad van 14 november 2018 tot wijziging van Richtlijn 2010/13/EU betreffende de coördinatie van bepaalde wettelijke en bestuursrechtelijke bepalingen in de lidstaten inzake het aanbieden van audiovisuele mediadiensten (Richtlijn audiovisuele mediadiensten) in het licht van een veranderende marktsituatie, PbEU 2018, L 303/69. is het traditionele onderscheid tussen enerzijds audiovisuele mediadiensten, die door de Richtlijn audiovisuele mediadiensten gereguleerd worden, en anderzijds diensten van de informatiemaatschappij, die worden beheerst door de Richtlijn inzake elektronische handel, effectief opgeheven.43x A. Strijbos & D. Verhulst, ‘Videoplatformdiensten in de herziene Richtlijn audiovisuele mediadiensten’, Mediaforum 2019-2, p. 43. Zie over die richtlijn ook: E.W. Jurjens, ‘De definitieve nieuwe Richtlijn Audiovisuele Mediadiensten: een eerste analyse’, NtEr 2019/1-2. Als gevolg van de richtlijn hebben ook videoplatformaanbieders zich in de toekomst aan enkele specifiek op hen van toepassing zijnde mediarechtelijke normen te houden.
      In artikel 28ter Richtlijn audiovisuele mediadiensten is opgenomen dat lidstaten ervoor moeten zorgen dat videoplatformaanbieders ‘passende maatregelen’ nemen om minderjarigen te beschermen tegen schadelijke inhoud.44x Art. 28ter lid 1 onder a Richtlijn audiovisuele mediadiensten. Daarbij kan worden gedacht aan leeftijdcontroles om te voorkomen dat kinderen in aanraking komen met schadelijke inhoud.45x Art. 28ter lid 3 onder d Richtlijn audiovisuele mediadiensten. Aanbieders dienen ook het algemene publiek te beschermen tegen inhoud die aanzet tot haat of geweld op grond van beschermde categorieën en inhoud waarvan de verspreiding krachtens Unierecht strafbaar is.46x Art. 28ter lid 1 onder b en c Richtlijn audiovisuele mediadiensten.
      De te nemen maatregelen dienen te worden bepaald aan de hand van ‘de aard van de desbetreffende inhoud, de schade die deze inhoud kan berokkenen, de kenmerken van de te beschermen categorie personen alsmede de in het geding zijnde rechten en gerechtvaardigde belangen, waaronder die van de aanbieders van videoplatforms en de gebruikers die de inhoud hebben gecreëerd of geü‍pload, alsmede het algemeen belang’.47x Art. 28ter lid 3 Richtlijn audiovisuele mediadiensten. De maatregelen moeten bovendien ‘uitvoerbaar en proportioneel’ zijn.48x Art. 28ter lid 3 Richtlijn audiovisuele mediadiensten. In de kern gaat het daarbij om een belangenafweging waarin bijvoorbeeld van grotere videoplatformaanbieders meer verwacht kan worden dan van kleinere aanbieders.49x M. de Cock Buning, ‘Social Media Influencers: liever door de hond of door de kat gebeten? Een analyse van de nieuwe Europese regelgeving voor influencer-marketing’, IER 2019-5, p. 23.
      Als het gaat om te nemen maatregelen, dan spreekt de richtlijn in het bijzonder van het instellen van ‘transparante en gebruiksvriendelijke mechanismen’ om inhoud die bijvoorbeeld aanzet tot haat of geweld te rapporteren. Veel videoplatformaanbieders zullen, gelet op het aansprakelijkheidsregime in de Richtlijn inzake elektronische handel, reeds dergelijke mechanismen hebben ingesteld. De richtlijn vergt van videoplatfor‍m­aanbieders in die zin weinig nieuws. Wel nieuw, en van belang, is dat de richtlijn het gebruik van die systemen probeert in te kaderen ten gunste van platformgebruikers. Zo moeten videoplatformaanbieders kunnen uitleggen wat er met meldingen wordt gedaan.50x Art. 28ter lid 3 onder e Richtlijn audiovisuele mediadiensten. Daarnaast moeten aanbieders transparante, makkelijk te gebruiken en doeltreffende procedures inrichten om klachten af te handelen.51x Art. 28ter lid 3 onder i Richtlijn audiovisuele mediadiensten.
      Het is aan de videoplatformaanbieders om deze maatregelen te treffen. Opvallend is dat de richtlijn niet vereist dat er toezicht gehouden zal worden op de naleving van maatregelen en de mate waarin belangen en rechten van gebruikers daadwerkelijk geborgd zijn.52x Zie daarover ook kritisch: Strijbos & Verhulst 2019, p. 46; De Cock Buning 2019, p. 23. De nationale mediatoezichthouder van het land waarin de aanbieder gevestigd is, dient namelijk slechts de geschiktheid van de door aanbieders genomen maatregelen te beoordelen.53x Art. 28ter lid 5 Richtlijn audiovisuele mediadiensten. Wel dienen lidstaten te waarborgen dat er mechanismen beschikbaar zijn voor buitengerechtelijke geschilbeslechting tussen gebruikers en aanbieders van videoplatformen.54x Art. 28ter lid 7 Richtlijn audiovisuele mediadiensten. Het is daarmee dus aan gebruikers van videoplatformen om de aanbieders verantwoordelijk te houden voor hun modereerbeleid.
      In tegenstelling tot de hiervoor besproken Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt, waarin uitdrukkelijk wordt afgeweken van de aansprakelijkheidsbeperkingen in de Richtlijn inzake elektronische handel, is met de aanpassing van de Richtlijn audiovisuele mediadiensten niet beoogd om af te wijken van het uitgangspunt van niet-aansprakelijkheid en het verbod op algemene toezichtverplichtingen.55x Zie art. 28ter lid 1 Richtlijn audiovisuele mediadiensten. De Richtlijn audiovisuele mediadiensten lijkt in beginsel slechts te verplichten tot notice-and-takedown. In de richtlijn is bovendien opgenomen dat de te nemen maatregelen niet mogen leiden tot ‘controlemaatregelen vooraf of filtering bij het uploaden van inhoud’ die niet voldoen aan artikel 15 Richtlijn inzake elektronische handel. Desalniettemin laat de Richtlijn audiovisuele mediadiensten ook ruimte aan lidstaten om maatregelen op te leggen aan videoplatformaanbieders die strenger zijn.56x Art. 28ter lid 6 Richtlijn audiovisuele mediadiensten. Zie ook art. 4bis Richtlijn audiovisuele mediadiensten. Met het oog op de uitleg die het Hof van Justitie gaf aan het verbod op algemeen toezicht in Glawischnig-Piesczek/Facebook, is het voorstelbaar dat ook van videoplatformaanbieders kan worden verlangd dat zij met de hulp van algoritmen voorkomen dat eerder verwijderde inhoud verwijderd blijft of dat zij proactief filteren. In Nederland zou laatstgenoemde verplichting hoogstwaarschijnlijk afstuiten op artikel 7 Grondwet, omdat daarmee in wezen een situatie zou ontstaan waarin platformen, van overheidswege, voorafgaand verlof eisen voor het online delen van video’s wegens hun inhoud.57x Zie daarover: Kamerstukken II 2019/20, 35361, nr. 3 (MvT), p. 4 en 20.
      De Richtlijn audiovisuele mediadiensten is in Nederland recentelijk geïmplementeerd door wijziging van de Mediawet.58x Wet van 30 september 2020, houdende wijzing van de Mediawet 2008 in verband met de implementatie van Richtlijn 2018/1808 van het Europees Parlement en de Raad van 14 november 2018 tot wijziging van Richtlijn 2010/13/EU betreffende de coördinatie van bepaalde wettelijke en bestuursrechtelijke bepalingen in de lidstaten inzake het aanbieden van audiovisuele mediadiensten (richtlijn audiovisuele mediadiensten) in het licht van een veranderende marktsituatie (Stb. 2020, 391). Van de mogelijkheid om strengere regels te hanteren wordt in Nederland vooralsnog geen gebruik gemaakt. Met de wet is gekozen voor een vorm van co-regulering: de Mediawet schrijft voor dat aanbieders een gedragscode hebben waarin uiting wordt gegeven aan de maatregelen zoals voorgeschreven door de richtlijn.59x Art. 3.a.3 lid 1 Mediawet. Co-regulering wordt aangemoedigd in art. 38ter lid 4 Richtlijn audiovisuele mediadiensten. De verplichting om een transparant en met waarborgen omkleed systeem in te voeren zal dus ook langs die weg bewerkstelligd worden. In dat verband vereist de Mediawet dat gedragscodes worden vergezeld van ‘regelmatige, transparante en onafhankelijke toezicht- en evaluatiemaatregelen’ en ‘doeltreffende handhaving’.60x Art. 3a3 lid 3 Mediawet. Zie over het gebruik van gedragscodes ook art. 4bis Richtlijn audiovisuele mediadiensten. Het Commissariaat voor de Media zal er bovendien op moeten toezien dat maatregelen, waaronder ook de te creëren waarborgen voor platformgebruikers, in lijn met de richtlijn worden gerealiseerd en toegepast.61x Kamerstukken II 2019/20, 35361, nr. 3 (MvT), p. 21. Dat toezicht zal verlopen via de band van art. 7.11 Mediawet. Daarmee zal het Commissariaat voor de Media er onder meer op moeten toezien dat er door videoplatformaanbieders transparante, gemakkelijk te gebruiken en doeltreffende procedures zijn voor klachtafhandeling, en dat verwijdersystemen door deze aanbieders zo worden ingericht dat aan platformgebruikers wordt uitgelegd wat er met verwijderverzoeken wordt gedaan.

    • Terroristische inhoud

      Ook in de strijd tegen terrorisme zal er waarschijnlijk meer worden verwacht van platformaanbieders. In 2018 presenteerde de Europese Commissie een voorstel voor een Verordening ter voorkoming van de verspreiding van terroristische inhoud. In het voorstel zijn bepalingen opgenomen die ertoe strekken dat platformaanbieders proactief optreden om, ‘onder meer met behulp van automatische instrumenten’, te voorkomen dat terroristische inhoud die eerder is verwijderd opnieuw geü‍pload wordt en om terroristische inhoud op te sporen, te identificeren en de toegang ertoe onmogelijk te maken.62x Zie art. 6 Voorstel voor een Verordening van het Europees Parlement en de Raad ter voorkoming van de verspreiding van terroristische online-inhoud, COM 2018/640. Het voorstel kon onder meer vanwege de proactieve maatregelen en de inzet van detectiealgoritmen rekenen op veel kritiek, onder andere van het Bureau van de Europese Unie voor de grondrechten63x FRA, Proposal for a Regulation on preventing the dissemination of terrorist content online and its fundamental rights implications Opinion of the European Union Agency for Fundamental Rights, FRA Opinion – 2/2019, p. 38. en de Europese Toezichthouder voor gegevensbescherming.64x Formal comments of the EDPS on the Proposal for a Regulation of the European Parliament and of the Council on preventing the dissemina­ti‍on of terrorist content online, 13 februari 2019, p 7. Het Europees Parlement heeft in april 2019 in eerste lezing nadrukkelijk afstand genomen van het proactieve karakter van het toezicht door platformaanbieders en het gebruik van ‘automatische instrumenten’.65x Wetgevingsresolutie van het Europees Parlement van 17 april 2019 over het voorstel voor een verordening van het Europees Parlement en de Raad ter voorkoming van de verspreiding van terroristische online-inhoud, COM 2018/0640 – C8-0405/201. Het is nu wachten op de uitkomst van de trialoog tussen Parlement, Raad en Commissie en een eventueel interinstitutioneel akkoord tussen het Parlement en de Raad. De Raad heeft onlangs, in het licht van de terroristische aanslagen in onder andere Parijs en Wenen, aangekondigd werk te willen maken van de onderhandelingen om zo voor het einde van het jaar tot overeenstemming te kunnen komen.66x Raad van de EU, Gezamenlijke verklaring van de EU-ministers van Binnenlandse Zaken over de recente terroristische aanslagen in Europa, 13 november 2020.

    • De Digital Services Act

      De hierboven besproken aanscherpingen van de regels over de aansprakelijkheid en verantwoordelijkheid van online platformen gelden in specifieke sectoren ten aanzien van specifieke typen inhoud. De Europese Commissie werkt zoals gezegd ook aan een voorstel voor een ‘Digital Services Act’ – een ambitieus wetgevingsproject waarmee de regulering van online dienstverlening door de Richtlijn inzake elektronische handel naar een hoger plan moet worden getrokken.67x U. von der Leyen, ‘A Union that strives for more. My agenda for Europe. Political guidelines for the next European Commission 2019-2024’, 9 oktober 2019, p. 13. Zie ook werkprogramma van de Europese Commissie 2020, COM 2020/37. Een voorstel wordt in december 2020 verwacht. De Digital Services Act zal bestaande regels moeten updaten en verduidelijken, en leiden tot verdergaande harmonisatie om te voorkomen dat het juridische kader verder gefragmenteerd raakt.
      Ook het horizontale aansprakelijkheidsregime voor online dienstverleners zal met de Digital Services Act worden geüpdatet. Het initiatief bouwt voort op een eerdere mededeling en aanbeveling van de Commissie over de ‘bestrijding van illegale online-inhoud’.68x Mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s, ‘De bestrijding van illegale online-inhoud. Naar een grotere verantwoordelijkheid voor onlineplatforms’, COM 2017/555; Commission Recommendation on measures to effectively tackle illegal content online, COM 2018/1177. Zie over beide documenten: A. van der Beek, L. Oranje & J.R. Spauwen, ‘Europese Commissie: “Online platforms moeten meer verantwoordelijkheid nemen bij het bestrijden van online illegale content”’, NtEr 2018/5-6, p. 191. In de aanbeveling worden platformaanbieders aangespoord proactief op te treden tegen onrechtmatige en illegale inhoud. Er is in de aanbeveling ook aandacht voor de risico’s van de inzet van algoritmen voor de vrijheid van meningsuiting. Er moet bijvoorbeeld worden gewaarborgd dat geautomatiseerde beslissingen op juiste gronden worden genomen.69x COM 2018/1177, punt 17. Ook zou er een vorm van menselijk toezicht op die besluitvorming moeten zijn.70x COM 2018/1177, punt 20.
      Hoewel de aanbeveling waardevolle richtsnoeren bevat, is het de vraag in hoeverre platformaanbieders zich daadwerkelijk geroepen voelen de aanbeveling op te volgen. Nadere regulering, door middel van een Digital Services Act, ligt daarom voor de hand. De Europese Commissie heeft in haar voorbereidende werk voor de Digital Services Act nadrukkelijk ook de bescherming van grondrechten van gebruikers – in het bijzonder de vrijheid van meningsuiting – van internetgebruikers voor ogen.71x Europese Commissie, Inception impact assessment, Ares(2020)​2877686, p. 4. Volgens de Europese Commissie nemen platformaanbieders beslissingen over inhoud, zonder dat daarover voldoende verantwoording wordt afgelegd. Ook ontbreekt het aan mechanismen om verantwoording af te leggen over de inzet van algoritmen bij het modereren van inhoud.
      Het Europees Parlement heeft inmiddels een resolutie met aanbevelingen voor de Europese Commissie aangenomen. Daarin wordt het belang van de aanpak van illegale inhoud en een duidelijker Unierechtelijk kader onderstreept.72x Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende de wet inzake digitale diensten: de werking van de eengemaakte markt verbeteren, 2020/2018(INL), punt 46. Opvallend in de resolutie is de vaststelling dat ‘instrumenten voor geautomatiseerde conten‍t­moderatie niet in staat zijn de subtiliteit van context en betekenis in menselijke communicatie doeltreffend te begrijpen’ en dat het gebruik van die instrumenten daarom niet opgelegd zou moeten kunnen worden.73x Resolutie, punt 45 e.v. Daarmee bedoelt het Parlement vermoedelijk de volledige automatisering van contentmoderatie waar geen menselijke moderator meer aan te pas komt. Het Parlement staat in de resolutie ook pal voor het verbod op een algemene toezichtverplichting. Dat verbod zou niet verzwakt mogen worden.74x Resolutie, punt 57. Daarnaast stelt het Parlement dat voorkomen moet worden dat dienstverleners ‘alle inhoud en activiteiten actief moeten opsporen, modereren of filteren, noch de jure, noch de facto’.75x Resolutie, punt 49.
      Het Parlement komt in de resolutie ook met gedetailleerde aanbevelingen voor een notice and action systeem, waarin bijvoorbeeld eisen worden gesteld aan de inhoud en afhandeling van een melding van illegale of onrechtmatige inhoud.76x Bijlage bij de resolutie, onder V. Platformaanbieders zouden ook verslagen moeten publiceren waarin zij verantwoording afleggen over hoe zij inhoud modereren. Daarin moet onder andere vermeld worden hoe vaak er onterecht is verwijderd, hoe vaak beslissingen van het platform zijn aangevochten en hoe daarmee is omgegaan. Die verslagen moeten ook bevatten: ‘een beschrijving van het model voor inhoudsmoderatie dat wordt gehanteerd door de tussenpersoon die hostingdiensten aanbiedt, alsook van eventuele geautomatiseerde instrumenten, met inbegrip van nuttige informatie over de onderliggende logica’. Daarmee lijkt het Parlement een informatieverplichting in de Algemene verordening gegevensbescherming (AVG) die geldt ten aanzien van geautomatiseerde besluitvorming op grond van persoonsgegevens door te willen trekken naar het domein van de algoritmische contentmoderatie.77x Zie art. 13 lid 2 onder f, art. 14 lid 2 onder g en art. 15 lid 1 onder h AVG.
      Met name de algemene transparantieverplichtingen kunnen bijdragen aan het blootleggen van het risico dat een bepaalde vorm van algoritmische moderatie systematisch faalt. Om die risico’s nog beter te kunnen blootleggen, zou het wat mij betreft goed zijn als platfor‍m­aanbieders niet alleen in algemene zin rapporteren over beslissingen, maar die beslissingen ook als gestructureerde data aan een selecte groep onderzoekers of een toezichthouder aanbieden. Dan kan op onafhankelijke wijze en op gezette tijden met algoritmen worden onderzocht of de door platformaanbieders ingezette technologie naar behoren functioneert.

    • Conclusie

      Het is nu twintig jaar geleden dat de Richtlijn inzake elektronische handel en het daarin neergelegde aansprakelijkheidsregime voor internetdienstverleners van kracht werd. De aansprakelijkheidsbeperkingen hebben er waarschijnlijk mede voor gezorgd dat het internet en het web tot bloei zijn gekomen en dat er inmiddels grote platformen zijn ontstaan waarop onmetelijke hoeveelheden informatie worden gedeeld. Tegelijkertijd bestaan er ook zorgen over de positie die deze platformen hebben ingenomen in de waardeketen en de mogelijkheden die ze bieden om onrechtmatige en illegale inhoud te verspreiden. Anders dan twintig jaar geleden is het vandaag de dag ook mogelijk om met hulp van algoritmen proactief toezicht te houden op de inhoud die internetgebruikers met elkaar delen. Hoewel de inzet van dergelijke technologieën risico’s met zich meebrengt voor de vrijheid van meningsuiting en non-discriminatie, wordt door rechters en wetgevers in toenemende mate van (grote) platformaanbieders verlangd dat ze die technologieën inzetten om de verspreiding van onrechtmatige en illegale inhoud te voorkomen.
      Met de Europese wetgeving die de afgelopen jaren is aangenomen op het gebied van het auteursrecht en het mediarecht, en mogelijk in de toekomst ook ten aanzien van terroristische inhoud, zijn er in afgescheiden sectoren specifieke normen ten aanzien van de aansprakelijkheid en verantwoordelijkheden van platformaanbieders ontstaan. Daarmee neemt de Europese Unie, bij het inregelen van de verantwoordelijkheden van platformen, de teugels strakker in de handen. De normen die zijn neergelegd in de nieuwe Uniewetgeving op het gebied van auteursrecht en het mediarecht moeten nog worden geïmplementeerd, maar zijn los daarvan, met name ten aanzien van de waarborgen ter bescherming van platformgebruikers, voor een belangrijk deel afhankelijk van nadere invulling door codes en richtsnoeren. Dat laatste creëert voor zowel de Europese Commissie als de lidstaten een belangrijke verantwoordelijkheid om de (fundamentele) rechten en belangen van internetgebruikers met materiële en procedurele waarborgen te omkleden, in het bijzonder als algoritmen worden ingezet om inhoud te modereren.
      De Digital Service Act, waarmee het aansprakelijkheidsregime in de Richtlijn inzake elektronische handel wordt geüpdatet en aangescherpt, is waarschijnlijk de volgende stap in de Europeanisering van het aansprakelijkheidsregime en de regels met betrekking tot het modereren van online inhoud. De Europese wetgever lijkt zich terdege bewust van de gevaren van de inzet van algoritmische contentmoderatie voor met name de vrijheid van meningsuiting en de noodzaak om waarborgen in te bouwen. Hoe de Europese Commissie daaraan concreet handen en voeten geeft in het voorstel voor de Digital Services Act zal de komende maanden ongetwijfeld voer voor discussie zijn.

    Noten

    • 1 Deze bijdrage betreft de verspreiding van illegale en onrechtmatige inhoud. Desinformatie wordt buiten beschouwing gelaten.

    • 2 Richtlijn 2000/31/EG van het Europees Parlement en de Raad van 8 juni 2000 betreffende bepaalde juridische aspecten van de diensten van de informatiemaatschappij, met name de elektronische handel, in de interne markt (Richtlijn inzake elektronische handel), PbEG 2000, L 178/1-16.

    • 3 Zie bijv.: M. Klaver, ‘Houvast voor startende surfers’, NRC Handelsblad 10 juni 1999: ‘Uit een meting van marktonderzoekbureau Multiscope blijkt dat de portal bijna vanuit het niets is opgeklommen tot de top 10 van best bezochte sites in Nederland. 22 procent van de 2,3 miljoen Nederlandse surfers bezoekt de site minstens een keer per maand.’

    • 4 Zie bijv.: ‘Op zoek in Nederland’, NRC Handelsblad 3 februari 1998, p. 21.

    • 5 Een uitzondering is het gegevensbeschermingsrecht. Dat is onverminderd van kracht op dienstverleners die informatie doorgeven en opslaan voor anderen. Zie overweging 14 Richtlijn inzake elektronische handel.

    • 6 Zie bijv. T. Madiega, ‘Reform of the EU liability regime for online intermediaries. Background on the forthcoming digital services act’, European Parliamentary Research Service 2020, p. 5.

    • 7 In de uitspraak in Eva Glawischnig-Piesczek/Facebook zegt het Hof van Justitie tussen neus en lippen door: ‘Om te beginnen staat vast dat Facebook Ireland “host”-diensten verricht in de zin van artikel 14 van richtlijn 2000/31’ (HvJ 3 oktober 2019, zaak C-18/18, ECLI:EU:C:2019:821, punt 22).

    • 8 Zie ten aanzien van internetaanbieders art. 12 lid 3 Richtlijn inzake elektronische handel. Zie met betrekking tot hosting art. 14 lid 3 van de richtlijn. Zie tevens art. 18 lid 1 van de richtlijn.

    • 9 Art. 15 Richtlijn inzake elektronische handel: ‘Met betrekking tot de levering van de in de artikelen 12, 13 en 14 [Richtlijn inzake elektronische handel] bedoelde diensten leggen de lidstaten de dienstverleners geen algemene verplichting op om toe te zien op de informatie die zij doorgeven of opslaan, noch om actief te zoeken naar feiten of omstandigheden die op onwettige activiteiten duiden.’

    • 10 In 2003 zei de Europese Commissie over art. 15 Richtlijn inzake elektronische handel: ‘Dit is belangrijk aangezien algemeen toezicht op miljoenen sites en webpagina’s in de praktijk onmogelijk zou zijn en zou leiden tot onevenredige lasten voor tussenpersonen en tot hogere kosten voor toegang tot basisdiensten voor de gebruikers (…) In dit verband is het belangrijk erop te wijzen dat de verslagen en studies over de doelmatigheid van blokkeer- en filtertoepassingen lijken aan te tonen dat er nog geen technologie bestaat die niet te omzeilen is en die illegale en schadelijke informatie op afdoende wijze tegenhoudt of filtert zonder tegelijkertijd de legale informatie volledig tegen te houden, hetgeen zou leiden tot inbreuken op de vrijheid van meningsuiting.’ (Verslag van de Commissie aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité, Eerste verslag over de toepassing van Richtlijn 2000/31/EG van het Europees Parlement en de Raad van 8 juni 2000 betreffende bepaalde juridische aspecten van de diensten van de informatiemaatschappij, met name de elektronische handel, in de interne markt (‘Richtlijn inzake elektronische handel’), COM 2003/702 def., p. 16 en in voetnoot 73.

    • 11 Vgl. conclusie A-G Szpunar 4 juni 2019, zaak C-18/18, ECLI:EU:C:2019:458 (Eva Glawischnig-Piesczek/Facebook), punt 36.

    • 12 Zie met name HvJ 29 januari 2008, zaak C-275/06, ECLI:EU:C:2008:54, IER 2008, 44, m.nt. F.W. Grosheide (Promusicae); HvJ 19 april 2012, zaak C-461/10, ECLI:EU:C:2012:219 (Bonnier Audio); HvJ 24 november 2011, zaak C-70/10, ECLI:EU:C:2011:771, Mediaforum 2012-3, m.nt. S. Kulk en F.J. Zuiderveen Borgesius (Scarlet/Sabam); HvJ 27 maart 2014, zaak C-314/12, ECLI:EU:C:2014:192, IER 2014/15, m.nt. S. Kulk (UPC Telekabel); HvJ 15 september 2016, zaak C-484/14, ECLI:EU:C:2016:689, IER 2017/13, m.nt. J.M.B. Seignette (Mc Fadden).

    • 13 In 2020 ondernam Facebook bijvoorbeeld in ruim 88 procent van de gevallen van ‘hate speech’ actie voordat daarover door gebruikers werd gerapporteerd, zie: https://transparency.facebook.com/community-standards-enforcement#hate-speech.

    • 14 Zo zetten Google en Facebook al contentidentificatietechnologieën in voordat daartoe min of meer een verplichting bestond op grond van de hierna te bespreken Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt.

    • 15 Google heeft bijvoorbeeld voor het herkennen van beschermd materiaal ‘ContentID’ ontwikkeld. Het systeem van Facebook heet ‘Rights Manager’. Beide systemen checken geüpload materiaal tegen een database van auteursrechtelijk beschermde werken. Zie ook gifct.org/joint-tech-innovation/, waarin Facebook, Microsoft, Twitter en YouTube samenwerken om de verspreiding van terroristische inhoud te voorkomen en een ‘database of hashes’ onderhouden waarmee wordt voorkomen dat bepaalde content opnieuw op een van de platformen verschijnt.

    • 16 Zie voor een uitgebreidere analyse van risico’s die kunnen ontstaan, in het bijzonder ten aanzien van de bestrijding van haatzaaiende inhoud: S. Kulk & T. Snijders, ‘Casestudy Contentmoderatie door online platformen’, in: S. Kulk & S. van Deursen, Juridische aspecten van algoritmen die besluiten nemen. Een verkennend onderzoek, Den Haag: WODC 2020.

    • 17 Zie daarover: T. Davidson, D. Bhattacharya & I. Weber, Racial Bias in Hate Speech and Abusive Language Detection Datasets (Proceedings of the Third Workshop on Abusive Language Online), 2019, p. 25-35; M. Sap e.a., The Risk of Racial Bias in Hate Speech Detection (Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics), 2019, p. 1668-1678; R. Binns (e.a.), ‘Like Trainer, Like Bot? Inheritance of Bias in Algorithmic Content Moderation’, in: G. Ciampaglia, A. Mashhadi & T. Yasseri (red.), Social Informatics (SocInfo 2017, Lecture Notes in Computer Science, vol. 10540), Cham (Zwitserland): Springer 2017, p. 405-415. Zie hierover uitgebreider: Kulk & Snijders 2020, p. 64.

    • 18 Overweging 47 Richtlijn inzake elektronische handel.

    • 19 Overweging 48 Richtlijn inzake elektronische handel.

    • 20 HvJ, Eva Glawischnig-Piesczek/Facebook.

    • 21 Conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 12.

    • 22 HvJ, Eva Glawischnig-Piesczek/Facebook, punt 41.

    • 23 HvJ, Eva Glawischnig-Piesczek/Facebook, punt 44.

    • 24 HvJ, Eva Glawischnig-Piesczek/Facebook, punt 45.

    • 25 HvJ, Eva Glawischnig-Piesczek/Facebook, punt 46.

    • 26 Zie voor een voorbeeld uit de Nederlandse rechtspraktijk: Rb. Amsterdam (vzr.) 11 november 2019, ECLI:NL:RBAMS:2019:8415, Mediaforum 2020/3, m.nt. O.G. Trojan (John de Mol/Facebook), r.o. 4.18. De vraag is wat mij betreft evenwel of in deze uitspraak voldoende scherpe kaders zijn gesteld door de voorzieningenrechter. Zie ook Rb. Amsterdam (vzr.) 15 mei 2020, ECLI:NL:RBAMS:2020:6202, Mediaforum 2020/3, m.nt. O.G. Trojan (Presentator EenVandaag/Facebook).

    • 27 Vgl. Scarlet/Sabam, punt 41.

    • 28 Zie over het gevaar van het onterecht blokkeren tot toegang tot informatie: UPC/Telekabel, punt 56; Mc Fadden, punt 94. Zie ook conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 74.

    • 29 Zie ook: conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 73.

    • 30 Vgl. met betrekking tot de vrijheid van ondernemerschap van met name kleinere platformaanbieders: conclusie A-G, Eva Glawischnig-Piesczek/Facebook, punt 73.

    • 31 Richtlijn (EU) 2019/790 van het Europees Parlement en de Raad inzake auteursrechten en naburige rechten in de digitale eengemaakte markt en tot wijziging van Richtlijnen 96/9/EG en 2001/29/EG, PbEU 2019, L 130/92.

    • 32 Zie uitgebreider over art. 17 van de richtlijn: J.G. Reus, ‘De “filterverplichting” uit de nieuwe Auteursrechtrichtlijn’, NtEr 2019/9-10, p. 257. Zie ook: S. Kulk, Internet Intermediaries and Copyright Law, Alphen aan den Rijn: Kluwer Law International 2019, p. 132.

    • 33 Zie ook: M. Senftleben, ‘Bermuda Triangle – Licensing, Filtering and Pri‍vil­eging User-Generated Content Under the New Directive on Copyright in the Digital Single Market’, https://ssrn.com/abstract=3367219, p. 5.

    • 34 Art. 17 Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt is strikt genomen van toepassing op aanbieders ‘van een onlinedienst voor het delen van content’. Zie art. 2 lid 6 Auteursrechtrichtlijn voor een definitie van dat begrip.

    • 35 Overweging 70 Auteursrechtrichtlijn.

    • 36 Daarmee lijkt het verbod op een algemene toezichtverplichting te worden herhaald. Deze zinsnede zou ook gelezen kunnen worden als de bevestiging dat contentidentificatiealgoritmen zonder problemen kunnen worden ingezet om vooraf bepaalde beschermde werken te filteren. Overweging 66 Auteursrechtrichtlijn lijkt echter aan een dergelijke interpretatie in de weg te staan: ‘De bij deze richtlijn ingestelde verplichtingen mogen er evenmin toe leiden dat de lidstaten een algemene toezichtsverplichting opleggen’ [cursivering toegevoegd]. Het blijft evenwel de vraag of de Uniewetgever met deze bepaling heeft bedoeld het uitgangspunt in art. 15 Richtlijn inzake elektronische handel slechts te herhalen of dat er sprake is van een lex specialis waaraan een auteursrechtelijk-specifieke uitleg kan worden gegeven.

    • 37 Zie in dat verband ook de zaak die Polen heeft aangespannen bij het Hof van Justitie om Artikel 14 lid 4 onder b en c te vernietigen (zaak C-401/19).

    • 38 Kamerstukken II 2019/20, 35454, nr. 1.

    • 39 Art. 17 lid 10 Richtlijn inzake auteursrechten en naburige rechten in de digitale eengemaakte markt.

    • 40 Zie daarover: https://ec.europa.eu/digital-single-market/en/stake​holder-dialogue-application-article-17-directive-copyright-digital-single-market.

    • 41 Zie daarover het document dat beschikbaar is gesteld via: https://ec.europa.eu/digital-single-market/en/news/directive-copyright-digital-single-market-commission-seeks-views-participants-stakeholder. https://ec.europa.eu/eusurvey/runner/4fd43123-6008-a214-f572-4ecd331b9e0e.

    • 42 Richtlijn 2010/13/EU van het Europees Parlement en de Raad van 10 maart 2010 betreffende de coördinatie van bepaalde wettelijke en bestuursrechtelijke bepalingen in de lidstaten inzake het aanbieden van audiovisuele mediadiensten (Richtlijn audiovisuele mediadiensten), PbEU 2010, L 95/1. Deze richtlijn is in 2018 gewijzigd door Richtlijn (EU) 2018/1808 van het Europees Parlement en de Raad van 14 november 2018 tot wijziging van Richtlijn 2010/13/EU betreffende de coördinatie van bepaalde wettelijke en bestuursrechtelijke bepalingen in de lidstaten inzake het aanbieden van audiovisuele mediadiensten (Richtlijn audiovisuele mediadiensten) in het licht van een veranderende marktsituatie, PbEU 2018, L 303/69.

    • 43 A. Strijbos & D. Verhulst, ‘Videoplatformdiensten in de herziene Richtlijn audiovisuele mediadiensten’, Mediaforum 2019-2, p. 43. Zie over die richtlijn ook: E.W. Jurjens, ‘De definitieve nieuwe Richtlijn Audiovisuele Mediadiensten: een eerste analyse’, NtEr 2019/1-2.

    • 44 Art. 28ter lid 1 onder a Richtlijn audiovisuele mediadiensten.

    • 45 Art. 28ter lid 3 onder d Richtlijn audiovisuele mediadiensten.

    • 46 Art. 28ter lid 1 onder b en c Richtlijn audiovisuele mediadiensten.

    • 47 Art. 28ter lid 3 Richtlijn audiovisuele mediadiensten.

    • 48 Art. 28ter lid 3 Richtlijn audiovisuele mediadiensten.

    • 49 M. de Cock Buning, ‘Social Media Influencers: liever door de hond of door de kat gebeten? Een analyse van de nieuwe Europese regelgeving voor influencer-marketing’, IER 2019-5, p. 23.

    • 50 Art. 28ter lid 3 onder e Richtlijn audiovisuele mediadiensten.

    • 51 Art. 28ter lid 3 onder i Richtlijn audiovisuele mediadiensten.

    • 52 Zie daarover ook kritisch: Strijbos & Verhulst 2019, p. 46; De Cock Buning 2019, p. 23.

    • 53 Art. 28ter lid 5 Richtlijn audiovisuele mediadiensten.

    • 54 Art. 28ter lid 7 Richtlijn audiovisuele mediadiensten.

    • 55 Zie art. 28ter lid 1 Richtlijn audiovisuele mediadiensten.

    • 56 Art. 28ter lid 6 Richtlijn audiovisuele mediadiensten. Zie ook art. 4bis Richtlijn audiovisuele mediadiensten.

    • 57 Zie daarover: Kamerstukken II 2019/20, 35361, nr. 3 (MvT), p. 4 en 20.

    • 58 Wet van 30 september 2020, houdende wijzing van de Mediawet 2008 in verband met de implementatie van Richtlijn 2018/1808 van het Europees Parlement en de Raad van 14 november 2018 tot wijziging van Richtlijn 2010/13/EU betreffende de coördinatie van bepaalde wettelijke en bestuursrechtelijke bepalingen in de lidstaten inzake het aanbieden van audiovisuele mediadiensten (richtlijn audiovisuele mediadiensten) in het licht van een veranderende marktsituatie (Stb. 2020, 391).

    • 59 Art. 3.a.3 lid 1 Mediawet. Co-regulering wordt aangemoedigd in art. 38ter lid 4 Richtlijn audiovisuele mediadiensten.

    • 60 Art. 3a3 lid 3 Mediawet. Zie over het gebruik van gedragscodes ook art. 4bis Richtlijn audiovisuele mediadiensten.

    • 61 Kamerstukken II 2019/20, 35361, nr. 3 (MvT), p. 21. Dat toezicht zal verlopen via de band van art. 7.11 Mediawet. Daarmee zal het Commissariaat voor de Media er onder meer op moeten toezien dat er door videoplatformaanbieders transparante, gemakkelijk te gebruiken en doeltreffende procedures zijn voor klachtafhandeling, en dat verwijdersystemen door deze aanbieders zo worden ingericht dat aan platformgebruikers wordt uitgelegd wat er met verwijderverzoeken wordt gedaan.

    • 62 Zie art. 6 Voorstel voor een Verordening van het Europees Parlement en de Raad ter voorkoming van de verspreiding van terroristische online-inhoud, COM 2018/640.

    • 63 FRA, Proposal for a Regulation on preventing the dissemination of terrorist content online and its fundamental rights implications Opinion of the European Union Agency for Fundamental Rights, FRA Opinion – 2/2019, p. 38.

    • 64 Formal comments of the EDPS on the Proposal for a Regulation of the European Parliament and of the Council on preventing the dissemina­ti‍on of terrorist content online, 13 februari 2019, p 7.

    • 65 Wetgevingsresolutie van het Europees Parlement van 17 april 2019 over het voorstel voor een verordening van het Europees Parlement en de Raad ter voorkoming van de verspreiding van terroristische online-inhoud, COM 2018/0640 – C8-0405/201.

    • 66 Raad van de EU, Gezamenlijke verklaring van de EU-ministers van Binnenlandse Zaken over de recente terroristische aanslagen in Europa, 13 november 2020.

    • 67 U. von der Leyen, ‘A Union that strives for more. My agenda for Europe. Political guidelines for the next European Commission 2019-2024’, 9 oktober 2019, p. 13. Zie ook werkprogramma van de Europese Commissie 2020, COM 2020/37.

    • 68 Mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s, ‘De bestrijding van illegale online-inhoud. Naar een grotere verantwoordelijkheid voor onlineplatforms’, COM 2017/555; Commission Recommendation on measures to effectively tackle illegal content online, COM 2018/1177. Zie over beide documenten: A. van der Beek, L. Oranje & J.R. Spauwen, ‘Europese Commissie: “Online platforms moeten meer verantwoordelijkheid nemen bij het bestrijden van online illegale content”’, NtEr 2018/5-6, p. 191.

    • 69 COM 2018/1177, punt 17.

    • 70 COM 2018/1177, punt 20.

    • 71 Europese Commissie, Inception impact assessment, Ares(2020)​2877686, p. 4.

    • 72 Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende de wet inzake digitale diensten: de werking van de eengemaakte markt verbeteren, 2020/2018(INL), punt 46.

    • 73 Resolutie, punt 45 e.v.

    • 74 Resolutie, punt 57.

    • 75 Resolutie, punt 49.

    • 76 Bijlage bij de resolutie, onder V.

    • 77 Zie art. 13 lid 2 onder f, art. 14 lid 2 onder g en art. 15 lid 1 onder h AVG.


Print dit artikel