DOI: 10.5553/TCR/092986492023031002001

Tijdschrift voor Civiele RechtsplegingAccess_open

Artikel

Schadelijke content en toegang tot recht op onlineplatforms

Een empirisch onderzoek naar ervaringen en behoeftes van benadeelden

Trefwoorden schadelijk gedrag online, legal needs, digital due process, notice-and-action, Digital Services Act
Auteurs
DOI
Toon PDF Toon volledige grootte
Samenvatting Auteursinformatie Statistiek Citeerwijze Citaties (1)
Dit artikel is keer geraadpleegd.
Dit artikel is 0 keer gedownload.
Aanbevolen citeerwijze bij dit artikel
Anna van Duin, Naomi Appelman, Brahim Zarouali e.a. , 'Schadelijke content en toegang tot recht op onlineplatforms', TCR 2023, p. 31-39

    Dit artikel analyseert de belangrijkste bevindingen van een survey naar de ervaringen en behoeftes van mensen in Nederland met betrekking tot online content die hen rechtstreeks en persoonlijk schaadt en mogelijkheden om daar tegen op te komen. Eén op de vijf krijgt te maken met schadelijk gedrag online, maar slechts de helft onderneemt actie, ook al ervaren velen hun probleem als ernstig. Het onderzoek legt een mismatch bloot tussen de bestaande juridische routes en wat benadeelden feitelijk doen of willen. Dit roept vragen op over de praktische betekenis van toegang tot recht en digital due process in deze context.

Dit artikel wordt geciteerd in

    • 1. Aanleiding: bestaande procedures blijven onderbenut

      Een op de vijf mensen in Nederland heeft te maken gehad met schadelijk gedrag online, maar van hen onderneemt slechts de helft (57,7%) al dan niet juridische stappen. Dat blijkt uit de resultaten van empirisch onderzoek naar de ervaringen van mensen met online inhoud (content) die hen rechtstreeks en persoonlijk schaadt en mogelijkheden om daar iets aan te doen.1x J.M.L. van Duin, N.M.I.D. Appelman, B. Zarouali & P. van den Bosch, Rapport surveydata Schadelijk gedrag online in Nederland. Resultaten en nadere analyse van surveydata over de ervaringen van mensen in Nederland met schadelijk gedrag online en (juridische) stappen naar aanleiding daarvan, Amsterdam 2022 (hierna verkort aangeduid als: Rapport surveydata), te raadplegen via https://dsa-observatory.eu/wp-content/uploads/2022/09/Rapport_surveydata_schadelijk_gedrag_online_Nederland.pdf. De survey is gerealiseerd met een thematische onderzoeksbeurs van het Amsterdam Centre for European Studies (ACES). Aanleiding voor dit onderzoek was de constatering dat schadelijke content en het tekort aan effectieve remedies daartegen breed worden gezien als een maatschappelijk probleem, terwijl de beschikbare procedurele routes voor benadeelden onderbenut blijven.2x J. van Hoboken, N. Appelman, A. van Duin, T. Blom, B. Zarouali, M. Seel, E. Stringhi, N. Helberger & R. Ó Fathaigh, WODC-onderzoek. Voorziening voor verzoeken tot snelle verwijdering van onrechtmatige online content (WODC Rapport 3108), Amsterdam 2020, bijlage bij ­Kamerstukken II 2020/21, 34602, nr. 6 (hierna verkort aangeduid als: WODC-onderzoek). In dit artikel verwijzen wij op enkele plaatsen naar dit onderzoek voor een nadere toelichting op de achtergrond van de problematiek. Het onderzoek past in een bredere discussie over toegang tot recht (access to justice)3x Het concept ‘access to justice’ is niet eenduidig, maar het betekent in ieder geval dat het rechtssysteem in gelijke mate toegankelijk is voor iedereen en leidt tot uitkomsten die individueel en maatschappelijk rechtvaardig zijn en gericht op zowel preventie als reparatie: M. Westerveld, ‘Toegang tot het recht. Een problematisch concept’, NJB 2022, afl. 20, p. 1613-1620. Het is breder dan toegang tot de rechter. Cruciaal is dat de verwezenlijking van rechten niet illusoir wordt door allerlei barrières: N. Doornbos, ‘Toegang tot het recht: een rechtssociologische analyse’, in: D. de Wolff (red.), Toegang tot recht. Beschouwingen aangeboden aan Mies Westerveld, Den Haag: Boom juridisch 2019, p. 25-44. in de context van contentmoderatie en platformregulering, mede tegen de achtergrond van de digitaledienstenverordening (de Digital Services Act; hierna: DSA) die recentelijk door de EU is aangenomen.4x Verordening (EU) 2022/2065 van het Europees Parlement en de Raad van 19 oktober 2022 betreffende een eengemaakte markt voor digitale diensten en tot wijziging van Richtlijn 2000/31/EG. De DSA introduceert – kort gezegd – nieuwe regels voor onlineplatforms en andere digitale dienstverleners om de verspreiding van illegale content in ruime zin te beperken.5x ‘Illegale inhoud’ is alle informatie die op zichzelf of in verband met een activiteit, waaronder de verkoop van producten of het aanbieden van diensten, indruist tegen het Unierecht of tegen het met Unierecht in overeenstemming zijnde recht van een lidstaat, ongeacht het precieze voorwerp of de precieze aard van dat recht (art. 3(h) DSA en preambule 12). Dat is een zeer brede definitie, die niet een-op-een samenvalt met onrechtmatige inhoud of schadelijke inhoud; zie daarover par. 2.1. Van belang voor de toegang tot recht is de verplichting een ­notice-and-action-mechanisme aan te bieden, waarbij internetgebruikers een melding of verzoek tot verwijdering kunnen doen bij de betrokken dienstverlener.6x Art. 16 DSA. Zie hierover o.a. P. Wolters, ‘De vlucht naar voren in de ­Digital Services Act’, AA 2022, p. 191-201; P. Ortolani, ‘The resolution of content moderation disputes under the Digital Services Act’, Giustizia Consensuale 2022, afl. 2, p. 533-573; A. Kuczerawy, ‘From “notice and take down” to “notice and stay down”. Risks and safeguards for freedom of expression’, in: G. Frosio (red.), The Oxford handbook of intermediary liability online, Oxford: Oxford University Press 2019, p. 524-543; F. Wilman, ‘De Digital Services Act (DSA): een belangrijke stap naar betere regulering van onlinedienstverlening’, NtER 2022, afl. 9/10, p. 220-232. Tot de invoering van de DSA werd door veel online dienstverleners geen notice-and-action- en/of geschillenbeslechtingsmechanisme aangeboden, maar alleen een rapportagemogelijkheid als gevolg van de hierna besproken ‘safe harbour’-bepalingen; zie o.a. Council of Europe, Terms of service and human rights. An analysis of online platform contracts, 2016. De DSA vormt in die zin een uitbreiding en codificatie van de staande praktijk. De betekenis van on­lineplatforms voor de toegang tot recht en (civiele) geschillenbeslechting moet niet worden onderschat; zij zijn voor internetgebruikers niet zozeer een alternatief voor de overheidsrechter, als wel de standaardroute voor het bereiken van een oplossing bij juridische problemen.7x Zie o.a. C. Goanta & P. Ortolani, ‘Unpacking content moderation: The rise of social media platforms as online civil courts’, in: X.E. Kramer e.a. (red.), Frontiers in civil justice. Privatisation, monetisation and digitisa­tion, Cheltenham: Edward Elgar Publishing 2022, p. 192-216; E.M. van Gelder & J.M.L. van Duin, ‘In de schaduw van het recht: over PayPal’s Resolution Centre en kwaliteitsstandaarden voor cODR op online platforms’, in: P. Ortolani e.a. (red.), Digitalisering en conflictoplossing, Deventer: Wolters Kluwer 2021, p. 129-146.
      Mensen komen op internet in aanraking met een grote ­variëteit aan schadelijke content, zoals beledigende of haatdragende berichten en privégegevens die ongevraagd worden gedeeld (doxing).8x M. Huijstee e.a., Online ontspoord. Een verkenning van schadelijk en immoreel gedrag op het internet in Nederland, Den Haag: Rathenau Instituut 2021; Bureau Clara Wichmann, Onderzoeksrapport online gendered hate speech: civiel procederen tegen online hate speech, Amsterdam 2020. Uit een studie in 2020 (vóór de inwerkingtreding van de DSA) kwam al naar voren dat het in de praktijk heel moeilijk is om online content – voor zover die illegaal of onrechtmatig is – verwijderd te krijgen, en dat bestaande ­gerechtelijke en buitengerechtelijke procedures vanuit het perspectief van benadeelden – degenen die daar rechtstreeks en persoonlijk door worden geraakt – onvoldoende effectief zijn. Zo bleek het slagen van notice-and-action afhankelijk van de risico-inschatting van de dienstverlener, aan wie een brede ­bescherming tegen aansprakelijkheid voor onrechtmatige content toekomt (de zogenoemde ‘safe harbour’).9x WODC-onderzoek, p. 35. Deze analyse is gebaseerd op de praktijk van notice-and-action onder art. 14 Richtlijn elektronische handel (geïmplementeerd in art. 6:196c BW), thans art. 6 DSA; zie hierna verder par. 3.1. Als de dienstverlener geen gehoor geeft aan het verzoek, dan is de benadeelde vooralsnog aangewezen op een gerechtelijke procedure.10x De DSA beoogt hier verandering in te brengen door te bepalen dat melders toegang moeten hebben tot een doeltreffend intern klachtenafhandelingssysteem (art. 20) en buitengerechtelijke geschillenbeslechting door een gecertificeerde instantie (art. 21), zonder dat dit afbreuk doet aan het recht op een doeltreffende voorziening in rechte uit hoofde van art. 47 EU-Grondrechtenhandvest. Zie o.a. E.M. van Gelder, Consumer online dispute resolution pathways in Europe, Den Haag: Eleven 2022, p. 203-205, 259-260 en 264; P. Ortolani, ‘If you build it, they will come. The DSA “procedure before substance” approach’, in: J. van Hoboken e.a. (red.), Putting the DSA into practice. Enforcement, access to justice and ­global implications, Berlijn: Verfassungsblog 2023. Illustratief is het recente vonnis in de succesvolle collectieve actie van de Stichting Stop Online Shaming en het Expertisebureau Online Kindermisbruik, waarin de gedaagde – de ­exploitant van een commercieel videodeelplatform – met een beroep op deze safe harbour stelde niet aansprakelijk te zijn voor het delen van heimelijk gemaakte of privébeelden waar de afgebeelde personen niet mee hadden ingestemd. De rechtbank Amsterdam wees dit beroep op de voorwaardelijke uitsluiting van aansprakelijkheid af, oordeelde dat het platform een actieve rol speelde in de selectie van de video’s en daarmee onrechtmatig handelt door dergelijk beeldmateriaal zonder toestemming te publiceren; het bestaan van een notice-and-action-mechanisme maakt dat niet anders, omdat het de openbaarmaking als zodanig niet verhindert.11x Rb. Amsterdam 16 februari 2022, ECLI:NL:RBAMS:2022:557, r.o. 5.26-5.27. Zelf maken individuele benadeelden echter zelden de gang naar de rechter (zie hierna par. 3.1).12x Een notoir voorbeeld van een van de weinige zaken waarin dit wél is gebeurd, is de zaak van een slachtoffer van ‘wraakporno’, die in kort geding een veroordeling van Facebook eiste om de gegevens van de dader ­(accounthouder) te verstrekken: Rb. Amsterdam 25 juni 2015, ECLI:NL:RBAMS:2015:3984.
      In dit artikel bespreken wij de belangrijkste bevindingen van het onderzoek dat wij in 2021/2022 hebben uitgevoerd naar belemmeringen voor de toegang tot recht in verband met schadelijke content. Daarbij stond de vraag centraal wat de ­ervaringen en behoeftes van benadeelden zijn met betrekking tot verschillende routes voor het verwijderen van schadelijke content (par. 2). Ons onderzoek geeft een beeld van de redenen waarom mensen al dan niet overgaan tot actie. Dat sluit deels aan bij reeds bekende factoren en overwegingen die een rol spelen bij de toegang tot recht, maar was nog niet specifiek voor deze problematiek in kaart gebracht. Verder legt het ­onderzoek een mismatch bloot tussen de bestaande juridische mogelijkheden en wat mensen feitelijk doen of willen als zij worden geconfronteerd met schadelijk gedrag online. Zo is verwijdering van de content niet het enige doel; mensen willen ook de dader – degene die de content heeft geplaatst – ontmaskeren, terwijl notice-and-action daar niet op is gericht (par. 3). Daarnaast zijn er aanwijzingen dat laagdrempeligheid van de mogelijkheid om schadelijke content te rapporteren belangrijker wordt gevonden dan (ervaren) procedurele rechtvaardigheid (par. 4). Aan het slot van dit artikel staan wij kort stil bij de implicaties van onze bevindingen voor de verdere vormgeving van deze rapportagemogelijkheid (par. 5).

    • 2. Onderzoeksvragen, reikwijdte en methodologie

      2.1 Ervaringen en behoeftes van mensen die rechtstreeks en persoonlijk worden geraakt

      Ons onderzoek heeft tot doel het in kaart brengen van de ervaringen van mensen in Nederland met schadelijk gedrag online en de manier waarop zij daarmee omgaan. De belangrijkste onderzoeksvragen zijn: met welke typen schadelijke gedragingen worden mensen rechtstreeks en persoonlijk geconfronteerd, wat zijn hun doelen en verwachtingen als zij actie ondernemen, en hoe percipiëren zij de obstakels die zij daarbij tegenkomen?13x Zie Rapport surveydata, p. 2-3.
      Dit onderzoek stelt de behoeftes (legal needs) van rechtzoekende burgers centraal.14x Vgl. R. Macdonald, ‘Access to civil justice’, in: P. Cane & H. Kritzer (red.), The Oxford handbook of empirical legal research, Oxford: Oxford University Press 2012, p. 492-521, op p. 517-518: ‘Most human conflict finds expression in language that only remotely mirrors that of legislative and judicial processes. Empirical research must target the everyday law of social interaction where inaccessible justice is first perceived. (…) Studies that enable policy-makers to understand the legal needs of the public, as expressed by citizens themselves – and not according to a matrix derived from the existing framework of substantive and procedural laws – are the optimal vehicles for ensuring that an accessible system of law is also an accessible system of justice.’ Het is toegespitst op natuurlijke personen die online schade ondervinden die hen direct en in de persoon raakt; zij zijn het doelwit. Het omvat onrechtmatige gedragingen en/of content die een inbreuk op de persoonlijke levenssfeer maken als bedoeld in art. 8 Europees Verdrag voor de Rechten van de Mens (EVRM),15x Zie daarover WODC-onderzoek, p. 39-41. maar is daar niet toe ­beperkt. De juridische kwalificatie van content als illegaal of ­onrechtmatig is uiteraard wél bepalend voor de vraag of het recht een remedie biedt, en zo ja, welke.16x Ons begrip van ‘remedie’ heeft zowel een materiële als een procedurele component, in die zin dat er een rechtsvordering toekomt aan de benadeelde partij, op grond waarvan deze toegang heeft tot een (buitengerechtelijke of gerechtelijke) procedure; vgl. A. van Duin, Effective judicial protection in consumer litigation, Cambridge: Intersentia 2022, p. 5 en 24-25. Remedies moeten de benadeelde partij een vorm van reparatie, compensatie of erkenning bieden: T. Nuninga, Recht, plicht, remedie, Deventer: Wolters Kluwer 2022, p. 18-19. Het gaat om het bereiken van een oplossing én om de weg daarnaartoe: N. Creutzfeldt, Ombudsmen and ADR: A comparative study of informal justice in Europe, Cham: Springer International Publishing 2018, p. 15; zie hierna ook par. 4.2. Niet alle content die als schadelijk kan worden ervaren, geeft immers toegang tot het rechtssysteem.17x Zo geldt voor het verstrekken van NAW-gegevens (naam, adres, woonplaats) door de internetdienstverlener van gebruikers die anonieme uitingen doen een specifiek beoordelingskader: zie HR 25 november 2005, ECLI:NL:HR:2005:AU4019 (Lycos/Pessers). De perceptie van mensen van wat hun rechten zijn, sluit echter niet per se aan bij de toepasselijke rechtsregels.18x B. van Rooij, ‘Do people know the law? Empirical evidence about legal knowledge and its implications for compliance’, in: B. van Rooij & D.D. Sokol (red.), Cambridge handbook of compliance, Cambridge: Cambridge University Press 2021, p. 467-488. Zie ook Doornbos 2019, p. 29: ‘[G]epercipieerde rechten – de rechten zoals die door de persoon in kwestie ervaren worden – komen echter niet altijd overeen met objectief omschreven rechten, zoals neergelegd in wet- en regelgeving’. Daarom vormt in dit onderzoek niet de juridische kwalificatie het uitgangspunt, maar het feitelijke gedrag.
      Welk gedrag als schadelijk wordt gezien, kan tijd-, plaats- of persoonsgebonden zijn. Onze zoektocht naar een classificatie die zo veel mogelijk recht doet aan wat er in de praktijk ­gebeurt, leidde naar de typologie van Banko en collega’s,19x M. Banko e.a., ‘A unified typology of harmful content’, in: Association of Computational Linguistics, Proceedings of the fourth workshop on ­online abuse and harms, 2020, p. 125-137, te raadplegen via https://aclanthology.org/2020.alw-1.16/. die is ontleend aan community guidelines en content policy van verschillende grote platforms, grondrechtenverdragen, voorstellen van niet-gouvernementele organisaties (civil society) en aanbevelingen van deskundigen. Zoals hierna zal worden toegelicht, gaat het om diverse categorieën schadelijke content, van doxing tot scams. Omdat deze categorieën niet door een juridische bril worden bekeken, vallen zij niet een-op-een ­samen met (horizontale) privacyschendingen.20x Hiermee wordt gedoeld op privacyschendingen in horizontale (private) verhoudingen tussen burgers onderling en burgers en bedrijven: B. Schermer & B. van der Sloot, Het recht op privacy in horizontale verhoudingen (WODC Rapport 3062), Tilburg 2020 (Kamerstukken II 2020/21, 34926, nr. 11). Schendingen op het gebied van het consumentenrecht, oneerlijke handels­praktijken en intellectuele eigendom kunnen weliswaar ­onrechtmatig zijn of illegaal in de zin van de DSA, maar zijn verder verwijderd van de persoon van de benadeelde en vallen buiten de reikwijdte van dit onderzoek.
      Het onderzoek heeft bovendien betrekking op individuele ervaringen met schadelijk gedrag online. Bepaalde (gemarginaliseerde) groepen – zoals lhbti’ers en etnische minderheden – lopen een groter risico om doelwit te worden.21x Zie verder O. Haimson e.a., ‘Disproportionate removals and differing content moderation experiences for conservative, transgender, and black social media users. Marginalization and moderation gray areas’, Pro­ceed­ings of the ACM on Human-Computer Interaction (5) 2021/466, No. CSCW2; J. Vitak e.a., ‘Identifying women’s experiences with and strategies for mitigating negative effects of online harassment’, in: Pro­ceed­ings of the 2017 ACM Conference on computer supported cooperative work and social computing, 2017, p. 1231-1245; B. Duffy & C. Meisner, ‘Platform governance at the margins: Social media creators’ experiences with algorithmic (in)visibility’, Media, Culture & Society (45) 2022, afl. 2, p. 285-204; A. Powell, A. Scott & N. Henry, ‘Digital harassment and abuse: Experiences of sexuality and gender minority adults’, European Journal of Criminology (17) 2020, afl. 2, p. 199-223. Het onderzoek is niet gericht op de maatschappelijke impact daarvan (denk bijvoorbeeld aan stigmatisering en uitsluiting). Wel is een van de bevindingen dat mensen met een migratieachtergrond ­vaker te maken krijgen met discriminerende uitingen, en vrouwen met ongewenste seksuele opmerkingen.22x Zie Rapport surveydata, p. 7-8; in de typologie van Banko gaat het om ‘identity attacks’ en ‘identity misrepresentation’ resp. ‘sexual agressions’.

      2.2 Survey; focus op al dan niet ondernomen (juridische) stappen

      Wij hebben een survey uitgezet onder de Nederlandse bevolking, gericht op mensen die te maken hebben gehad met schadelijke content.23x Zie de vragenlijst in Rapport surveydata, hoofdstuk 4. De survey is uitgezet door Panel Inzicht, een toonaangevend onderzoeksbureau dat werkt met online panels in Nederland. Er werd eerst een filtervraag gesteld of ­respondenten ooit persoonlijk te maken hadden gehad met problematisch (schadelijk) gedrag online. Het totale aantal respondenten bedroeg 2500; de filtervraag is door 520 respondenten met ‘ja’ beantwoord (20,8% van de totale steekproef).24x Zowel de filtervraag als de follow-upvraag om welk gedrag het ging, was open geformuleerd – zonder nadere specificatie – om te weten te komen wat mensen zelf onder ‘schadelijk gedrag online’ verstaan. Het percentage van 20,8% verwijst naar het deel van de respondenten dat zegt dat zij hiermee te maken hebben gehad, op basis van hun eigen (subjectieve) oordeel. Het kan zo zijn dat iemand die bijvoorbeeld in aanraking is gekomen met phishing, maar dat niet als problematisch heeft ervaren, de filtervraag met ‘nee’ heeft beantwoord. Het percentage mensen dat daadwerkelijk te maken heeft gehad met schadelijk gedrag online kan in realiteit dus nog hoger liggen.

      Tabel 1 Subcategorieën schadelijk gedrag online en percentage respondenten dat dit heeft meegemaakt
      Haat en pesterijen (‘Hate and harassment’)
      1. het online zetten van privégegevens met de bedoeling om schade toe te brengen (‘Doxing’) 14,8%
      2. het maken van nare, hatelijke of agressieve opmerkingen online over iemand persoonlijk op basis van bijvoorbeeld diens ras, seksualiteit, geslacht of religie (‘Identity attacks’) 29,4%
      3. online uitingen die in het algemeen negatief, kwetsend of stereotyperend zijn over bijvoorbeeld religie, ras, geslacht of seksualiteit (‘Identity misrepresentation’) 22,1%
      4. online beledigingen, om wat voor reden dan ook (‘Insults’) 48,7%
      5. het maken van online ongewenste seksuele opmerkingen, het delen van seksuele foto’s of video’s zonder toestemming (‘Sexual aggressions’) 15,0%
      6. online bedreiging met geweld (‘Threats of violence’) 14,4%
      Schade die mensen aan zichzelf toebrengen (‘Self-inflicted harm’)
      7. het online aanmoedigen van verstoord eetgedrag (‘Eating disorder promotion’) 7,7%
      8. het online aanmoedigen van zelfbeschadiging (‘Self-harm’) 2,9%
      Uitbuiting (‘Exploitation’)
      9. het online aanbieden van illegaal sekswerk of mensenhandel (‘Adult sexual services’) 7,3%
      10. het maken van seksuele opmerkingen online naar minderjarigen, of het delen van seksueel materiaal van minderjarigen (‘Child abuse’) 9,0%
      11. pogingen tot online oplichting (‘Scams’) 71,5%

      Deze 520 respondenten hebben vervolgens een vragenlijst ingevuld die bestond uit een combinatie van gesloten en open vragen. Bij de gesloten vragen konden respondenten meerdere antwoorden kiezen uit een reeks vooraf gedefinieerde opties, terwijl de open vragen hun de gelegenheid gaven hun eigen perspectieven en subjectieve meningen toe te voegen. Daarnaast werd de respondenten gevraagd naar hun leeftijd, ­geslacht, afkomst, opleidingsniveau, woonregio en socio-economische status.
      Het onderzoek is exploratief van aard. Het beoogt bij te dragen aan het inzicht in deze problematiek en vormt een startpunt voor vervolgonderzoek. De survey is uitgevoerd in de periode oktober-november 2021. Voor een nadere toelichting over de dataverzameling en beperkingen van het onderzoek verwijzen wij naar het rapport dat in september 2022 is gepubliceerd.25x Zie met name Rapport surveydata, p. 4 en 6.
      De vragenlijst viel uiteen in twee delen: ervaringen met schadelijk gedrag online (deel 1) en stappen naar aanleiding van schadelijk gedrag online (deel 2). De vragen in deel 1 waren gebaseerd op de typologie van Banko en collega’s, die schadelijke content indelen in elf subcategorieën.26x Banko e.a. 2020, p. 20. De categorie ‘ideologische schade’ (extremisme, terrorisme, georganiseerde misdaad en misinformatie) is uitgesloten, omdat deze categorie vooral maatschappelijke schade veroorzaakt en daarmee buiten de reikwijdte van het onderzoek valt. Tabel 1 geeft een overzicht van de subcategorieën en het percentage respondenten (n = 520) dat het gedrag in kwestie heeft meegemaakt.27x Zie Rapport surveydata, p. 6-8.
      Uit deel 1 van de survey komt naar voren dat schadelijke ­gedragingen meestal voorkomen op sociale media, zoals Facebook en Twitter. Leeftijd is een relevante factor: vooral jongeren (18 t/m 34 jaar) worden getroffen.28x Zie Rapport surveydata, p. 7. Mensen ervaren het gedrag dat zij hebben meegemaakt over het algemeen als ernstig.29x Zie Rapport surveydata, p. 8 en 10. Op een schaal van 1 tot 7 (van ‘ik vond het helemaal niet erg’ tot ‘ik vond het heel erg’) gaf 77,9% van de respondenten een 5 of hoger. Toch gaat slechts een kleine meerderheid (57,7%) daadwerkelijk over tot enige actie.30x Zie Rapport surveydata, p. 11. Er bestaat een significant maar zwak verband tussen de perceptie van de ernst van het probleem en het al dan niet ondernemen van actie. Vrijwel niemand begint een ­juridische procedure tegen de dader dan wel het platform (2,3% respectievelijk 0,7%; zie hierna par. 3.1).
      In dit artikel zoomen wij in op de bevindingen uit deel 2 van de survey. Daarin is respondenten gevraagd of, en zo ja, welke stappen zij hebben ondernomen, met welk doel, waardoor zij werden tegengehouden en in welke mate, welke (juridische) mogelijkheden zij kennen om schadelijke content te rapporteren, en wat zij met het oog daarop belangrijk vinden.

    • 3. Welke stappen worden ondernomen en met welk doel?

      3.1 Bekendheid met en gebruik van beschikbare routes tegen schadelijke content

      Internetgebruikers hebben diverse mogelijkheden om op te treden tegen schadelijke content.31x Zie hierover uitvoerig WODC-onderzoek, hoofdstuk 4 en 5. Onder de DSA komt daar een nieuwe optie bij: de Digital Services Coordinator (DSC), waar particulieren ook klachten kunnen indienen (art. 49). Zoals hierboven besproken in paragraaf 1 is de eerste en meest laagdrempelige stap de ­no­tice-and-action-procedure, waarbij een melding of verzoek tot verwijdering gedaan wordt bij de betrokken internetdienstverlener. Deze procedure, inmiddels verankerd in artikel 16 DSA, komt voort uit de voorwaardelijke uitsluiting van aansprakelijkheid van hostingproviders, waaronder onlineplatforms.32x Art. 6 DSA. Deze dienstverleners zijn niet aansprakelijk voor de content van hun gebruikers zolang ze geen ‘actieve rol’ spelen in de productie of selectie van deze content, geen kennis hebben van het onrechtmatige karakter van de content en ‘prompt’ handelen nadat die kennis is verkregen.33x HvJ EU 12 juli 2011, C-324/09, ECLI:EU:C:2011:474 (L’Oréal/Ebay); F. Wilman, The responsibility of online intermediaries for illegal user content in the EU and the US, Cheltenham: Edward Elgar Publishing 2020; A. Kuczerawy, Intermediary liability and freedom of expression in the EU. From concepts to safeguards, Cambridge: Intersentia 2018. Belangrijk is dat deze aansprakelijkheidsuitsluiting (of -beperking) niet aan een ­gerechtelijk bevel tot verwijdering in de weg staat.34x Art. 6(4) DSA. Verder zijn er verschillende civiel-, bestuurs- en strafrechtelijke routes, afhankelijk van de juridische kwalificatie van de content. Gaat het om een inbreuk op rechten uit de Algemene verordening gegevensbescherming (AVG), dan kan een klacht worden ingediend bij de Autoriteit Persoonsgegevens. Betreft het een ­(potentieel) strafbaar feit, dan kan aangifte worden gedaan bij de politie. Gaat het om een onrechtmatige uiting, dan kan een vordering worden ingesteld – eventueel in kort geding – bij de civiele rechter. Toegang tot recht omvat ook eerstelijns rechtshulp en toegang tot juridische informatie en advisering,35x Zie o.a. Doornbos 2019, p. 25; E. Bauw e.a., Togadragers in de rechtsstaat. De juridische professies en de toegang tot het recht, Den Haag: Boom juridisch 2022, p. 216. die onder andere kan worden ingewonnen bij het Juridisch Loket of Slachtofferhulp Nederland.36x WODC-onderzoek, p. 91. Vgl. M.J. ter Voert & M.S. Hoekstra, Geschil­beslechtingsdelta 2019. Over verloop en afloop van (potentieel) juridische problemen van burgers (Cahier 2020-18), Den Haag: WODC 2020, p. 23. Daarnaast bestaan er voor deze problematiek specifieke meldpunten, zoals het Landelijk Meldpunt Internetoplichting en het initiatief Meldknop.nl dat benadeelden informatie geeft en doorverwijst naar hulp­organisaties als Helpwanted.nl.37x WODC-onderzoek, p. 92-93.
      Uit ons onderzoek volgt dat 26,3% (137 van de 520 respondenten) een melding of klacht heeft ingediend bij de website of het platform, en dat 21,9% (114 van de 520 respondenten) aangifte heeft gedaan bij de politie. De overige routes worden veel minder benut (zie tabel 2).38x Zie Rapport surveydata, p. 11-12. Respondenten konden meerdere opties aanvinken (waaronder ‘anders, namelijk …’).

      Tabel 2 Ondernomen stappen met bijbehorende percentages
      Melding of klacht bij website/platform 26,3%
      Aangifte bij de politie 21,9%
      Meldpunt 8,8%
      Dader direct benaderd 6,9%
      Juridische informatie opgezocht 3,1%
      Melding of klacht bij Autoriteit Persoonsgegevens 2,7%
      Juridische procedure tegen de dader 2,3%
      Contact met hulporganisaties 1,5%
      Geïnformeerd bij rechtshulpverlener 1,3%
      Contact met rechtsbijstandverzekering 1,0%
      Juridisch adviseur of advocaat ingeschakeld 0,6%
      Juridische procedure tegen website/platform 0,6%

      Dit strookt met de bekendheid van mogelijkheden om schadelijke content te rapporteren. Meer dan 40% van de respondenten (224) is bekend met de mogelijkheid van notice-and action en 55,2% (287) met de mogelijkheid om aangifte te doen.39x Zie Rapport surveydata, p. 17. Dat steekt schril af bij het aantal respondenten – 8,9% (46) – dat bekend is met de mogelijkheid om een procedure tegen de website of het platform te starten, van welke aard dan ook (gerechtelijk of buitengerechtelijk, civiel of administratief). De meeste mensen weten blijkbaar niet dat de betrokken internetdienstverlener onder omstandigheden verplicht kan worden de content te verwijderen. Opvallend is ook het lage percentage dat rechtshulp zoekt, mede in het licht van de bevinding dat mensen ervan weerhouden worden om actie te ondernemen doordat het moeilijk is om een procedure te beginnen, of doordat zij er te weinig van afweten (zie hierna par. 4.1). Wel laten de open antwoorden zien dat respondenten de mogelijke stappen breed interpreteren, althans niet beperken tot juridische opties, laat staan remedies. Zo geven zij onder meer aan dat zij zich hebben afgemeld bij de website of hun gegevens hebben veranderd, wat wellicht mede kan worden verklaard in het licht van het relatief grote aantal respondenten dat te maken heeft gehad met scams.40x Zie Rapport surveydata, p. 13-14. De oplossing wordt dus niet altijd gezocht in het juridische domein, ook omdat het recht niet voor alle content die als schadelijk kan worden ervaren een remedie biedt (zie par. 2.1).

      3.2 Redenen om stappen te ondernemen

      De resultaten suggereren dat mensen vooral gefocust zijn op de dader, die vaak anoniem of onvindbaar is en alleen met medewerking van het platform (of door de politie) kan worden opgespoord.41x Zie Rapport surveydata, p. 14; vgl. WODC-onderzoek, p. 35. Om die ­reden proberen benadeelden soms de NAW-gegevens van degene die de content heeft geplaatst te achterhalen, zie bijv. de zaak die heeft geleid tot HR 10 november 2017, ECLI:NL:HR:2017:2844 (Google Inc.). Zie ook de in voetnoot 12 genoemde zaak tegen Facebook. Bijna 50% van de respondenten (257) gaf aan te willen dat de dader werd gestraft, en ongeveer evenveel (249) dat de dader werd ontmaskerd.42x Zie Rapport surveydata, p. 13. Een lager percentage wilde dat de content zo snel mogelijk werd verwijderd (33,8%) en/of niet meer te vinden zou zijn (19,2%). Waar bij notice-and-­action de nadruk ligt op verwijdering, is dat dus niet het enige doel dat men wilde bereiken.43x Aan respondenten die wél stappen hadden ondernomen, werd de open vraag gesteld met welk doel zij dat deden (zoals opkomen voor je eigen rechten); aan respondenten die geen stappen hadden ondernomen, werd de gesloten vraag voorgelegd – met een aantal opties (waaronder ‘anders, namelijk …’) – wat zij zouden willen dat er was gebeurd. De antwoorden zijn vervolgens samengevoegd. Slechts een klein percentage van de respondenten – 6,7% (35) – wilde financiële compensatie. Dit is van belang om te kunnen beoordelen of en in hoeverre bestaande procedures aansluiten bij de wensen en ­behoeftes van internetgebruikers. De verwachte opbrengst is medebepalend voor het al dan niet ondernemen van (juridische) stappen.44x Vgl. Ter Voert & Hoekstra 2020, p. 17. Het gaat in deze context om méér dan rechtsherstel in de vorm van ‘klassieke’ remedies als rectificatie of schadevergoeding. De schade is vaak immaterieel, en wordt vergroot door de schaal en snelheid van verspreiding van content via internet.45x WODC-onderzoek, p. 29-30. Met compensatie achteraf zijn benadeelden dus niet of nauwelijks gebaat. Deze bevindingen corresponderen ook met recent sociaalwetenschappelijk onderzoek dat liet zien dat mensen verschillende remedies voor ogen hebben bij schadelijke content, van verwijdering van de content tot een publieke verontschuldiging van de dader. De gewenste remedie hangt bovendien af van het type content. Dit betekent dat remedies in deze context ruim moeten worden opgevat en ‘responsief’ moeten zijn in de zin van aansluiten op de percepties van benadeelden.46x S. Schoenebeck e.a., ‘Online harassment: Assessing harms and remedies’, Social Media + Society (9) 2023, afl. 1, p. 1-12.
      Een andere interessante bevinding uit ons onderzoek is dat het percentage respondenten dat wil voorkomen dat anderen hetzelfde gebeurt (28,8%) iets hoger ligt dan het percentage dat persoonlijke schade wil voorkomen (20,9%). Dit doel overstijgt het bereiken van een oplossing voor het individuele probleem van de benadeelde (en het conflict of geschil, voor zover daarvan sprake is, met de dader en/of de betrokken internetdienstverlener). Opvallend is verder dat sommigen expliciet opmerkten dat het volgens hen zinloos was of nergens toe leidde om een melding of aangifte te doen van een schadelijke ­gedraging.47x Rapport surveydata, p. 13. Vgl. K. Vaccaro e.a., ‘“At the end of the day Facebook does what it wants”. How users experience contesting algorithmic content moderation’, Proceedings of the ACM on Human-Computer Interaction (4) 2020/167, No. CSCW 2, p. 3. Veel respondenten weten überhaupt niet of er iets mee gebeurt als zij content rapporteren; wij komen hierop ­terug in paragraaf 4.1.

    • 4. Wat belemmert de toegang tot recht?

      4.1 Mate waarin bepaalde zaken mensen ervan weerhouden actie te ondernemen

      Onderzoek naar toegang tot recht in het algemeen en de behoeftes van mensen in dat verband laat zien dat er verschillende soorten rechtzoekenden zijn, die zich in meer of mindere mate laten tegenhouden door uiteenlopende obstakels.48x Ter Voert & Hoekstra 2020, p. 85; A. Mein & F. de Meere, Motieven van burgers om (niet) naar de rechter te gaan (Raad voor de rechtspraak Re­search Memoranda 2018, nr. 3), Den Haag: Sdu Uitgevers 2018; C. Denvir & A.D. Selvarajah, ‘Safeguarding access to justice in the age of the online court’, Modern Law Review (85) 2022, afl. 1, p. 27. Mensen maken tot op zekere hoogte een kosten-batenafweging, waarbij het type probleem en de ernst daarvan de aanpak beïnvloeden.49x Ter Voert & Hoekstra 2020, p. 17. De term ‘obstakels’ suggereert dat het enkel gaat om objectief meetbare factoren zoals kosten, en dat het problemen aan de zijde van individuele rechtzoekenden ­betreft in plaats van systemische problemen. Er zijn echter ook socioculturele en demografische factoren die de toegang tot recht voor een individu beïnvloeden, alsmede structurele ­ongelijkheden op basis van bijvoorbeeld sociaaleconomische status, etniciteit of gender binnen het rechtssysteem.50x Macdonald 2012, p. 510; J. Beqiraj & L. McNamara, International access to justice: Barriers and solutions, International Bar Association 2014, p. 14 en 22. Zo kan worden gedacht aan een gebrek aan juridische diensten voor specifieke problemen of een opeenstapeling van problemen die niet wordt herkend door juridische dienstverleners: M. ter Voert, ‘Toegang tot recht in beweging. Over burgers en hun oplossingsstrategieën’, Jv 2014, afl. 1, p. 62-76, op p. 66, resp. Ter Voert & Hoekstra 2020, p. 15-16. Bij subjectieve factoren die een rol spelen, kan worden gedacht aan de beschikbaarheid van sociale en economische hulpbronnen en psychologische factoren, zoals juridisch vermogen (legal capability).51x Ter Voert & Hoekstra 2020, p. 16-17 en 19. Verschillen in zelfredzaamheid kunnen leiden tot ongelijke toegang tot recht en een ongelijke positie.52x Vgl. Ter Voert & Hoekstra 2020, p. 54. Zo blijken vooral lager opgeleide ouderen (65+) over onvoldoende digitale vaardigheden (digital capability) te beschikken om juridische informatie te kunnen vinden.53x College voor de Rechten van de Mens, Toegang tot het recht (jaarlijkse rapportage mensenrechten in Nederland), 2018, p. 47; European Union Agency for Fundamental Rights, Your rights matter: Data protection and privacy. Fundamental rights survey, Luxemburg: Publications Office of the European Union 2020, p. 9; Denvir & Selvarajah 2022, p. 48; A. van Deursen & J. van Dijk, ‘Internet skills and the digital divide’, New Media & Society (13) 2011, afl. 6, p. 893-911. Dat maakt het voor hen extra moeilijk om hun weg te vinden in het complexe juridische landschap in deze context.
      In ons onderzoek werd respondenten gevraagd in welke mate bepaalde zaken hen tegenhielden of het moeilijker maakten om actie te ondernemen, op een likertschaal van 1 tot 7 (zie tabel 3).54x Zie Rapport surveydata, p. 14.

      Tabel 3 Mate waarin respondenten worden tegengehouden (van 1 ‘dit houdt mij helemaal niet tegen’ tot 7 ‘dit houdt mij erg tegen’)
      Het kost (soms) geld 4,47
      Het is moeilijk om een juridische procedure te beginnen 4,34
      De dader is anoniem of onvindbaar 4,07
      Ik heb weinig vertrouwen in een rechtvaardig oordeel 3,99
      Het kan (te) lang duren voordat ik een uitkomst heb 3,67
      Er kan niets meer aan gedaan worden 3,66
      Het is onzeker of ik een positieve uitkomst krijg 3,65
      Ik weet er te weinig vanaf 3,60
      Het is stressvol 3,42
      Ik wil mijn omgeving er niet mee belasten 3,36
      Het probleem heeft zichzelf opgelost 3,33
      Het kost moeite 3,10
      Ik wil anderen niet beperken in wat ze wel of niet kunnen zeggen op internet 2,90
      Ik wil de dader niet confronteren 2,70

      Een statistische analyse leidt tot een aantal bevindingen in verband met sociodemografische kenmerken van de respondenten. Zo geven jongvolwassenen (in de leeftijd van 18 t/m 34 jaar) en volwassenen (35 t/m 49 jaar) – meer dan oudere leeftijdsgroepen – aan dat zij zich lieten tegenhouden omdat het moeilijk is om een juridische procedure te beginnen, omdat ze weinig vertrouwen hebben in een rechtvaardig oordeel, omdat het onzeker is of zij een positieve uitkomst krijgen, of omdat het veel moeite kost of stressvol is.55x Zie Rapport surveydata, p. 15. Dit komt ook overeen met recent sociaalwetenschappelijk onderzoek dat aantoont dat jongvolwassenen schadelijk gedrag online een alomtegenwoordig probleem vinden, maar zelf niet bereid zijn om te investeren in mogelijke oplossingen, en bovendien ook nog eens weinig hoop hebben dat de schade zal worden beperkt.56x R. Young e.a., ‘Young adults’ folk theories of how social media harms its users’, Mass Communication and Society (26) 2023, afl. 1, p. 23-46.
      Ten aanzien van een gebrek aan kennis als obstakel om (verdere) stappen te kunnen ondernemen, hebben wij specifiek gevraagd waar dat gebrek aan kennis betrekking op had. De meeste respondenten – 39% (203 van de 520) – wijten dat aan het feit dat ze niet weten of er iets mee gebeurt als ze schadelijke content rapporteren.57x Zie Rapport surveydata, p. 15. Verschillende transparantiemechanismen in de DSA proberen delen van dit probleem aan te pakken: zie art. 16 en 17. Alleen de groep die een hbo/wo-propedeuse of wo-bachelor heeft afgerond, wijt het gebrek aan kennis vaker aan het feit dat zij niet weten wie zij moeten aanklagen.58x Zie Rapport surveydata, p. 17. Dat is ook het meest voorkomende antwoord bij jongvolwassenen en volwassenen.59x Ibid. Van de jongvolwassenen weet 31,7% niet of het gedrag wel illegaal/onrechtmatig is; bij de andere leeftijdsgroepen ligt dat percentage veel lager.60x Zie Rapport surveydata, p. 16. Mensen met een migratieachtergrond hebben daar bovendien meer last van dan mensen met een Nederlandse afkomst; zij weten ook vaker niet waar zij terechtkunnen voor informatie of hulp. Van alle respondenten is minder dan 10% bekend met de mogelijkheid om hulp te vragen bij een daarvoor bestemde organisatie.61x Zie Rapport surveydata, p. 17.

      4.2 Belang van (ervaren) procedurele rechtvaardigheid

      Uit het voorgaande kunnen we concluderen dat er een correlatie is tussen (met name) leeftijd en – kort samengevat – de perceptie van de moeite die het kost om actie te ondernemen, onzekerheid over de uitkomst en het ontbreken van vertrouwen in een rechtvaardig oordeel. Dat laatste kan in verband worden gebracht met ervaren procedurele rechtvaardigheid. Daarmee doelen wij niet zozeer op de (juridische) randvoorwaarden voor een eerlijk proces, als wel op rechtspsychologisch onderzoek naar materiële en procedurele aspecten van de beslissing – en het proces dat daaraan voorafgaat – die van invloed zijn op het rechtvaardigheidsoordeel van mensen, zoals eigen inbreng (voice) hebben, gehoord worden en bezwaar kunnen maken.62x Zie o.a. R. Hollander-Blumhoff & T. Tyler, ‘Procedural justice and the rule of law: Fostering legitimacy in alternative dispute resolution’, Journal of Dispute Resolution 2011, afl. 1, p. 1-19; Van Gelder 2022, p. 10-11 met verdere literatuurverwijzingen; H.A.M. Grootelaar e.a., ‘Judicial and litigant perceptions in Dutch court cases: Perceptions of outcome importance overlap, perceptions of procedural justice diverge’, Social Justice ­Research (35) 2022, p. 243-274; C. Pan e.a., ‘Comparing the perceived legitimacy of content moderation processes’, Proceedings of the ACM on ­Human-Computer Interaction (6) 2022/82, No. CSCW 1, p. 20-21. Dit roept vragen op over het belang daarvan in deze context, zeker wanneer dit wordt afgezet tegen de bevinding dat respondenten (onder meer) snelheid belangrijker vinden dan kenmerken gerelateerd aan procedurele rechtvaardigheid. Desgevraagd vindt 39% van de respondenten het belangrijk dat de mogelijkheid om schadelijke content te rapporteren leidt tot een snelle afhandeling.63x Bij online content weegt de factor tijd extra zwaar (zie ook par. 3.2) omdat de content zich zeer snel kan verspreiden: WODC-onderzoek, p. 34. Het percentage dat waarde hecht aan een grondige toetsing, iemand persoonlijk kunnen spreken of bezwaarmogelijkheid is aanzienlijk lager dan het percentage dat waarde hecht aan gebruiksvriendelijkheid (zie tabel 4).64x Zie Rapport surveydata, p. 18.

      Tabel 4 Kenmerken van rapportagemogelijkheid en percentage dat die belangrijk vindt
      Rapportagemogelijkheid is makkelijk vindbaar 59,2%
      Rapportagemogelijkheid is gebruiksvriendelijk 45,4%
      Rapportagemogelijkheid is begrijpelijk 41,2%
      Rapportagemogelijkheid is informeel en laagdrem­pelig 40,6%
      Snelle afhandeling 39,0%
      Rapportage leidt ook echt tot verwijdering 30,8%
      Rapportagemogelijkheid is anoniem te gebruiken 30,2%
      Gemotiveerde reactie op de rapportage 29,8%
      Onafhankelijk toezicht 26,5%
      Iemand persoonlijk kunnen spreken 26,4%
      Grondige toetsing 26,0%
      Bezwaar kunnen maken tegen reactie 20,6%
      Bescherming van vrijheid van meningsuiting 17,7%

      De top 5 van deze kenmerken hangt samen met laagdrempeligheid.65x E. Bauw e.a., Naar een nabijheidsrechter? (WODC-eindrapport), Den Haag: WODC 2019, p. 22 (Kamerstukken I 2019/20, 35300, C). Dit rapport noemt – in het kader van toegang tot de rechter – onder meer een temporeel aspect (snelle doorlooptijden), een menselijk aspect (het vinden van gehoor en begrip) en een cognitief aspect (begrijpelijkheid van procedures en uitspraken). Opvallend is dat bescherming van de vrijheid van meningsuiting onderaan staat. Dat kan deels worden verklaard doordat de survey uitsluitend gericht was op mensen die ­geconfronteerd worden met schadelijk gedrag online, en niet op mensen van wie de content verwijderd wordt. Hier rijst de vraag of procedurele waarborgen belangrijker gevonden zouden worden in het licht van het gevaar van ‘oververwijdering’, waarbij mechanismen om schadelijke content te verwijderen ertoe leiden dat (te) veel legale content ook weggefilterd wordt.66x Zie ook WODC-onderzoek, p. 46 en 57; Europese Commissie, Open ­public consultation on the Digital Services Act package (samenvatting van de openbare consultatie over de DSA), Brussel 2020, p. 5. Zie verder Kuczerawy 2018. Belangrijk om te benadrukken is dat deze oververwijdering gemarginaliseerde groepen vaak disproportioneel raakt,67x C. Are, ‘An autoethnography of automated powerlessness: Lacking platform affordances in Instagram and TikTok account deletions’, Media, Culture & Society (45) 2022, afl. 4, p. 822-840; B. Duffy & C. Meisner, ‘Platform governance at the margins: Social media creators’ experiences with algorithmic (in)visibility’, Media, Culture & Society (45) 2022, afl. 2, p. 285-304. wat de juridische en maatschappelijke complexiteit van contentmoderatie en toegang tot recht goed illustreert.

    • 5. Conclusie

      Het onderzoek bevestigt de heterogeniteit van de problematiek:68x N. Appelman e.a., ‘Access to digital justice: In search of an effective remedy for removing unlawful online content’, in: X.E. Kramer e.a. (red.), Frontiers in civil justice. Privatisation, monetisation and digitisation, Cheltenham: Edward Elgar Publishing 2022, p. 217-236. mensen krijgen te maken met uiteenlopende gedragingen en obstakels, de verschillende toepasselijke normenkaders nog daargelaten. Of de benadering die de DSA voorstaat – een laagdrempelige notice-and-action-procedure met daaraan verbonden procedurele waarborgen, zoals een gemotiveerde reactie69x Art. 17 DSA. Zie over deze ‘procedural turn’ Ortolani 2023. – voldoende recht doet aan die heterogeniteit, is nog maar de vraag. Dat geldt te meer nu er een mismatch lijkt te zijn tussen de bestaande mogelijkheden om op te komen tegen schadelijk gedrag online en wat benadeelden feitelijk doen of willen.
      Ten eerste maakt maar een kwart van de mensen die geconfronteerd worden met schadelijke content gebruik van no­tice-and-action. Ten tweede is notice-and-action gericht op verwijdering van de content, maar voor benadeelden is dat als gezegd niet het enige doel. Respondenten willen ook en vooral de dader straffen of ontmaskeren. Met het oog daarop is anonimiteit of onvindbaarheid van de dader een belangrijke barrière, die het nemen van (civielrechtelijke) rechtsmaatregelen ook moeilijker maakt.70x Zie ook WODC-onderzoek, p. 25. Ten derde: vrijwel niemand start een juridische procedure en/of schakelt rechtshulp in, terwijl de moeilijkheid om een procedure te beginnen en een gebrek aan kennis reële obstakels zijn. Voor jongvolwassenen geldt specifiek dat zij weliswaar over meer digitale vaardigheden beschikken, maar zich tegelijkertijd meer weerhouden voelen omdat het moeilijk is om een procedure te beginnen, of omdat ze niet ­weten of het gedrag in kwestie illegaal/onrechtmatig is.
      Bovendien lijkt (ervaren) procedurele rechtvaardigheid op het eerste gezicht minder belangrijk dan laagdrempeligheid als het gaat om de mogelijkheid om schadelijk gedrag online te rapporteren. Naar aanleiding van onze eerdere studie concludeerden wij al dat de inrichting van snelle, laagdrempelige en schaalbare remedies op gespannen voet staat met procedurele (rechtsstatelijke) waarborgen, zoals hoor en wederhoor en ­bescherming van de vrijheid van meningsuiting.71x WODC-onderzoek, p. 12. Daarmee is overigens niet gezegd dat procedurele rechtvaardigheid in deze context niet van belang zou zijn. Het onderzoek wijst er juist op dat mensen zich laten tegenhouden doordat zij weinig vertrouwen hebben in een rechtvaardig oordeel, of door onzekerheid over de uitkomst; veel respondenten weten niet of er iets mee gebeurt als zij schadelijke content rapporteren. In zoverre zijn de bestaande procedures voor rechtzoekenden een black box, wat de relevantie en urgentie van ‘digital due process’ ­onderstreept.72x Vgl. S. Meyers West, ‘Censored, suspended, shadowbanned: User interpretations of content moderation on social media platforms’, New ­Media & Society (20) 2011, afl. 11, p. 4366-4383, op p. 4379. Zie ook P. Ortolani, Digital due process. The pursuit of fairness in digital adjudication (oratie Nijmegen), 2021. De DSA zoekt de oplossing in informatie- en transparantieverplichtingen voor onlineplatforms (art. 16 en 17): P. Leerssen, ‘An end to shadow banning? Transparency rights in the Digital Services Act between content moderation and curation’, Computer Law & Security Review (48) 2023, 105790.
      Toegang tot recht en ‘digital due process’ zijn niet alleen van belang in individuele zaken, maar hebben ook een maatschappelijke dimensie.73x Zie o.a. F. Mostert, ‘“Digital due process”: A need for online justice’, Journal of Intellectual Property Law & Practice (5) 2020, afl. 5, p. 378-389. De kritiek op een burgergerichte benadering die legal needs centraal stelt, luidt dat te veel wordt vertrouwd op de eigen kracht van mensen om hun problemen zelf op te lossen.74x Westerveld 2022, p. 1615 en 1620. Met ons onderzoek willen wij niet voorbijgaan aan de noodzaak van systemische oplossingen bij contentmoderatie, zoals risicobeperkende maatregelen,75x Vgl. art. 34-35 DSA (van toepassing op zeer grote onlineplatforms en ­onlinezoekmachines). administratieve handhaving76x Hoofdstuk IV DSA. en collectieve acties.77x Art. 86 en 90 DSA; Annex I bij Richtlijn (EU) 2020/1828 van het Europees Parlement en de Raad van 25 november 2020 betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten. Integendeel: ons onderzoek wijst uit dat bij de aanpak van schadelijke content niet te sterk geleund kan worden op het procesinitiatief van individuele benadeelden. De vraag of content in een concreet geval illegaal of onrechtmatig is – en dus verwijderd moet worden –, blijft dan vaak onbeantwoord.
      Het vorenstaande doet er niet aan af dat de rapportagemogelijkheid op platforms in de praktijk een belangrijke (buitengerechtelijke) route blijft. Ons onderzoek laat zien dat zowel de bekendheid als de vindbaarheid, gebruiksvriendelijkheid en begrijpelijkheid punten van aandacht zijn. Degenen voor wie deze route is bedoeld, weten hun weg ernaartoe (nog) niet te vinden, ook al ervaren velen hun probleem als ernstig. Waar het rechtssysteem mensen wel aanspraak geeft op een remedie, maar zij daar geen gebruik van kunnen maken of die remedie niet aansluit bij wat zij nodig hebben, schiet de toegang tot recht tekort. De bevindingen bieden aanknopingspunten voor wat ook wel een ‘human-centered design approach to access to justice’ wordt genoemd,78x M. Hagan, ‘A human-centered design approach to access to justice. Generating new prototypes and hypotheses for intervention to make courts user-friendly’, Indiana Journal of Law and Social Equality (6) 2018, afl. 2, p. 199-239. waarbij rekening wordt gehouden met de ervaringen en behoeftes van rechtzoekenden – en hun digitale vaardigheden – bij de inrichting en vormgeving van (online) tools die hen helpen een passende remedie te vinden. Een dergelijke benadering kan bijdragen aan de implementatie van de DSA als iteratief en responsief proces, dat de toegang tot recht én procedurele rechtvaardigheid in deze context daadwerkelijk vergroot.

    Noten

    • 1 J.M.L. van Duin, N.M.I.D. Appelman, B. Zarouali & P. van den Bosch, Rapport surveydata Schadelijk gedrag online in Nederland. Resultaten en nadere analyse van surveydata over de ervaringen van mensen in Nederland met schadelijk gedrag online en (juridische) stappen naar aanleiding daarvan, Amsterdam 2022 (hierna verkort aangeduid als: Rapport surveydata), te raadplegen via https://dsa-observatory.eu/wp-content/uploads/2022/09/Rapport_surveydata_schadelijk_gedrag_online_Nederland.pdf. De survey is gerealiseerd met een thematische onderzoeksbeurs van het Amsterdam Centre for European Studies (ACES).

    • 2 J. van Hoboken, N. Appelman, A. van Duin, T. Blom, B. Zarouali, M. Seel, E. Stringhi, N. Helberger & R. Ó Fathaigh, WODC-onderzoek. Voorziening voor verzoeken tot snelle verwijdering van onrechtmatige online content (WODC Rapport 3108), Amsterdam 2020, bijlage bij ­Kamerstukken II 2020/21, 34602, nr. 6 (hierna verkort aangeduid als: WODC-onderzoek). In dit artikel verwijzen wij op enkele plaatsen naar dit onderzoek voor een nadere toelichting op de achtergrond van de problematiek.

    • 3 Het concept ‘access to justice’ is niet eenduidig, maar het betekent in ieder geval dat het rechtssysteem in gelijke mate toegankelijk is voor iedereen en leidt tot uitkomsten die individueel en maatschappelijk rechtvaardig zijn en gericht op zowel preventie als reparatie: M. Westerveld, ‘Toegang tot het recht. Een problematisch concept’, NJB 2022, afl. 20, p. 1613-1620. Het is breder dan toegang tot de rechter. Cruciaal is dat de verwezenlijking van rechten niet illusoir wordt door allerlei barrières: N. Doornbos, ‘Toegang tot het recht: een rechtssociologische analyse’, in: D. de Wolff (red.), Toegang tot recht. Beschouwingen aangeboden aan Mies Westerveld, Den Haag: Boom juridisch 2019, p. 25-44.

    • 4 Verordening (EU) 2022/2065 van het Europees Parlement en de Raad van 19 oktober 2022 betreffende een eengemaakte markt voor digitale diensten en tot wijziging van Richtlijn 2000/31/EG.

    • 5 ‘Illegale inhoud’ is alle informatie die op zichzelf of in verband met een activiteit, waaronder de verkoop van producten of het aanbieden van diensten, indruist tegen het Unierecht of tegen het met Unierecht in overeenstemming zijnde recht van een lidstaat, ongeacht het precieze voorwerp of de precieze aard van dat recht (art. 3(h) DSA en preambule 12). Dat is een zeer brede definitie, die niet een-op-een samenvalt met onrechtmatige inhoud of schadelijke inhoud; zie daarover par. 2.1.

    • 6 Art. 16 DSA. Zie hierover o.a. P. Wolters, ‘De vlucht naar voren in de ­Digital Services Act’, AA 2022, p. 191-201; P. Ortolani, ‘The resolution of content moderation disputes under the Digital Services Act’, Giustizia Consensuale 2022, afl. 2, p. 533-573; A. Kuczerawy, ‘From “notice and take down” to “notice and stay down”. Risks and safeguards for freedom of expression’, in: G. Frosio (red.), The Oxford handbook of intermediary liability online, Oxford: Oxford University Press 2019, p. 524-543; F. Wilman, ‘De Digital Services Act (DSA): een belangrijke stap naar betere regulering van onlinedienstverlening’, NtER 2022, afl. 9/10, p. 220-232. Tot de invoering van de DSA werd door veel online dienstverleners geen notice-and-action- en/of geschillenbeslechtingsmechanisme aangeboden, maar alleen een rapportagemogelijkheid als gevolg van de hierna besproken ‘safe harbour’-bepalingen; zie o.a. Council of Europe, Terms of service and human rights. An analysis of online platform contracts, 2016. De DSA vormt in die zin een uitbreiding en codificatie van de staande praktijk.

    • 7 Zie o.a. C. Goanta & P. Ortolani, ‘Unpacking content moderation: The rise of social media platforms as online civil courts’, in: X.E. Kramer e.a. (red.), Frontiers in civil justice. Privatisation, monetisation and digitisa­tion, Cheltenham: Edward Elgar Publishing 2022, p. 192-216; E.M. van Gelder & J.M.L. van Duin, ‘In de schaduw van het recht: over PayPal’s Resolution Centre en kwaliteitsstandaarden voor cODR op online platforms’, in: P. Ortolani e.a. (red.), Digitalisering en conflictoplossing, Deventer: Wolters Kluwer 2021, p. 129-146.

    • 8 M. Huijstee e.a., Online ontspoord. Een verkenning van schadelijk en immoreel gedrag op het internet in Nederland, Den Haag: Rathenau Instituut 2021; Bureau Clara Wichmann, Onderzoeksrapport online gendered hate speech: civiel procederen tegen online hate speech, Amsterdam 2020.

    • 9 WODC-onderzoek, p. 35. Deze analyse is gebaseerd op de praktijk van notice-and-action onder art. 14 Richtlijn elektronische handel (geïmplementeerd in art. 6:196c BW), thans art. 6 DSA; zie hierna verder par. 3.1.

    • 10 De DSA beoogt hier verandering in te brengen door te bepalen dat melders toegang moeten hebben tot een doeltreffend intern klachtenafhandelingssysteem (art. 20) en buitengerechtelijke geschillenbeslechting door een gecertificeerde instantie (art. 21), zonder dat dit afbreuk doet aan het recht op een doeltreffende voorziening in rechte uit hoofde van art. 47 EU-Grondrechtenhandvest. Zie o.a. E.M. van Gelder, Consumer online dispute resolution pathways in Europe, Den Haag: Eleven 2022, p. 203-205, 259-260 en 264; P. Ortolani, ‘If you build it, they will come. The DSA “procedure before substance” approach’, in: J. van Hoboken e.a. (red.), Putting the DSA into practice. Enforcement, access to justice and ­global implications, Berlijn: Verfassungsblog 2023.

    • 11 Rb. Amsterdam 16 februari 2022, ECLI:NL:RBAMS:2022:557, r.o. 5.26-5.27.

    • 12 Een notoir voorbeeld van een van de weinige zaken waarin dit wél is gebeurd, is de zaak van een slachtoffer van ‘wraakporno’, die in kort geding een veroordeling van Facebook eiste om de gegevens van de dader ­(accounthouder) te verstrekken: Rb. Amsterdam 25 juni 2015, ECLI:NL:RBAMS:2015:3984.

    • 13 Zie Rapport surveydata, p. 2-3.

    • 14 Vgl. R. Macdonald, ‘Access to civil justice’, in: P. Cane & H. Kritzer (red.), The Oxford handbook of empirical legal research, Oxford: Oxford University Press 2012, p. 492-521, op p. 517-518: ‘Most human conflict finds expression in language that only remotely mirrors that of legislative and judicial processes. Empirical research must target the everyday law of social interaction where inaccessible justice is first perceived. (…) Studies that enable policy-makers to understand the legal needs of the public, as expressed by citizens themselves – and not according to a matrix derived from the existing framework of substantive and procedural laws – are the optimal vehicles for ensuring that an accessible system of law is also an accessible system of justice.’

    • 15 Zie daarover WODC-onderzoek, p. 39-41.

    • 16 Ons begrip van ‘remedie’ heeft zowel een materiële als een procedurele component, in die zin dat er een rechtsvordering toekomt aan de benadeelde partij, op grond waarvan deze toegang heeft tot een (buitengerechtelijke of gerechtelijke) procedure; vgl. A. van Duin, Effective judicial protection in consumer litigation, Cambridge: Intersentia 2022, p. 5 en 24-25. Remedies moeten de benadeelde partij een vorm van reparatie, compensatie of erkenning bieden: T. Nuninga, Recht, plicht, remedie, Deventer: Wolters Kluwer 2022, p. 18-19. Het gaat om het bereiken van een oplossing én om de weg daarnaartoe: N. Creutzfeldt, Ombudsmen and ADR: A comparative study of informal justice in Europe, Cham: Springer International Publishing 2018, p. 15; zie hierna ook par. 4.2.

    • 17 Zo geldt voor het verstrekken van NAW-gegevens (naam, adres, woonplaats) door de internetdienstverlener van gebruikers die anonieme uitingen doen een specifiek beoordelingskader: zie HR 25 november 2005, ECLI:NL:HR:2005:AU4019 (Lycos/Pessers).

    • 18 B. van Rooij, ‘Do people know the law? Empirical evidence about legal knowledge and its implications for compliance’, in: B. van Rooij & D.D. Sokol (red.), Cambridge handbook of compliance, Cambridge: Cambridge University Press 2021, p. 467-488. Zie ook Doornbos 2019, p. 29: ‘[G]epercipieerde rechten – de rechten zoals die door de persoon in kwestie ervaren worden – komen echter niet altijd overeen met objectief omschreven rechten, zoals neergelegd in wet- en regelgeving’.

    • 19 M. Banko e.a., ‘A unified typology of harmful content’, in: Association of Computational Linguistics, Proceedings of the fourth workshop on ­online abuse and harms, 2020, p. 125-137, te raadplegen via https://aclanthology.org/2020.alw-1.16/.

    • 20 Hiermee wordt gedoeld op privacyschendingen in horizontale (private) verhoudingen tussen burgers onderling en burgers en bedrijven: B. Schermer & B. van der Sloot, Het recht op privacy in horizontale verhoudingen (WODC Rapport 3062), Tilburg 2020 (Kamerstukken II 2020/21, 34926, nr. 11).

    • 21 Zie verder O. Haimson e.a., ‘Disproportionate removals and differing content moderation experiences for conservative, transgender, and black social media users. Marginalization and moderation gray areas’, Pro­ceed­ings of the ACM on Human-Computer Interaction (5) 2021/466, No. CSCW2; J. Vitak e.a., ‘Identifying women’s experiences with and strategies for mitigating negative effects of online harassment’, in: Pro­ceed­ings of the 2017 ACM Conference on computer supported cooperative work and social computing, 2017, p. 1231-1245; B. Duffy & C. Meisner, ‘Platform governance at the margins: Social media creators’ experiences with algorithmic (in)visibility’, Media, Culture & Society (45) 2022, afl. 2, p. 285-204; A. Powell, A. Scott & N. Henry, ‘Digital harassment and abuse: Experiences of sexuality and gender minority adults’, European Journal of Criminology (17) 2020, afl. 2, p. 199-223.

    • 22 Zie Rapport surveydata, p. 7-8; in de typologie van Banko gaat het om ‘identity attacks’ en ‘identity misrepresentation’ resp. ‘sexual agressions’.

    • 23 Zie de vragenlijst in Rapport surveydata, hoofdstuk 4. De survey is uitgezet door Panel Inzicht, een toonaangevend onderzoeksbureau dat werkt met online panels in Nederland.

    • 24 Zowel de filtervraag als de follow-upvraag om welk gedrag het ging, was open geformuleerd – zonder nadere specificatie – om te weten te komen wat mensen zelf onder ‘schadelijk gedrag online’ verstaan. Het percentage van 20,8% verwijst naar het deel van de respondenten dat zegt dat zij hiermee te maken hebben gehad, op basis van hun eigen (subjectieve) oordeel. Het kan zo zijn dat iemand die bijvoorbeeld in aanraking is gekomen met phishing, maar dat niet als problematisch heeft ervaren, de filtervraag met ‘nee’ heeft beantwoord. Het percentage mensen dat daadwerkelijk te maken heeft gehad met schadelijk gedrag online kan in realiteit dus nog hoger liggen.

    • 25 Zie met name Rapport surveydata, p. 4 en 6.

    • 26 Banko e.a. 2020, p. 20.

    • 27 Zie Rapport surveydata, p. 6-8.

    • 28 Zie Rapport surveydata, p. 7.

    • 29 Zie Rapport surveydata, p. 8 en 10. Op een schaal van 1 tot 7 (van ‘ik vond het helemaal niet erg’ tot ‘ik vond het heel erg’) gaf 77,9% van de respondenten een 5 of hoger.

    • 30 Zie Rapport surveydata, p. 11. Er bestaat een significant maar zwak verband tussen de perceptie van de ernst van het probleem en het al dan niet ondernemen van actie.

    • 31 Zie hierover uitvoerig WODC-onderzoek, hoofdstuk 4 en 5. Onder de DSA komt daar een nieuwe optie bij: de Digital Services Coordinator (DSC), waar particulieren ook klachten kunnen indienen (art. 49).

    • 32 Art. 6 DSA.

    • 33 HvJ EU 12 juli 2011, C-324/09, ECLI:EU:C:2011:474 (L’Oréal/Ebay); F. Wilman, The responsibility of online intermediaries for illegal user content in the EU and the US, Cheltenham: Edward Elgar Publishing 2020; A. Kuczerawy, Intermediary liability and freedom of expression in the EU. From concepts to safeguards, Cambridge: Intersentia 2018.

    • 34 Art. 6(4) DSA.

    • 35 Zie o.a. Doornbos 2019, p. 25; E. Bauw e.a., Togadragers in de rechtsstaat. De juridische professies en de toegang tot het recht, Den Haag: Boom juridisch 2022, p. 216.

    • 36 WODC-onderzoek, p. 91. Vgl. M.J. ter Voert & M.S. Hoekstra, Geschil­beslechtingsdelta 2019. Over verloop en afloop van (potentieel) juridische problemen van burgers (Cahier 2020-18), Den Haag: WODC 2020, p. 23.

    • 37 WODC-onderzoek, p. 92-93.

    • 38 Zie Rapport surveydata, p. 11-12. Respondenten konden meerdere opties aanvinken (waaronder ‘anders, namelijk …’).

    • 39 Zie Rapport surveydata, p. 17.

    • 40 Zie Rapport surveydata, p. 13-14.

    • 41 Zie Rapport surveydata, p. 14; vgl. WODC-onderzoek, p. 35. Om die ­reden proberen benadeelden soms de NAW-gegevens van degene die de content heeft geplaatst te achterhalen, zie bijv. de zaak die heeft geleid tot HR 10 november 2017, ECLI:NL:HR:2017:2844 (Google Inc.). Zie ook de in voetnoot 12 genoemde zaak tegen Facebook.

    • 42 Zie Rapport surveydata, p. 13.

    • 43 Aan respondenten die wél stappen hadden ondernomen, werd de open vraag gesteld met welk doel zij dat deden (zoals opkomen voor je eigen rechten); aan respondenten die geen stappen hadden ondernomen, werd de gesloten vraag voorgelegd – met een aantal opties (waaronder ‘anders, namelijk …’) – wat zij zouden willen dat er was gebeurd. De antwoorden zijn vervolgens samengevoegd.

    • 44 Vgl. Ter Voert & Hoekstra 2020, p. 17.

    • 45 WODC-onderzoek, p. 29-30.

    • 46 S. Schoenebeck e.a., ‘Online harassment: Assessing harms and remedies’, Social Media + Society (9) 2023, afl. 1, p. 1-12.

    • 47 Rapport surveydata, p. 13. Vgl. K. Vaccaro e.a., ‘“At the end of the day Facebook does what it wants”. How users experience contesting algorithmic content moderation’, Proceedings of the ACM on Human-Computer Interaction (4) 2020/167, No. CSCW 2, p. 3.

    • 48 Ter Voert & Hoekstra 2020, p. 85; A. Mein & F. de Meere, Motieven van burgers om (niet) naar de rechter te gaan (Raad voor de rechtspraak Re­search Memoranda 2018, nr. 3), Den Haag: Sdu Uitgevers 2018; C. Denvir & A.D. Selvarajah, ‘Safeguarding access to justice in the age of the online court’, Modern Law Review (85) 2022, afl. 1, p. 27.

    • 49 Ter Voert & Hoekstra 2020, p. 17.

    • 50 Macdonald 2012, p. 510; J. Beqiraj & L. McNamara, International access to justice: Barriers and solutions, International Bar Association 2014, p. 14 en 22. Zo kan worden gedacht aan een gebrek aan juridische diensten voor specifieke problemen of een opeenstapeling van problemen die niet wordt herkend door juridische dienstverleners: M. ter Voert, ‘Toegang tot recht in beweging. Over burgers en hun oplossingsstrategieën’, Jv 2014, afl. 1, p. 62-76, op p. 66, resp. Ter Voert & Hoekstra 2020, p. 15-16.

    • 51 Ter Voert & Hoekstra 2020, p. 16-17 en 19.

    • 52 Vgl. Ter Voert & Hoekstra 2020, p. 54.

    • 53 College voor de Rechten van de Mens, Toegang tot het recht (jaarlijkse rapportage mensenrechten in Nederland), 2018, p. 47; European Union Agency for Fundamental Rights, Your rights matter: Data protection and privacy. Fundamental rights survey, Luxemburg: Publications Office of the European Union 2020, p. 9; Denvir & Selvarajah 2022, p. 48; A. van Deursen & J. van Dijk, ‘Internet skills and the digital divide’, New Media & Society (13) 2011, afl. 6, p. 893-911.

    • 54 Zie Rapport surveydata, p. 14.

    • 55 Zie Rapport surveydata, p. 15.

    • 56 R. Young e.a., ‘Young adults’ folk theories of how social media harms its users’, Mass Communication and Society (26) 2023, afl. 1, p. 23-46.

    • 57 Zie Rapport surveydata, p. 15. Verschillende transparantiemechanismen in de DSA proberen delen van dit probleem aan te pakken: zie art. 16 en 17.

    • 58 Zie Rapport surveydata, p. 17.

    • 59 Ibid.

    • 60 Zie Rapport surveydata, p. 16.

    • 61 Zie Rapport surveydata, p. 17.

    • 62 Zie o.a. R. Hollander-Blumhoff & T. Tyler, ‘Procedural justice and the rule of law: Fostering legitimacy in alternative dispute resolution’, Journal of Dispute Resolution 2011, afl. 1, p. 1-19; Van Gelder 2022, p. 10-11 met verdere literatuurverwijzingen; H.A.M. Grootelaar e.a., ‘Judicial and litigant perceptions in Dutch court cases: Perceptions of outcome importance overlap, perceptions of procedural justice diverge’, Social Justice ­Research (35) 2022, p. 243-274; C. Pan e.a., ‘Comparing the perceived legitimacy of content moderation processes’, Proceedings of the ACM on ­Human-Computer Interaction (6) 2022/82, No. CSCW 1, p. 20-21.

    • 63 Bij online content weegt de factor tijd extra zwaar (zie ook par. 3.2) omdat de content zich zeer snel kan verspreiden: WODC-onderzoek, p. 34.

    • 64 Zie Rapport surveydata, p. 18.

    • 65 E. Bauw e.a., Naar een nabijheidsrechter? (WODC-eindrapport), Den Haag: WODC 2019, p. 22 (Kamerstukken I 2019/20, 35300, C). Dit rapport noemt – in het kader van toegang tot de rechter – onder meer een temporeel aspect (snelle doorlooptijden), een menselijk aspect (het vinden van gehoor en begrip) en een cognitief aspect (begrijpelijkheid van procedures en uitspraken).

    • 66 Zie ook WODC-onderzoek, p. 46 en 57; Europese Commissie, Open ­public consultation on the Digital Services Act package (samenvatting van de openbare consultatie over de DSA), Brussel 2020, p. 5. Zie verder Kuczerawy 2018.

    • 67 C. Are, ‘An autoethnography of automated powerlessness: Lacking platform affordances in Instagram and TikTok account deletions’, Media, Culture & Society (45) 2022, afl. 4, p. 822-840; B. Duffy & C. Meisner, ‘Platform governance at the margins: Social media creators’ experiences with algorithmic (in)visibility’, Media, Culture & Society (45) 2022, afl. 2, p. 285-304.

    • 68 N. Appelman e.a., ‘Access to digital justice: In search of an effective remedy for removing unlawful online content’, in: X.E. Kramer e.a. (red.), Frontiers in civil justice. Privatisation, monetisation and digitisation, Cheltenham: Edward Elgar Publishing 2022, p. 217-236.

    • 69 Art. 17 DSA. Zie over deze ‘procedural turn’ Ortolani 2023.

    • 70 Zie ook WODC-onderzoek, p. 25.

    • 71 WODC-onderzoek, p. 12.

    • 72 Vgl. S. Meyers West, ‘Censored, suspended, shadowbanned: User interpretations of content moderation on social media platforms’, New ­Media & Society (20) 2011, afl. 11, p. 4366-4383, op p. 4379. Zie ook P. Ortolani, Digital due process. The pursuit of fairness in digital adjudication (oratie Nijmegen), 2021. De DSA zoekt de oplossing in informatie- en transparantieverplichtingen voor onlineplatforms (art. 16 en 17): P. Leerssen, ‘An end to shadow banning? Transparency rights in the Digital Services Act between content moderation and curation’, Computer Law & Security Review (48) 2023, 105790.

    • 73 Zie o.a. F. Mostert, ‘“Digital due process”: A need for online justice’, Journal of Intellectual Property Law & Practice (5) 2020, afl. 5, p. 378-389.

    • 74 Westerveld 2022, p. 1615 en 1620.

    • 75 Vgl. art. 34-35 DSA (van toepassing op zeer grote onlineplatforms en ­onlinezoekmachines).

    • 76 Hoofdstuk IV DSA.

    • 77 Art. 86 en 90 DSA; Annex I bij Richtlijn (EU) 2020/1828 van het Europees Parlement en de Raad van 25 november 2020 betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten.

    • 78 M. Hagan, ‘A human-centered design approach to access to justice. Generating new prototypes and hypotheses for intervention to make courts user-friendly’, Indiana Journal of Law and Social Equality (6) 2018, afl. 2, p. 199-239.


Print dit artikel