Dit artikel volgt op een artikel uit 2018 over filtering en wetgeving. Met de Communications Decency Act (CDA) van 1996 – een aanvulling van de Telecomwet - wilde het Amerikaanse Congres de verspreiding van online porno beperken, vooral om kinderen te sparen. In 1997 veegde het Hooggerechtshof de gewraakte bepalingen van tafel in de baanbrekende zaak Reno vs. ACLU. De motivatie: ‘We erkennen dat de overheid belang heeft bij bescherming van kinderen tegen schadelijk materiaal, maar dat rechtvaardigt niet een brede onderdrukking van uitingen door volwassenen.’
De CDA kende een tweede belangrijk onderwerp dat wel wet werd, via een ‘Sectie 230’: beperking van de aansprakelijkheid van internetproviders. Zij waren, anders dan uitgevers en tv-zenders, niet aansprakelijk voor de inhoud van de boodschappen die hun klanten verspreiden. Dat ging toen voornamelijk om aanbieders van toegang tot internet, zoals America Online, die klanten ook mogelijkheden bood voor publicatie van eigen homepages.
Ook daarover ontstonden juridische disputen. Planet Multimedia van april 1999: ‘Steeds complexer wordt de kwestie van de vrijheid van meningsuiting versus censuur op Internet, zo blijkt uit artikelen in de New York Times en Techweb. Het gaat om een zaak van Annoy.com waarvoor uitgever ApolloMedia een beroep doet op de vrijheid van meningsuiting om censuur op grond van de Communications Decency Act in de VS te voorkomen.’
Annoy.com was een website die gebruikers de mogelijkheid bood om anoniem e-mailcommentaar te sturen naar politici en andere nieuwsfiguren, een legale vuilspuit. Conform de CDA was Annoy.com niet aansprakelijk voor de inhoud van de doorgestuurde mails, maar moest wel obscene berichten tegenhouden
Vrijwaring van tussenpersonen in het geding
Het NYT-artikel geeft de worsteling van Amerikaanse rechtbanken weer bij de interpretatie van wat de grens was tussen ‘obsceen’ en onfatsoenlijk. Zo voerde British Telecom in 1997 een 'taste and decency' beleid in: Internetklanten moesten zich houden aan regels van betamelijkheid en goede smaak. En CompuServe dreigde het hoofdkantoor uit Duitsland te verplaatsen als het land extra verplichtingen zou opleggen aan internetaanbieders voor wat betreft de inhoud van het gepubliceerde. Het Europees Parlement liet toen onderzoek doen naar een adequaat systeem om ongewenste uitingen op Internet te bestrijden.
In 2000 leidde de jurisprudentie om internetaanbieders als tussenpersonen niet aansprakelijk te houden voor de distributie van uitingen tot de E-commerce richtlijn. Het principe van de ‘mere conduit’ van Art. 12 voor enkel doorgifte. Als voorwaarden staan in de wet dat de doorgever passief blijft:
1. niet het initiatief neemt tot de overdracht;
2. de ontvanger van de transmissie niet selecteert; en
3. Niet de informatie selecteert of wijzigt.
Aparte regels kwamen er voor caching, het tijdelijk opslaan van uitingen, en voor hosting. In dit leerstuk van de Vrije Universiteit, biedt uitleg, net Iusmentis. In een vraaggesprek met Christiaan Alberdingk Thijm van 2011 op Netkwesties komen de grenzen uitgebreid aan bod. Hij sprak zijn zorgen uit over het gebrek aan regels voor de platforms.
Die derde voorwaarde van ‘mere conduit’ lijkt een mogelijkheid om sociale media wel aansprakelijk te stellen voor ongewenste distributie. Echter mere conduit staat voor toegang tot internet en door doorgifte van berichten, Facebook werd juridisch beschouwd als opslagplatform, zo zette hoogleraar Arno Lodder van de Vrije Universiteit, uiteen in een analyse van de richtlijn; en in een commentaar op een rechtszaak rond illegaal aanbod op Marktplaats.
In de VS en in Europa zijn vele debatten en rechtszaken gevoerd over de aansprakelijkheid van tussenpersonen. Het accent verschoof van seks naar terrorisme: moeten en kunnen ongewenste boodschappen van het net worden geweerd? Maar ook commercie was inzet van de strijd, bijvoorbeeld tussen Google en Luis Vuitton over Adwords, en recent nog met een door Talpa gewonnen kort geding tegen Facebook. Advocaat Jens van den Brink voerde in dit geval tevergeefs aan dat Facebook niet aansprakelijk is voor uitingen en handelingen van derden op haar platform.
De vrijwaring van platforms voor aansprakelijkheid staat ter discussie, zowel in de VS als in Europa. In de VS wordt Sectie 230 van de CDA waarschijnlijk aangepast. Een hoorzitting deze week in de Senaat was, mede door de aanstaande verkiezingen, sterk gepolitiseerd. In Europa staan nieuwe wetten op stapel om Big Tech aansprakelijk te maken voor kwalijke distributie en de gevolgen ervan.
Het schrappen van de vrijwaring kan ten koste gaan vrije meningsuiting. De verhoudingen mogen dan als gevolg van de inzet van geautomatiseerde selectie van uitingen afgelopen kwart eeuw zijn veranderd, de principes zijn dat niet.
Van seks naar desinformatie
Facebook wordt nu gewraakt vanwege de selectie van uitingen voor haar deelnemers, op grond van beslisregels die in software zijn verankerd. Deze ‘algoritmes’ hebben in de media een nare smaak gekregen door eenzijdige berichtgeving. Maar een algoritme wordt gemaakt om een probleem op te lossen, en doet dat meestal zinnig, maar soms kwalijk. (zie Zijn vrouwen dom? Algoritme geeft antwoord.)
Facebooks software bepaalt de selectie van de grote hoeveelheid uitingen van de vrienden die voor deelnemer niet allemaal te behappen zijn. Dat lost een probleem op, maar creëert nieuwe euvels: de selectie is gericht op eerdere voorkeuren van Facebookers en vrienden, dus leidt tot een beperking van het blikveld, ook wel ‘bubbel’ genoemd; ten tweede is de selectie door Facebook gericht op maximale reclameopbrengst.
Die twee criteria hangen samen: reclameomzet is maximaal bij informatie die welkom is. (Bovendien, vermoed ik, maakt een beperkt blikveld een persoon ook vatbaarder voor commercie.) En anno 2020 gaat het minder over seks en terrorisme en meer over desinformatie: vooral de negatieve beïnvloeding van de democratie met tendentieuze of onjuiste berichten, en de selectie van voornamelijk berichten uit de eigen kring; wat een kwart eeuw geleden vrijwel niemand voorzag.
Echter dat wordt ook te eenvoudig als kwaad op zichzelf beschouwd, bijvoorbeeld in Zondag met Lubach waar de sociale media en hun algoritmes als enige grote schuld van groeiende desinformatie werden gepresenteerd in een ‘fabeltjesfuik’. Dominee Lubach preekte eenzijdig. Dat heeft de Dimitri Tokmetzis uitstekend weerlegd op De Correspondent.
Tussen filteren en censuur
Niettemin ontstaat er breder politiek draagvlak om de platforms aansprakelijk te stellen voor de inhoud. Google/YouTube en Facebook/Instagram blokkeren sinds kort al vrijwillig uitingen over Zwarte Piet, Holocaust-ontkenningen, anti-vaccinatie en QAnon. Op deze plek klonk verzet tegen een censuurrol voor platforms, elders ook consequent door Marietje Schaake: je moet bedrijven niet laten besluiten welke meningen we niet mogen zien. Om die reden Mark Zuckerberg stelde het risico vast van filtermacht: dat sociale media, teneinde vervolging te voorkomen, met de botte bijl, mogelijk schadelijke uitingen gaan blokkeren.
Zuckerberg wordt aan het wankelen gebracht over zijn aanvankelijke opstelling niet te willen censureren, omdat zijn algoritme kwalijke gevolgen heeft. Facebook heeft, heel handig, een Oversight Board ingesteld, een diverse club van experts, die moet gaan adviseren.
Maar filteren doen de partijen al heel lang met algoritmes en moderatoren, vooral om wettelijk verboden uitingen te weren, zoals kinderporno en schendingen van auteursrecht, ook lang een heikel punt overigens. Waar ligt dan de grens? Economist stelt dit eveneens in een uitstekend artikel over de vragen: welke uitingen moet we wel en niet weren? En vooral: wie moet dat beslissen?
Algoritmes en inmenging
Het probleem vormt vooral de verspreiding en dus moet er meer transparantie komen over de toepassing van algoritmes. Dat is ook het doel van Kees Verhoeven (D66) en Harry van der Molen (CDA) die deze week onderzoek naar algoritmes voortelden, met een motie tijdens het debat van de Tweede Kamer over desinformatie en digitale inmenging.
Recent was er een ECP-debat over kwalijke inmenging en in april 2020 een hoorzitting over toezicht op algoritmes, Bestaande toezichthouders als de Autoriteit Persoonsgegevens en Agentschap Telecom wierpen zich op als geschikte waakhond. Ook een Aanvalsplan Desinformatie werd nu geopperd, een typisch D66-ding. Boeiend is de overweging van Kees Verhoeven in de Volkskrant: ‘Misschien moet je wel veel verder gaan en verbieden dat die platformen aanbevelingen doen op basis van algoritmes…we moeten inzoomen op de algoritmes. Waar zijn de keuzes van de socialmediabedrijven op gebaseerd?’
Je kunt nog verdergaan: verbiedt personalisatie, of zelfs het verzamelen van persoonsgegevens waarop het algoritme de selectie van uitingen en reclame baseert; zijn we er maar van verlost. De vraag is echter of je daarmee de ellende van verspreiding van desinformatie voorkomt. Immers, daar is kennelijk grote behoefte aan in dit tijdsgewricht. De vraag moet misschien luiden: hoe kunnen we de behoefte aan, en de invloed van ware informatie vergroten?
Heel veel maatregelen
Die laatste vraag wordt niet geopperd in de mogelijke oplossingen van Rathenau Instituut, dat juist een heel informatief rapport publiceerde onder de titel Digitale dreigingen voor de democratie, met als mogelijke nieuwe maatregelen:
De kern van dit alles volgens Rathenau: platformbedrijven zijn primair verantwoordelijk, maar de overheid kan ingrijpen: ‘Voor veel van de genoemde maatregelen ligt de verantwoordelijkheid voor de bestrijding van desinformatie primair bij de platformbedrijven. Maar gezien het publieke belang dat gemoeid is bij het tegengaan van de schadelijke effecten van desinformatie, kan de overheid ertoe besluiten op te treden als platformbedrijven hun verantwoordelijkheid onvoldoende nemen.’