In deepfakes worden beeld, audio en/of tekst geheel of gedeeltelijk door kunstmatige intelligentie gegenereerd om een vervormde weergave te creëren. Een onschuldige deepfake met president Obama die waarschuwt tegen nepnieuws maakt het probleem glashelder.
Kortom, technologie wordt ingezet voor een vals beeld. Wat vals is moet worden verboden, is doorgaans de politieke reflex. Dan komt er wetgeving. Vervolgens moet die worden gehandhaafd. Er komt opsporing, aangifte, vervolging en aan het eind van de rit volgen er veroordelingen. Dat biedt tegelijkertijd ‘afschrikkende werking’ voor anderen met gelijkluidende voornmens.
Motie aangescherpt
Op 30 november 2022 is een motie voor een verbod van gebruik van deepfaketechnologie ingediend in de Tweede kamer, met als tekst: “Verzoekt de regering in 2023 in lijn met de reguleringsopties die zijn beschreven in het WODC-onderzoek een wetsvoorstel in procedure te brengen om bepaalde vormen van deepfaketechnologie tegen te gaan,
waarbij in elk geval het vervaardigen, aanbieden, verspreiden, downloaden of gebruiken van deepfaketechnologie of technologie die kan worden ingezet om deepfakes te genereren wordt verboden;
Verzoekt de regering tevens om in dit wetsvoorstel te bezien op welke manier het beïnvloeden van verkiezingen of politieke besluitvorming middels het creëren of verspreiden van desinformatie door middel van deepfakes en AI expliciet strafbaar kan worden gesteld;
De motie is ingebracht door Queeny Rajkowski van de VVD, en medeondertekend door de Kamerleden Ulysse Ellian (VVD), Henri Bontenbal (CDA), Lisa van Ginneken (D66), Don Ceder (ChristenUnie) namens de regeringspartijen en ook Kauthar Bouchallikh (GroenLinks) en Marieke Koekkoek (Volt). De motie steunt op een meerderheid van de Tweede Kamer.
De motie wil geen verbod op het vervaardigen van deepfakes, maar op technologie waarmee je deepfakes kunt maken. De motie was eerder met een veel mildere formulering ingebracht:
“Verzoekt de regering in 2023 in lijn met de reguleringsopties die zijn beschreven in het WODC-rapport te kijken hoe bepaalde vormen van deepfaketechnologie tegengegaan kunnen worden;
Bedoeld werd waarschijnlijk: hoe bepaalde toepassingen van deepfaketechnologie tegengegaan kunnen worden. Hoe dan ook is dit een voorzichtiger formulering dan de harde eis aan de minister van Justitie om gebruik van software voor deepfakeproductie te verbieden.
Tv-serie en wetenschap
TV-maker Welmoed Sijtsma toont in de vierdelige WNL-serie Welmoed en de sexfakes, eerst uitgezonden in november 2022, de ellende die ‘deepnudes’ kunnen veroorzaken: deepfake porno met gezichten van, in dit geval, bekende vrouwen. Sijtsma voelt zich slachtoffer, voert ook haar even verontwaardigde moeder op om dit kracht bij te zetten.
Met deskundige hulp weet Sijtsma de maker van de pornovideo met haar gezicht te achterhalen en doet aangifte. Daarop is een 38-jarige man gearresteerd, verhoord, en vrijgelaten in afwachting van nader onderzoek door het Openbaar Ministerie.
In de laatste aflevering komen de politici Sylvana Simons (Bij1) en Lilian Marijnissen (SP) aan het woord, nadat Sijtsma ook hun gezichten tegenkwam in pornofakes. Ze vinden deze video’s een ernstige aantasting van hun persoon en privacy, dus negeren die liever. Ze hebben de Kamermotie niet ondertekend, maar stemmen wellicht vóór.
Wraakporno-artikel aangeroepen
Sijtsma beroept zich op het nieuwe artikel 139h van het Wetboek van Strafrecht, gericht tegen degene die “opzettelijk en wederrechtelijk van een persoon een afbeelding van seksuele aard vervaardigt”, goed voor maximaal 1 jaar celstraf; en/of degene “die een afbeelding als bedoeld in het eerste lid, onder a, openbaar maakt terwijl hij weet of redelijkerwijs moet vermoeden dat deze door of als gevolg van een in het eerste lid, onder a, strafbaar gestelde handeling is verkregen”, met een maximale celstraf van twee jaar.
Dit behelst de strafbaarstelling van wraakporno. De vraag is nu of het OM, en in navolging daarvan de rechter, het plakken van het gezicht en stem in een film van een – al dan niet bekende – vrouw ook als ‘afbeelding van seksuele aard’ beschouwt. Bij de entree van 139h in het strafrecht schreef Michael Berndsen in het Nederlands Tijdschrift voor Strafrecht al een uitstekend artikel met deze vraag. Hij stelde ook dat een rechter in deze zaken grenzen moet vaststellen en zich daartoe zal moeten verlaten op “grammaticale en teleologische interpretatie”. Het begrip “afbeelding van seksuele aard” is immers nogal arbitrair.
Alarmerend beeld en statistiek
Dankzij de tv-serie en de politieke aandacht werd het onderzoek van het WODC naar deepfakes dat in januari 2022 al openbaar werd, opnieuw actueel. Dit is uitgevoerd door Bart van der Sloot, Yvette Wagensveld en Bert-Jaap Koops van Universiteit Tilburg. Eerstgenoemde schreef op Netkwesties een opinie met de belangrijkste argumenten om te pleiten voor een verbod op deepfakes, op grond van een volgens hen ‘alarmerend beeld’.
De vraag is of dit beeld juist is, of het beklijft, of het met wetgeving te bestrijden en of het zinnig is om dat te doen. Is de argumentatie zuiver? Zo stoelen de Tilburgse onderzoekers hun ‘alarmerende’ kwestie op de verwachting dat “dat over vijf jaar meer dan 90 procent van het digitale materiaal geheel of gedeeltelijk gemanipuleerd zal zijn.” En vervolgens: “Deze technologie wordt vrijwel uitsluitend (96% procent!) ingezet om tegen de zin van vrouwen deepfake-porno te maken.”
Vermenigvuldig deze twee cijfers en er ontstaat wat drijfzand: bestaat over vijf jaar 86 procent van de online uitingen uit gemanipuleerd pornobeeld waarbij (bekende) vrouwen slachtoffer zijn met hun gezichten? Rekenen is niet eenvoudig en statistiek staat niet zelden op gespannen voet met de realiteit. De bronnen van deze percentages zijn discutabel. De ‘meer dan 90 procent’ halen onderzoekers uit interviews met experts, de 96 procent van een technologiebedrijf dat deepfakes analyseert.
Het alarmerend beeld in het rapport is breder: behalve porno ook fraude, misleiding, haat zaaien, verspreiding van desinformatie en beïnvloeding van democratische verkiezingen. Deepfakes maken individuen tot slachtoffer, en kunnen het vertrouwen in de media, democratie en rechtspraak ernstig aantasten.
Broodmes of revolver?
Wettelijk kun je misdaad met deepfakes echter al goed (“meer dan 95 procent”) aanpakken met bestaande verschillende verboden op fraude, misleiding en aantasting van privacy, stellen de onderzoekers zelf. Ze opperen ook de mogelijkheid dat privacywet AVG deepfakes reeds helemaal verbiedt, want gegevens mogen enkel worden gebruikt voor het doel waarvoor ze zijn verzameld. Gezichten die in deepfakes worden gebruikt zijn niet voor dat doel verwerkt. Je moet trouwens ook een geportretteerde op de hoogte stellen van gebruik van een gezicht of stem, schrijven ze.
Echter, zo schrijven de onderzoekers, in al deze gevallen van vervolging is het kwaad al geschied, terwijl handhaving een groot probleem is. Gezien de verwachte omvang kun je schadelijke productie beter met wetgeving helemaal voorkomen
Dus opperen ze de mogelijkheid om “de handhavingsdruk te verlichten”, door het “produceren, aanbieden, gebruiken en in bezit hebben van deepfaketechnologie te verbieden voor de consumentenmarkt”.
Hier komen we op het broodmes-criterium: moet je het verbieden omdat een mes in de keuken de kans op partnermoord vergroot? Een beter voorbeeld: wapenwetgeving, het verbieden van wapenbezit en verspreiding om moord en doodslag te voorkomen. Is een verbod op deepfaketechnologie vanuit dit gezichtspunt zinnig?
Vagina.nl en prinses Amalia
Kun je specifiek louter de software om deepfake porno te maken aanpakken? Advocaat Otto Volgenant van Boekx Advocaten zegt van wel, mede op grond van zijn gewonnen zaak tegen Vagina.nl. Hij bereidt een rechtszaak voor komend voorjaar voor: “Het gaat ons om specifieke websites en apps, waarvan de output duidelijk onrechtmatig is. Er zijn websites die deepnudes aanbieden van prinses Amalia tot Sigrid Kaag en van Carice van Houten tot Linda de Mol. En honderden andere slachtoffers.
Bij deepnudes is er geen enkele twijfel dat dit onrechtmatig is. Dit is inbreuk op portretrecht en in strijd met de AVG, en ook strafrechtelijk is dit over de grens. Er geldt een hogere straf bij Amalia als troonopvolgster.”
Het lastige voor Volgenant is dat de partijen achter dit soort websites en apps zich goed verstoppen. Maar hij versaagt niet: “Als we er niet achter kunnen komen wie de exploitant is zullen we andere partijen aanpakken, bijvoorbeeld de partij die de website host of de accesprovider die toegang biedt.”
Hier gaat het niet om een verbod op software, maar om een onlinedienst met verspreiding van porno. De vraag is vervolgens: wil je louter deze onlinediensten aanpakken die bestaande wetten overtreden, of ook via nieuwe wetgeving het gebruik van deepfake-software verbieden, zoals de Tweede Kamer? Staat die software gelijk aan een broodmes of aan een revolver? Is het wenselijk om technologie te verbieden waarmee ook goede doeleinden worden bereikt?
De WODC-onderzoekers noemen amusement, waaronder satire en andere humor, spelletjes, kleding passen op afstand maar ook ondersteuning bij opsporing van criminelen en infiltratie in criminele netwerken als positieve voorbeelden van deepfakeproductie. Echter, deze voordelen worden doorgaans behaald in een professionele omgeving, toegepast door amusementsindustrie winkels, artsen, politie en, jawel, ook sekswerkers. Je kunt denken aan opleidingen, ggz-therapieën en natuurlijk (Disney-)films
Dus zoeken ze een verbod vooral in de ‘horizontale’ verhoudingen of privacy, die tussen burgers onderling. Het zijn burgers die elkaar het leven zuur maken met deepfakes, vrouwen vernederen, nepnieuws verspreiden, elkaar oplichten. Bovenal worden deepfakes altijd gebruikt om verwarring te zaaien tussen feit en fictie, en wie wil dat nu? Onderzoekers zien enkel een positieve toepassing van deepfakes.
Censuur door internetproviders
Genoemd verbod is één van de ‘reguleringsopties die de onderzoekrs aan de Tweede Kamer bieden, maar wel de meest vergaande. Een ander is de ‘huishoudexemptie’ in de AVG aan de kaak stellen: de AVG gaat niet over privacyschendingen in de verwerking van gegevens door individuen. Dat is een al langer bestaande fout in deze wet, maar die kun je eigenlijk enkel Europees aanpakken.
Een vergaande optie is de verplichting om providers, autoriteit persoonsgegevens en/of burgers verplicht te stellen om verspreide uitingen te controleren op echtheid en rechtmatigheid vóór publicatie. Het staat er echt, ook al is het slechts een ‘optie’. Providers krijgen hier een filter- of censuurtaak, die conform de nieuwe Europese wet DSA ook aan platforms als Facebook wordt opgelegd.
Realistischer klinken de opties van de onderzoekers voor wetgeving tegen verspreiding van evident onjuiste en misleidende informatie, en specifiek het vals beïnvloeden van verkiezingen en politieke besluitvorming.
Satire weg met het badwater
In zijn artikel op Netkwesties bepleit Van der Sloot expliciet het verbod op gebruik van deepfaketechnologie door burgers ‘als meest vergaande optie’. Zijn argumenten: vrouwen zijn ernstig slachtoffer en de genoemde (discutabele) percentages. Satire als een positieve toepassing van deepfaketechnologie door burgers weegt niet op tegen mogelijk schadelijk gebruik.
Een technologieverbod bij consumenten is inderdaad moeilijk te handhaven, bekent Van der Sloot, maar “het de-normaliseert het bezit en maakt de handhaving veel eenvoudiger, omdat de politie zich slechts hoeft te richten op een handvol kwaadwillenden.”
Dat een verbod niet nodig zou zijn omdat bestaande wetgeving volstaat, vindt Van der Sloot ook geen argument. “Dat is zo, maar die verboden worden nu al nauwelijks gehandhaafd. Als iedere burger toegang heeft tot deepfaketechnologie en in een handomdraai een realistische deepfake kan maken en verspreiden, zal de grote hoeveelheid deepfakes handhaving vrijwel onmogelijk maken.”
Dat laatste argument is geestig: omdat bestaande wetgeving die in verbod op misbruik van deepfakes voorziet niet gehandhaafd wordt en kan worden, moet er een nieuwe wet komen met een verbod; dat niettemin ook niet te handhaven is.
Dergelijke logica leidt uiteindelijk tot een verbod op gebruik van digitale apparatuur, wellicht een adequaat middel om alle digitale uitwassen uit het barre online leven een halt toe te roepen.
Gedachtepolitie?
Ook de logica voor de motie van de Tweede Kamer vind ik van bedenkelijke allure. Het staat buiten kijf dat de virtuele aanranding die Welmoed Sijtsma heeft ervaren met haar intensieve consumptie van, en onderzoek naar een pornovideo, ernstig is. Aangifte op grond van art. 139h is logisch, en hopelijk schaart de rechter de verspreiding van een pornofilm met haar misbruikte gelaat als een strafbaar feit.
Echter, er spelen twee andere argumenten waar de Tweede Kamer en kabinet fundamenteel over moeten nadenken alvorens ze een technologie gaan verbieden:
Ten eerste is het verbieden van een technologie vergaand. Heb je het hier over een broodmes of over een revolver? Waar leg je de grens met het fantasierijk manipuleren van beeld en geluid? Kinderen passen nu al te pas en te onpas filters toe op gezichten en stemmen op TikTok. Mag dat wel, waar ligt dan de grens van deepfaketechnologie? Technologie is inderdaad niet neutraal, maar de huidige wetgeving bestrijdt het onwenselijk gebruik, niet de technologie zelf.
Hiermee samen hangt een tweede argument, dat ook speelt met het eerste deel van artikel 139h: mag je voor jezelf je fantasie niet volledig meer de vrije loop laten gaan? Mag je je vermeende vijand, van welk geslacht ook, tekenen met een pistool op het hoofd of aan de rand van een afgrond? Of positiever: mag je jezelf en willekeurig welk ander persoon (m/v/x) samen in een filmpje laten acteren, al dan niet ‘van seksuele aard’?
Zodra je schadelijke uitingen verspreidt, doe je er een ander kwaad mee maar beperking van de uitingen van fantasie op je eigen apparatuur neigt naar een gedachtepolitie. Dat is al vervat in 139h en in het verbod tot het ‘fotoshoppen’ met kinderporno op eigen apparatuur. Vroeger heette dat zo, ‘fotoshoppen’. (Ik bedacht ‘fotojokken’).
De concrete vraag: heeft iedere burger het recht om een deepfake filmpje met Welmoed Sijtsma te maken, zolang zij/hij/hen dat voor zich houdt, hoe smakeloos ook? Afgezien daarvan, na het maken volgt tegenwoordig al snel het ‘delen’, terwijl verspreiding ook een gevolg kan zijn van verlies of diefstal van de telefoon.
Eenvoudig is het niet, maar dit verhaal is geen pleidooi om deepfaketechnologie zondermeer te verbieden. Hoewel, software met kwalijke algoritmes dan? Dat is een volgend verhaal…
Het is een open deur: maar laten we eerste kijken of specifieke wetgeving voor deepfakes nodig is. Het maken en inzetten van vrijwel alle deepfakes die we als samenleving niet willen, is nu al strafbaar. Daarmee lijkt daar aanvullende wetgeving overbodig. Vraag is verder of de technologie moet worden verboden. Dat lijkt me onzinnig.
Die technologie heeft natuurlijk ook voordelen: in de entertainment sfeer: de volgende film van Steve McQueen of Humphrey Bogart, maar vast ook elders.
Een verbod is bovenal onmogelijk: technologie is wereldwijd beschikbaar. En wordt SaaS aanboden, dat wil zeggen in de cloud. Zoveel 'lekken' zijn niet te stoppen, zelfs niet met een wereldwijd verbod als dat er ooit zou komen.
Daarbij bestaat de deepfake technologie uit een groot aantal losse elementen die met een bepaald doel, de deepfake, worden samengevoegd.
Ook architecten zullen gefabriekte video’s gebruiken om hun nog niet gebouwde werk te kunnen laten zien. Op welk niveau ga je dan verbieden? Alleen het allerlaatste stukje waarin al die elementen bij elkaar komen? Dat kan eigenlijk niet anders omdat alles wat voor dat allerlaatste stukje gebruikt wordt, volkomen rechtmatige en breed gebruikte software is.
Bij misbruik van deepfakes moet het dus gaan om handhaving. Daar moet meer energie naar toe. Ik zou verder zeker kijken naar manieren om slachtoffers te helpen om hun recht te halen. Bijvoorbeeld door de mogelijkheid te introduceren de volledige proceskosten te vorderen (net als in zaken met betrekking tot de intellectuele eigendom).
Of anderszins te zorgen voor internationaal erkende snelle, simpele en goedkope procedures. Verder moeten we, hoe naar ook, er mee leren leven. Dat betekent: meer mediawijsheid bij het publiek: een kritische houding ten opzichte van de digitale bagger.
In dat verband: er zijn ook veel verificatietools beschikbaar die onmiddellijk zicht geven op de authenticiteit van de betreffende content. Die zijn onder meer beschikbaar dankzij blockchain technologie (disclaimer: ik heb een belang in een blockchainbedrijf). Dergelijke tools maken de productie van deepfakes niet onmogelijk maar kunnen een belangrijke hulp bieden bij het snel herkennen ervan.
Dit artikel 139h is ingevoerd vanuit de wens om ‘wraakporno’ te bestrijden, zeg maar stiekem je partner filmen tijdens seks en dat publiceren om haar (het is vrijwel altijd een haar) pijn te doen of te vernederen. Maar ik zie geen reden waarom een GAN-gegenereerd beeld hier niet onder zou vallen.
De discussie gaat dan namelijk over de vraag of het een ‘afbeelding’ is. Dat lijkt mij wel: die persoon is herkenbaar in beeld, dat is het hele punt van de deepfake. Dat er geen beeldbewerking is gebruikt en dat je het portret wellicht niet zelf hebt gemaakt, is dan geen argument.
Ditzelfde woord ‘afbeelding’ staat namelijk in het wetsartikel dat kindermisbruikafbeeldingen (csam) strafbaar stelt. Daarbij is door de minister gezegd:
Voorts is sprake van vervaardigen van kinderporno als bijvoorbeeld een verdachte foto’s van kinderhoofdjes op pornografische foto’s van volwassenen plakt, realistische tekeningen of computeranimaties maakt, maar ook als (heimelijk) beeldmateriaal gemaakt wordt van (naakt) spelende kinderen, met een kenbaar seksuele strekking.
In het strafrecht betekenen dezelfde woorden dezelfde dingen. Als dus ‘afbeelding’ in 139h staat, dan geldt die uitleg van de minister ook voor artikel 139h. Dus is een “realistische tekening of computeranimatie” een vorm van “afbeelding”, en je kunt van een deepfake veel zeggen maar “tekening of animatie” dekt de lading prima. En dat de afbeelding een tekening is, is geen bezwaar om het een portret van iemand te noemen, zie het strafbare portretrecht (art. 31 Auteurswet). Ik zie dus het probleem niet.
Lees verder bij Ius Mentis
Zoveelste voorbeeld van politici die een probleem zien en dan roepen: er moet een nieuwe wet komen! Hop, puntje gescoord. Terwijl een nieuwe wet helemaal niet nodig is. Is allang onrechtmatig en strafbaar. Nieuwe wet lost t probleem niet op. Mankracht om daders op te sporen wel.
Over het algemeen ben ik van mening dat overheden zich niet moeten inlaten met uitingen van burgers. Als journaille, rechtse propagandisten en andere warhoofden sensatie en aandacht willen trekken zijn volgens mij mensen mondig genoeg om
a. niet te kijken
b. zelf te doorzien dat iets fake of niet is.
Memes zijn helaas in onze hoofden zo bedraad dat we er aandacht aan geven.
Waar ik wel sterk voor ben zijn journalistieke onderzoeken door Follow the Money en Bellingcat die dwars door de ruis en fakeverhalen heen kunnen kijken en dan onthullen hoe het werkelijk zit.