Dochterlief begon deze herfstvakantie een tekenwedstrijdje op Instagram. Binnen een paar dagen meldden zich honderden deelnemers, met wie ze in contact trad. Een even ongeruste als trotse vader vroeg naar de aard van die contacten. Hij had het niet helemaal begrepen: van geen enkele persoon is de identiteit bij benadering bekend, anders dan ‘misschien een jongen in Canada’ en een ‘vrouw in Argentinië’.
En Instagram is bij uitstek het domein van het spelen met gezichten die allerhande andere vormen krijgen. Kinderen doen het al zo lang, als ‘serious game’. ‘Kijk pap’, en dan heeft ze m’n portret voorzien van een rare bril, ingevallen wangen en een vrouwenmond; hoe dan ook net nog herkenbaar als m’n ‘identiteit’, of al niet meer.
Zo vlot als dat aannemen van verhulde identiteiten gaat, mede om privacy te beschermen, kunnen ouderen nog maar nauwelijks bevatten. Bij het maken van een documentaire kwam een collega aanzetten met een visagiste die onze te interviewen anonieme bron een heel ander uiterlijk gaf voor hij ‘op camera’ ging. Begon ook tijdens de opname de nepsnor nog te zakken. Volgens mij een onnodige dure investering in tijden van Instagram filters en deepfake software.
Levensechte gezichten
De Generative Adversarial Networks passen machineleren toe met een ‘botsing’ van neurale netwerken, die bijvoorbeeld nieuwe geloofwaardige identiteiten kweken vanuit portretfoto’s. De GAN-wetenschap achter de methode is fascinerend. Voor wie dat te ver gaat, kan zich laten imponeren met een resultaat als Generated Photos.
Op websites kun je ze inzetten om verlost te zijn van de jacht op fotorechten door nare bureaus als Permission Machine die je online hobby om te publiceren verzieken met claims van honderden euro’s bij het per ongeluk publiceren van foto’s met rechten.
De levensechte portretten zijn voor talloze vormen van bedrog te gebruiken, voor trollen op Twitter tot smoeltjes op datingsites zoals Tinder. De geloofwaardigheid van de bedreigers neemt veel sneller toe dan de argwaan van de slachtoffers. Het gesol met beelden leidde recent tot een fraai verhaal over datingfraude in de Twentse krant Tubantia. Digitaal bedrog in velerlei variaties trof in 2018 8,5 procent van de Nederlanders, aldus het CBS.
Fraaie deepfake fraude
Dus dient zich ook de volgende kat-en-muis strijd aan met online misdaad. Hoe herkennen we deepfakes (Nederlands: diepbedrog?) en bestrijden we het misbruik? Google begint een databank met nepvideo’s om ze te vergelijken. In deze FaceForensics werkt Google samen met wetenschappelijk onderzoekers, onder wie opvallend veel Europeanen. Samen beheren ze de dataset.
Misdaad neemt toe. Verzekeraar Euler Hermes bracht vorige maand een intelligent opgezet bedrog naar buiten met een deepfake imitatie van een stem over de telefoon. In maart 2019 gebruikten fraudeurs op AI gebaseerde software om zich voor te doen als een ceo van de Duitse moedermaatschappij van een Brits energiebedrijf. De ceo van de Britse dochter werd gemaand snel 220.000 euro over te maken naar een Hongaarse leverancier en kreeg in een tweede gesprek verzekerd dat de overdracht onmiddellijk werd terugbetaald vanuit het moederbedrijf.
De verzekeraar wil ook waarschuwen en voegt eraan toe dat de FBI in 2018 alleen al 20.000 gevallen met een totale schade van 1,2 miljard dollar telde. Dat zijn echter niet allemaal deepfake gevallen, zo blijkt uit het beknopte Internet Crime Report. Stemfraude neemt toe.
Zo is ook ‘Fake President’, het gebruik van valse identiteit binnen bedrijven, flink in opmars volgens Deloitte. Euler Hermes zelf zegt met al 65 concrete gevallen te maken hebben gehad, met een totaal van 165 miljoen euro aan schadeclaims. Maar 1 miljoen euro kon teruggehaald worden. Het gaat om grote bedragen ineens, die snel verdwenen zijn omdat rekeningen direct na het incasseren zijn opgeheven.
Leugendetector tegen immigratie
Een derde opvallend onderwerpen dat hiermee samenhangt, bracht The Intercept een artikel over Silent Talker. Dit is het systeem voor leugendetectie van de Europese Unie dat aan de paspoortcontrole een interview toevoegt waarvan de antwoorden kunnen leiden tot bestempeling van een persoon tot een ‘risico’. Dat leidt tot extra controle.
Silent Talker is overigens een Brits bedrijf dat software op basis van kunstmatige intelligentie aanbiedt met als leus ‘Artificial Intelligence Psychological Profiling’, oftewel de detectie van niet congruente non-verbale communicatie. Er is het nodige over bekend. Het systeem, ontwikkeld door de Manchester Metropolitan University, zou 90 procent van de leugens detecteren. Daar komen we later op terug.
Voor de Europese test in het kader van het iBorderCtrl programma, die eind augustus 2019 afliep, is de vraag of het systeem betrouwbaar genoeg is. Welke foutenmarge daartoe wordt gebruikt, is niet bekend. Een eerste test door The Intercept wees direct op wat zij als een ‘false positive’ bestempelde. De journalist in kwestie zou alle vragen netjes en realistisch beantwoord hebben. Dan oordeelde ‘het systeem’ fout. Of was het zo slim te ontdekken dat het hier om een tester met andere motieven ging?
Nog niet weten
Kinderen die beter weten dan het maskeren van je identiteit om je privacy te bewaren. Deepfakes om identiteiten en de meeste evidente persoonsgegevens zoals gezocht en stem te fingeren oftewel vervalsen. En aan de andere kant machines die ons gedrag gaan beoordelen op waarachtigheid. Waarheen gaat dit? Met welke doelen gaan we dit alles gebruiken?
Tot wat voor wereld zal dit leiden? Is de huidige politiek met lieden als Poetin, Trump, Bolsonaro, Johnson en Baudet voor wie het onderscheid tussen leugen en waarheid er niet meer toe lijkt te doen, een vruchtbare voedingsbodem voor de ‘succesvolle’ toepassing van nieuwe technologie? Hoe lopen technologische ontwikkeling en maatschappelijke trends parallel en werken ze op elkaar in?
Een mooie herfstvakantie in de natuur van de Biesbosch bracht geen antwoorden. De bever die we in de rietkant ontdekten was een echte bever, een sensatie nog…