De grappige reclame van De Gooijer dateert van ruim dertig jaar geleden. Digitalsiering maakt de methoden iets minder grappig. Oplichting met behulp van AI om stemmen na te bootsen van kennissen wordt ingezet nietsvermoedende mensen uit te buiten. Deze boodschappen maken gebruik generatieve AI, systemen die tekst, afbeeldingen of video helpen produceren met aanwijzingen van een gebruiker.
Deepfakes hebben de afgelopen jaren bekendheid gekregen met een aantal spraakmakende incidenten, zoals de beeltenis van beroemde personen die werd gebruikt in een suggestieve advertenties die op Facebook en Instagram verschenen.
Er was ook de veel gedeelde – en ontkrachte – video uit 2022 waarin de Oekraïense president Volodymyr Zelensky Oekraïners leek te vertellen om de wapens neer te leggen.
Stemmen genereren
Nu wordt de technologie om een audio deepfake te maken, een realistische kopie van iemands stem, steeds laagdrempeliger. Om een realistische kopie van iemands stem te maken heb je gegevens nodig om het algoritme te trainen. Dit betekent dat je veel audio-opnamen van de stem van je beoogde doelwit moet hebben. Hoe meer voorbeelden van de stem van de persoon je in de algoritmes kunt invoeren, hoe beter en overtuigender de uiteindelijke kopie zal zijn.
Velen van ons delen al details van ons dagelijks leven op het internet. Dit betekent dat de audiogegevens die nodig zijn om een realistische kopie van een stem te maken, niet zelden beschikbaar zijn op sociale media. Maar wat gebeurt er als er eenmaal een kopie is? Wat is het ergste dat kan gebeuren?
Een deepfake-algoritme kan iedereen die in het bezit is van de gegevens in staat stellen om ieder van alles te alten beweren. In de praktijk kan dit zo eenvoudig zijn als het uitschrijven van wat tekst en de computer het hardop laten zeggen in wat klinkt als je stem.
Grote uitdagingen
Deze mogelijkheid dreigt de verspreiding van bedrog en desinformatie te vergroten, bijvoorbeeld om de internationale of nationale publieke opinie te beïnvloeden, zoals te zien is met de nepvideo's van Zelensky. Of om geld te laten overmaken naar een naaste, een bekende truc via WhatsApp
Maar de alomtegenwoordigheid en beschikbaarheid van deepfaketechnologie vormt ook op lokaal niveau aanzienlijke uitdagingen, vooral met de groeiende trend van AI-zwendeloproepen die phishing in allerlei vormen in steeds geloofwaardiger vormen giet. “Wil u even inloggen, want…”
Het was tot voor kort gemakkelijk om dit als een hoax onderkennen, veelal gezien het slechte (Engelse) taalgebruik. Stel je nu echter voor dat de stem aan de andere kant van de telefoon niet alleen een vreemde is, maar precies klinkt als een vriend of geliefde. Dit brengt een heel nieuw niveau van complexiteit en paniek voor de ongelukkige ontvanger.
Een recent verhaal gemeld door CNN belicht een incident waarbij een moeder een telefoontje kreeg van een onbekend nummer. Toen ze de telefoon opnam, was het haar dochter. De dochter zou zijn ontvoerd en belde haar moeder om losgeld te eisen.
In feite was het meisje veilig en wel. De oplichters hadden een deepfake van haar stem gemaakt. Dit is geen geïsoleerd incident, maar doet zich voor in steeds meer variaties, zoals de melding van een auto-ongeluk, waarbij het slachtoffer zijn familie belt voor geld om te helpen.
Oude truc, nieuwe jasjes
Dit is op zich geen nieuwe oplichterij, de term ‘virtuele ontvoeringszwendel’ bestaat al enkele jaren. Het kan vele vormen aannemen, maar een veel voorkomende aanpak is om slachtoffers te misleiden om losgeld te betalen om een geliefde te bevrijden waarvan ze denken dat deze wordt bedreigd.
De oplichter probeert tijdsdruk op te leggen en paniek te veroorzaken, om het slachtoffer snel losgeld te laten betalen voordat het bedrog wordt ontdekt. De opkomst van krachtige en beschikbare AI-technologieën maakt boodschappen veel persoonlijker gemaakt en verhoogt de geloofwaardigheid aanzienlijk. Het is niet moeilijk om de verbinding met een anonieme beller te verbreken, maar het vergt vertrouwen in je oordeel dat te doen met een een telefoontje van iemand die net zo klinkt als je kind of partner.
Er is software om deepfakes te identificeren en een visuele weergave van de audio te maken, een spectrogram genaamd. Wanneer je naar het gesprek luistert, lijkt het misschien onmogelijk om het van de echte persoon te onderscheiden, maar stemmen kunnen worden onderscheiden wanneer spectrogrammen naast elkaar worden geanalyseerd.
De meeste mensen zullen niet in staat zijn om spectrogrammen te genereren. Gebruik van deze detectiesoftware vereist technische kennis en komt meestal nadat het kwaad is geschied. Het duurt nog enige tijd vooradat deze software wellicht standaard bij inkomende gesprekken wordt ingezet.
Zolang dat niet het geva lis: wees sceptisch. Als je uit het niets een telefoontje krijgt van een geliefde en ze vragen je om geld of doen verzoeken die niet van karakter lijken, bel ze dan terug of stuur ze een sms om te bevestigen dat je echt met hen praat.
Naarmate de mogelijkheden van AI zich uitbreiden, zullen de grenzen tussen realiteit en fictie meer en meer vervagen. En het is niet waarschijnlijk dat we de technologie terug in de doos kunnen stoppen. Dat betekent dat mensen voorzichtiger zullen moeten worden.
*) Oliver Buckley is universitair hoofddocent Cyber Security aan de Universiteit van East Anglia (op Twitter). Een Engelstalige versie van dit artikel verscheen eerder bij The Conversation.