Peter de Kock, van documentairemaker tot datawetenschapper en ondernemer

‘Vooroordeel in data en algoritmes is eenvoudiger te detecteren dan bij een mens.’

"We moeten net zo kritisch blijven over de menselijke wijsheid die veelal beperkt is, als over de algoritmes van machines. Beide kunnen tot onwelgevallige uitkomsten leiden. Wat niet betekent dat je de onderzoeksmethode op basis van AI dan wel menskracht direct als eng terzijde schuift.”

(Dit is een verkorte versie van een vraaggesprek voor het boek De Privacy Paradox, uitgegeven door Privacy Management Partners, dat vanaf 1 juli 2024 verkrijgbaar is. Het rijk van fotografie voorziene boek bevat dertien uitvoerige journalistieke vraaggesprekken rond een kritische reflectie op de databescherming met de AVG, gevolgd door een pleidooi voor een pragmatischer omgang met databescherming.)

Peter de Kock was na een opleiding op de Kunstacademie/Filmacademie vanaf 1992 Internationaal Documentairemaker. In 2007 besloot hij tot een carrièrebreuk met een opleiding aan de Politieacademie, gevolgd door een loopbaan bij de politie (recherche). Vanaf 2010 werkte De Kock aan een proefschrift, richtte daarna Pandora Intelligence op en werd in 2019 Professor of Practice in data science aan de universiteit Tilburg op het gebied van criminaliteit en veiligheid hoogleraar in Professor van de praktijk van Data science in Crime & Safety. Zijn dissertatie in 2014 behandelde het anticiperen op crimineel gedrag met narratieven.

U heeft meer moeite met de datagiganten dan met overheden?

Zeker, wat bedrijven als Google van de meeste mensen weten is zeer schadelijk voor individuen en de samenleving als geheel. Dat vind ik werkelijk zorgelijk, want Google wil louter winst uit profilering halen.”

In welke sfeer liggen gegevens die u absoluut niet wilt openbaren en in hoeverre beschermt de AVG deze afdoende?

Privacy heeft in essentie te maken met je identiteit, die kan verschillende vormen aannemen. Dat heeft weinig te maken met data die worden beschermd in de AVG, zoals als je mailadres en je leeftijd. De AVG slaat de plank compleet mis, omdat de verkeerde gegevens in ogenschouw worden genomen. Mijn echte identiteit zit in mijn ervaringen met vrienden en familie, in de intieme verhalen die we delen. Dat bepaalt mij veel meer dan mijn naam en adres.”

Hoe slaat de AVG de plank dan mis?

Aan personen te relateren gegevens” zoals dat in de AVG wordt gedefinieerd hebben in essentie weinig te maken met mijn werkelijke identiteit. Ik snap dat de AVG wil voorkomen dat iedereen je rijbewijs en paspoort koppelt, maar het gaat om de profilering. De beruchte openbaarmaking van zoekgegevens door AOL in 2006 (toen ondanks anonimisering personen identificeerbaar waren) toonde aan dat je zoekgeschiedenis veel meer over je identiteit zegt dan je geboortedatum of adres. Facebook beweert na 300 likes mijn persoonlijkheid beter te kunnen bepalen dan mijn partner.

Facebook en Google weten ontzettend veel over mijn identiteit, terwijl de AVG louter toeziet op gegevens die formeel aan personen gebonden zijn. Google en WhatsApp kunnen hun data inmiddels gebruiken om het ov beter plannen dan NS, Google kan een moord efficiënter oplossen dan de politie. Daarvan moeten we ons bewust zijn.”

De AI-discussie barstte begin 2023, met twee uitersten: enerzijds de angstigen die snelle beteugeling via wetgeving bepleiten, anderzijds ondernemingen zoals Heineken, maar ook Prins Constantijn, die met wetgeving willen wachten gezien de mondiale technologische concurrentiestrijd en AI-ontwikkeling die nog in volle gang is. Waar staat u?

“Die standpunten zijn goed, maar er moet veel meer debat tussen de voor- en tegenstanders zijn. Waar zijn we bang voor? Wat willen we bereiken met een open markt? Waar liggen de grenzen van het begrenzen? Ik sta meer aan de kant van Constantijn van Oranje-Nassau. We zijn ternauwernood begonnen aan het serieuze AI-tijdperk en weten nog niet hoe dat zal uitpakken. ChatGPT is nu dominant, maar er komt nog veel meer. We moeten beginnen met omarmen, experimenteren en fouten maken; vooral veel fouten maken en daarover open zijn. We moeten samen ontdekken, zeker vanuit de overheid. Anders krijgen we, net als met het internet is gebeurd, een situatie waarin dominante commerciële partijen over meer kennis, macht en vaardigheden beschikken dan onze eigen overheid.”

Speelt de AVG daarin een rol?

Zeker, want de AVG leidt tot een angstige, defensieve houding waarin onkunde en het niet willen weten domineren. Dat heeft een zeer groot ongewenst bijeffect. Veel bedrijven, individuen en overheden zijn zich rot geschrokken van de gevolgen van de AVG en de dreiging van boetes en negatieve publiciteit. De AVG is een kaderwet waarbinnen heel veel ruimte voor nuance bestaat. Gegevensfunctionarissen zijn doorgaans echter heel terughoudend en trappen bij het minste of geringste op de rem. Organisaties kunnen daardoor niet experimenteren. Dat vind ik een hele slechte ontwikkeling.”

Is de AVG te sterk gejuridiseerd?

De AVG biedt veel ruimte voor juridische haarkloverij. De onbekendheid en angst leiden tot veel consultancy en verdienmodellen. Ik denk dat er andere formuleringen en interpretaties moeten komen met betrekking tot databescherming. Je kunt je zelfs afvragen of wetgeving het beste middel is om de data en privacy van mensen te beschermen. Dat is een reflex van de oude wereld. Ik denk dat wetgeving bij voorbaat kansloos is gezien de traagheid van de totstandkoming, terwijl de technische ontwikkeling van AI enorm snel gaat.”

De op handen zijnde AI Act beoogt juist om de datamacht van het bedrijfsleven waarvan u de datamacht te groot vindt, in te kapselen. Is wetgeving nu wel of niet nodig?

Je moet bedrijven begrenzen, alleen niet met wetgeving, maar met een systeem waarmee je veel alerter op risico’s kunt reageren. Met AI-wetgeving gaan we veel te lang nadenken over grenzen die niet of slechts tijdelijk vaststaan.”

Er ligt toch een politieke verantwoordelijkheid?

Als overheid moet je burgers beschermen tegen de uitwassen van AI, dat is mooi en goed. De vorm waarin we dat willen doen houdt echter geen pas met de praktijk. Wetten zijn beperkt tot landen of hooguit continenten. Op wereldniveau krijg je het niet geregeld, terwijl AI bij uitstek een mondiale concurrentiestrijd is. Moeten we dan in Europa de AI als eerste gaan begrenzen terwijl de rest van de wereld doorgaat? Je kunt beter proberen om internationale afspraken te maken waarmee je de risico’s voor de hele wereld indamt, en die door een gezelschap van internationale experts laten controleren. Toezicht moet zich agile aanpassen aan de ontwikkeling van de technologie.

Ik vind het Internationaal Atoomagentschap een goed voorbeeld. Deze organisatie bewaakt mondiaal de grenzen van de toepassing van atoomenergie en atoomwapenopslag. Dat werkt veel adequater dan wetgeving.”

Het Atoomagentschap is zeer gewaardeerd, maar dan leg je het AI-toezicht in handen van een club van technocraten die de risico’s van vele duizenden AI-toepassingen in heel veel landen moet zien te beoordelen. Kan dat?

Technocraten klinkt eenzijdig negatief. Het moet een club worden van technische, juridische en creatieve experts, die een afspiegeling vormt van de samenleving. Dat moet je goed organiseren. Als je enkel technocraten bijeenbrengt is dat net zo eenzijdig als louter papieren wetgeving.”

Beteugelen we op die manier de toepassing van AI door bedrijven in VS en Israël die hierin vooroplopen, maar ook de inzet van AI door bijvoorbeeld China en andere dictaturen?

Natuurlijk zullen landen, organisaties en bedrijven proberen om onder het toezicht uit te komen. Het wettelijk alternatief is een afgeleide van de GDPR, die maar voor één werelddeel geldt en een compromis is van vele lobby’s. We hebben nu evenmin grip op alle datastromen en bijvoorbeeld nauwelijks zicht op de Chinese toepassingen. Maar het Atoomagentschap heeft wel toegang tot kerncentrales overal ter wereld zoals recent nog in Zaporizja in Oekraïne, na de inval door Rusland.”

In hoeverre vindt u dat ook media data- en algoritmegebruik te benepen benaderen? Volgen ze de Autoriteit Persoonsgegevens te slaafs?

Het betitelen van de AP als een ‘waakhond’ vind ik à priori al ridicuul. Je maakt jezelf tot een karikatuur in een soort Tom & Jerry scenario. Een waakhond ligt aan de ketting, gromt en blaft heel hard en vormt een bedreiging. Een goede toezichthouder is intelligent, gaat het debat aan en is meelevend.

De AP zou veel beter moet duiden wat verschillende data-tendensen betekenen voor mensen en welke risico’s ze wel en niet opleveren. We willen geen gezag vanuit angst en onkunde.

Daar hebben de media inderdaad een rol in. Die moeten kritisch zijn, ook op hun eigen gebruik van Facebook en Twitter. Aan de ene kant heersen kennisgebrek en angst in de journalistiek, aan de andere kant naïviteit over het publiceren op sociale media en er rijkelijk uit citeren.”

Ergert u zich daaraan?

“Enorm! We hameren op kennis als motor van de vooruitgang, en die wordt meer en meer bezorgd door machines, in complete formuleringen. Dus moet het onderwijs studenten andere vaardigheden bijbrengen, van het beter kunnen toepassen van je eigen creativiteit en kritisch denken tot het kunnen omgaan met frustraties, wanhoop, twijfel en falen. Zo kunnen mensen persoonlijk leren, zo ontwikkelt de maatschappij zich in openheid. Ik maakte een hbo-examen mee met m’n zoon: 80 procent parate kennis en maar een klein deel verklaring bieden en denken. Vreemd in deze tijd!”

Met Pandora Intelligence voorspelt u crimineel en terroristisch gedrag voor opsporingsorganisaties, een van de meest bekritiseerde toepassingen van data en algoritmes?

Min of meer, want wij maken decision making software die afnemers toepassen voor hele complexe beslissingen.”

In de AVG staat dat machines geen vergaande besluiten mogen nemen zonder menselijke tussenkomst. Hoe lost Pandora Intelligence dit op?

“Het politieke correcte antwoord is: er is altijd sprake van een ‘human in the loop’. De mens neemt de beslissing en het systeem is ondersteunend. Dat benadrukt hebbende, wil ik het volgende toevoegen: mensen zijn helemaal niet zo goed in het maken van beslissingen. Dat kan een machine beter, ook in complexe besluitvorming.

Zo dachten mensen dat ze heel goed konden rekenen, maar een machine geeft betere uitkomsten zonder dat er een mens aan te pas komt. We denken heel goed te kunnen onthouden, maar dat is niet waar. Ons hele geheugen is selectief en bevooroordeeld. Het computergeheugen is veel betrouwbaarder. We denken dat we goede chauffeurs zijn, maar software bestuurt auto’s beter, al is het niet foutloos.

Nog steeds denken mensen dat ze superieur zijn in alle taken, en dat wij mensen de sensitiviteit bezitten die noodzakelijk is om besluiten te nemen met verregaande gevolgen. Echter, we discrimineren aan de lopende band op grond van ons vooroordeel. Die ‘bias’ is nauwelijks te detecteren, laat staan eruit te krijgen. Vooroordeel in data en algoritmes is eenvoudiger te detecteren dan bij een mens. Vervolgens is het in elk geval veel makkelijker om die ‘bias’ eruit te filteren. Dit is de argumentatie voor het politiek incorrecte antwoord, maar daar zijn we als samenleving nog niet aan toe.”

Wellicht is het vertrouwen op menselijke tussenkomst gewoon veiliger, of in elk geval beter voor het gemoed van de samenleving?

“Misschien kun je niet zonder discriminatie, niet met en niet zonder AI. Er is geen absoluut principe voor indelingen, dat we als samenleving acceptabel vinden. We moeten net zo kritisch blijven over de menselijke wijsheid die veelal beperkt is, als over de algoritmes van machines. Beide kunnen tot onwelgevallige uitkomsten leiden. Wat niet betekent dat je de onderzoeksmethode op basis van AI dan wel menskracht direct als eng terzijde schuift.”

U legde de nadruk op real-life scenario’s en storytelling, en gaat steeds meer naar ‘kille’ data. Is dat een spanningsveld?

Mijn interesse ligt bij het verhalen vertellen. Nu is er software om verhalen beter te begrijpen en te reproduceren. Een voorbeeld: een Belgische politie-eenheid verwerkte 13,5 miljoen processen-verbaal; voor een machine nauwelijks te begrijpen, want bijna zo ongestructureerd als poëzie. Ons systeem maakt er verhalen van, uit clusters van datapunten met woorden als ‘schroevendraaier’ of ‘leeftijd 32 jaar’. Dat proberen we te vangen in een ontologie die de machine wel kan analyseren. Mensen kunnen dat absoluut niet.”

Met als uitkomst ook voorspellingen over daders?

Een zeer sterk voorspellende waarde.”

Dat roept maatschappelijke afkeur op, toch?

Ja, maar wij houden ons aan de wet, onze klanten doen de toepassing met hun eigen data. Dit gesprek kun je filosofisch of praktisch voeren. Praktisch leveren wij de machine en software. De politie past dat AVG-verantwoord toe. Dit boeit me minder dan het filosofische vraagstuk: hoever kun je gaan om de wereld te verbeteren, criminaliteit en slachtoffers te verminderen? Kunnen we leren van de verhalen en ze gebruiken om dingen te voorspellen? Ik wil me in mijn denken niet laten begrenzen door juridische regels in het hier en nu.”

Netkwesties
Netkwesties is een webuitgave over internet, ict, media en samenleving met achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen.
Colofon Nieuwsbrief RSS Feed Twitter

Nieuwsbrief ontvangen?

De Netkwesties nieuwsbrief bevat boeiende achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen o.g.v. internet, ict, media en samenleving.

De nieuwsbrief is gratis. We gaan zorgvuldig met je gegevens om, we sturen nooit spam.

Abonneren Preview bekijken?

Netkwesties © 1999/2024. Alle rechten voorbehouden. Privacyverklaring

1
0