Het betreft deze drie verhalen:
* Maxim Februari verdient beter dan blinde bevestiging door Volkskrant, NRC en Vrij Nederland
* ChatGPT is hartstikke eng, maar larmoyant jammeren biedt geen soelaas
* Heeft de Tweede Kamer een deepfakeverbod goed doordacht?
Vooral eerstgenoemd verhaal, een scherpe recensie van ‘Doe zelf normaal’ van Maxim Februari, ontmoette kritiek. Of ik blind ben voor de enorme gevaren van kunstmatige intelligentie? En of ik niet zie hoe ellendig de rechtstaat ervoor staat? Ja, op beide vragen, alleen hebben ze momenteel weinig met elkaar van doen.
Niet om gelijk te halen, maar ik vind dat je zuiver redeneren mag verwachten van een hoogstaand maatschappijcriticus. Als je het niveau van orakels als Arnon Grunberg en Bas Heijne of in mindere mate Maxim Februari hebt bereikt, dan wint kennelijk bij het publiek de adoratie het van de kritisch houding. Dat verdienen ze niet. Van de geweldige romanschrijver Grunberg lees ik volkomen onbegrijpelijke kronkels in essays; Heijne spreekt zichzelf vanuit z’n comfortabele positie regelmatig tegen; en Februari – leuker en bescheidener – mag goed onderzoeken alvorens conclusies te trekken.
De rode vlag voor de automobiel
Jazeker, kunstmatige intelligentie is eng en waarschuwingen ertegen zijn noodzakelijk. Net zo goed als aan de eerste automobielen in het straatbeeld een man met een rode voorafging om het volk te waarschuwen. Konden ze ook niet zo hard rijden. Misschien hadden we die regel moeten volhouden, of kunnen we die vlag herinvoeren met zelfrijdende auto’s.
Inmiddels zijn er alleen al in Nederland meer mensen in het naoorlogse verkeer omgekomen dan in de Holocaust. We gedenken die verkeersslachtoffers nooit collectief, wie weet nu dat elke derde zondag van november de Werelddag voor de Herdenking van Verkeersslachtoffers plaatsvindt? Waarschijnlijk staan we er liever niet bij stil omdat we zo evident potentiële daders zijn met ons gejakker als we te laat van huis gaan of als we de verloren tijd van een file menen te moeten inhalen.
Hebben we over tien jaar ook een Werelddag voor de slachtoffers van kunstmatige intelligentie (AI)? Dat er slachtoffers zullen vallen, staat buiten kijf. Voorlopig zijn er meer mensen gered door AI, vooral door toepassing in de medische sector zoals bij het stellen van diagnoses voor radiologie.
Aan de andere kant is vooral de inzet van algoritmes in opsporing en handhaving discutabel want leidt nogal snel tot vooroordelen en discriminatie. Deze maand publiceren Lighthouse Reports en Wired UK een serie artikelen over dit soort ongewenste effecten, onder meer over fraudedetectie in Rotterdam die uitkeringsgerechtigden onheus kan treffen. De serie
Meer AI in de politiek?
Staat daarmee de rechtstaat op het spel zoals Februari beweert? Hij vreest een complex van algoritmes en data om menselijk gedrag te reguleren en sturen, dat gaat verder dan één kwalijk algoritme. Dit risico is denkbaar, maar in de huidige crisis van de rechtstaat speelt deze oorzaak nauwelijks. De rechtspraak stapelt de ene op de andere fout, van blunders van het OM met onder meer de Kroongetuigen, tunnelvisies die tot verkeerde vonnissen leiden. En bovenal het seponeren van veel te veel zaken in verband met overbelasting. En natuurlijk is het beter dat boeven hun straf ontlopen dan dat rechters snel uitspraak doen met ondersteuning van beslisregels (algoritmes)…
De democratie functioneert onvoldoende, en weet voor kwesties als stikstof, woningbouw, immigratie en klimaat geen basis voor zinnige compromissen te brengen. Wantrouwen is het gevolg. Alle analyses over de verkiezingsoverwinning van BBB hoef ik hier niet te herhalen:
Echter, data en algoritmes zijn daarvan niet de oorzaak. Wellicht zelfs: hadden we maar wat meer data en algoritmes om tot goede voorstellen en politieke afwegingen te komen: bijvoorbeeld een algoritme dat uit data over natuur, stikstof, veeteelt en andere veroorzakers van stikstofneerslag tot een beter geheel van opties komt dan minister Van der Wal met haar rigide kaart op grond van RIVM-inzichten en Aerius.
Idem dito voor immigratie waarvoor de politiek gebonden is aan het Vluchtelingenverdrag van 1951 dat zowel in voorschriften als in uitvoering en handhaving aan alle kanten faalt. Zouden actuele data en algoritme kunnen bijdragen aan een betere uitkomst voor asielpolitiek dan de rigide besluiten die nu de voornamelijk de mensenhandel dienen?
Tussen Erwin Blom en Sander Duivestein
Sander Duivestein betoogde op Netkwesties dat we ChatGTP aan banden moeten leggen en kreeg tegenspraak van experts op Netkwesties en van mij. Nu staat aan banden leggen niuet gelijk aan verbieden, maar wel aan het vrije gebruik beperken of uitbreiding voorkomen.
Duivestein krijgt impliciet steun van Beatrice de Graaf die in NRC betoogt dat kunstmatige intelligentie met veel te veel optimisme gepresenteerd wordt. Nu heb ik net zo veel waarschuwingen als optimisme zien passeren, maar haar bedenkingen zijn goed geformuleerd: te snel omarmen van technologie met ontwerpfouten tot gevolg; dominantie van manipulatief bedrijfsleven in de meningsvorming. Bovenal staat kennis genereren niet gelijk aan inzicht verwerven wat mensen het best kunnen.
De Graaf is net als ik historicus en stelt dat het optimisme de menselijke geschiedenis op deze drie manieren ontkent. Ik weet niet of ze hier precies geschiedenis juist duidt. Dat speelt breder en dieper dan recente invloeden van bedrijven. Er is een grote vraag wat technologie in de geschiedenis aan goed en kwaad heeft gebracht en onder welke voorwaarden. Een algoritme kan helpen om de kennis voor de beantwoording van zo’n vraag te vergaren – in de hoop dt niets wordt vergeten – waarna mensen in de inzichten formuleren.
Het kan makkelijk te snel gaan. Ik volg al enkele maanden Erwin Blom die zijn groeiende verbazing over de kunsten met AI met ons deelt, zoals bijvoorbeeld de videoproducent Visla. Dat is inderdaad verbazingwekkend: je kiepert er Nederlandse tekst en beelden in en er komt een Engelstalige videoclip; zoals met m’n toneelrecensie.
Deepfakeverbod?
Maar ik geloof niet in het tegenhouden van technologie, hoe graag ik als conservatief zou willen dat het kon gezien de afbreuk aan menselijke waardigheid die er niet zelden mee gepaard gaat. Luddisme, het emotioneel tegenhouden van nieuwe technologie, vind ik even begrijpelijk als onzinnig. Onderzoekt alles en behoudt het goede, dat staat ons te doen.
O ja, jhet genoemde derde artikel met een verdediging van behoud van AI ging over de deepfakes, na het sexfake-schandaal dat Welmoed Sijtsma op de NPO aankaartte. Niets meer van gehoord, want de stoet trok weer naar de volgende ophef en vertier. Zal het eens navragen bij Justitie…