Woensdag 11 december 2024 schreef Beatrice de Graaf in haar NRC-column over de behandeling van de revolutie in Syrië: “…in de politieke commentaren en talkshows domineerde de bekende Nederlandse combinatie van historische kortzichtigheid en strategisch analfabetisme.”
Miljoenen tv-kijkers laten zich op het verkeerde been zetten, maar er volgt geen rectificatie laat staan schuldbekentenis van die media. Want regel 1 in de hoofden van journalisten: wij verkondigen de waarheid; en zo niet treedt regel 2 in werking: het is niet onze schuld.
Er is reden genoeg om kletsshows vaarwel te zeggen, ik deed het negen jaar geleden, en legde later nog een keer de reden uit: “Ik vind de desinformatie van columns en kletsshows als DWDD, Jinek en Goedemorgen Nederland veel schadelijker dan nepnieuws.” Trouwens, in jurisprudentie is vastgelegd dat columnisten vrij zijn om te fabuleren. Van AI vinden we de bullshit wel heel erg, trouwens.
Op de radio is Mediaforum een bekende kletsshow. Daarin werd een onthulling over AI-gegenereerde ingezonden brieven onjuist ingeleid door Hansje van de Beek (Argos), gevolgd door bedenkelijk commentaar. Dat is een typisch fenomeen van kletsshows: feiten worden zodanig geïnterpreteerd dat ze goed passen bij de mening die deelnemers aan tafel te berde willen brengen.
Superexpert Danny
Goed, waar ging het over? Bij de ingezonden brieven van de Volkskrant van zaterdag 30 november 2024 ontdekte ik dat de uitgelichte brief met als titel ‘Conformisme’ letterlijk buitengewoon stilistisch en filosofisch van aard is. Hij komt van ‘Danny Schram, Den Haag’.
Ik zocht en vond eerdere ingezonden brieven van Danny de Volkskrant zoals van 20 september 2024: “Stop het met saboteren van je kinderen”; op 1 november en op 5 november over Amerikaanse verkiezingen. Op 20 oktober is Danny kenner van de arbeidsmarkt en vroegpensioen, wederom met fraaie volzinnen. Een paar dagen eerder nog, op 18 oktober reageert Danny op de genderstatistiek met de welluidende frases: “Misschien zou het zinvoller zijn om te accepteren dat seksualiteit, net als taal, evolueert en dat vastomlijnde definities uiteindelijk betekenisloos worden. Het is niet de samenleving die zich moet aanpassen aan de mensen die buiten de norm vallen; het is de norm zelf die moet verdwijnen.”
Het werd nog grappiger, want Danny Schram heeft werkelijk overal verstand van volgens kwaliteitskranten. Hij krijgt in 2024 met de regelmaat van de klok toegang tot de opiniepagina’s van NRC, met acht gepubliceerde brieven tussen 18 maart en 5 november, over uiteenlopende onderwerpen als slavernijverleden, ‘domrechts’, klimaat en zomertijd. De constante in de brieven is hun uitzonderlijke formulering.
NRC gefopt?
NRC ging in datzelfde weekend van 29 november 2024 al op/door de knieën. Menig journalist en krantenlezer moest gniffelen bij een bekentenis en kritisch oordeel van de NRC Ombudsman: een tot 'uitgelichte inzonden brief' waarin ene Bobby Hazeleger zich verweert tegen kunst genereren door AI. Opvallend is de eloquente tekst, ongewoon voor ingezonden brieven.
NRC ontving twee reacties dat de brief met ChatGPT geproduceerd was. Deze twee persona’s bleken alter ego’s van Hazeleger te zijn. De laatste was wel een echte identiteit, al was het controleren daarvan aanvankelijk vergeten door de redactie.
Wat speurwerk brengt meer aan het licht. Genoemde Bobby Hazeleger heeft behalve in NRC ook in De Gelderlander een ingezonden brief weten te publiceren, “AI en wij, een oproep vanuit het kunstenaarsveld”, hoogstwaarschijnlijk door AI gemaakt, met zinnen als: “De kunstenaar is geen simpel instrument, geen robot die slechts de draad volgt van wat reeds eerder is geprepareerd. De kunstenaar is een alchemist van emoties, een wever van dromen die zich het wereldlicht eigen maakt.”
Daarover publiceerde ik nog niet. (Eerder werd het AD, zuster van De Gelderlander, geconfronteerd met AI-brieven van Alexander Klöpping, maar onder valse naam.)
Reacties van NRC, Volkskrant en Gelderlander
Hoofdredacteur Joris Gerritsen van De Gelderlander is verrast en zegt desgevraagd: “Dit is buitengewoon ingewikkeld. We willen graag lezers de kans geven om originele meningen te delen over onderwerpen die hen raken. In hoeverre kunnen we ons beschermen tegen compleet verzonnen meningen? Daarover gaan we intern eens flink discussiëren.”
NRC kwam tot op heden niet terug op de acht brieven. Weliswaar had de krant al over AI-brieven geschreven, maar dat ging over één exemplaar, door de schrijver zelf aangebracht. Dat (tenminste?) acht brieven van ‘Danny Schram’ niet opgemerkt waren, moet de krant dat melden of verzwijgen?
De Volkskrant was zo sportief om de onthulling zelf te publiceren. Met hulp van opiniechef Peter Wierenga werd het een opinie, met de afspraak dat de hoofdredacteur apart commentaar zou geven. Pieter Klok deed dat op zaterdag 7 december 2024. Dat valt zeer te waarderen.
De kop luidt: “Waarom de beste lezersbrieven nooit met AI zullen worden geschreven.” Dat is op zich discutabel. Een dag eerder schreef ik: “Nu komt de pijnlijke vraag: waarom krijg Danny Schram in Den Haag, geen expert in de zeer uiteenlopende onderwerpen waarover hij brieven schrijft, zo eenvoudig toegang tot de opiniepagina’s van NRC en Volkskrant?
Het antwoord is duidelijk: vanwege zijn uitstekende stijl van schrijven, met een inhoud die daardoor minder ter zake doet. Zowel de teksten van Hazeleger als Schram vormen een boeiende mix van filosofie en AI.”
Unieke mens?
Tot vijf keer toe vond de Volkskrant-redactie, en acht keer de NRC-redactie de brief van Schram beter dan tientallen andere brieven die op die dagen niet werden geselecteerd. Dat weerspreekt logischerwijs de bewering van Klok dat de beste lezersbrieven niet uit AI komen. Wat uitgebreider luidt zijn stelling:
“AI draait op waarschijnlijkheden. Ze zet de meest waarschijnlijke woord- en beeldcombinaties naast elkaar. Die methode levert verbluffende resultaten op. Maar het aantrekkelijke van de mens is nu juist het onwaarschijnlijke, het onverwachte, het niet-clichématige.”
Maar de hoofdredactie is er niet zeker van mens en machine te kunnen onderscheiden, dus dit gaat gepaard met een verbod: “We zullen brievenschrijvers vanaf nu expliciet op het hart drukken om geen gebruik te maken van generatieve AI.”
Dan nog wordt het moeilijk, erkent Pieter Klok: “We zullen er ook beter op letten bij de selectie van brieven en bij twijfel een softwareprogramma inzetten dat AI detecteert.”
Aan software heb je weinig, want die kon bij de brieven van Danny Schram geen AI-toepassing detecteren. Als mens kun je wel AI-gebruik vermoeden, anders had ik het niet ontdekt. Maar even eerlijk: had Danny niet ruiterlijk bekend, had ik dan nog een verhaal gehad? (Nog afgezien van de nodige moeite om vast te stellen dat Danny Schram een ware identiteit is, gezien de vage profielen op LinkedIn, Facebook en Instagram.)
Maar de kern van m’n twijfel over de oplossing van de Volkskrant: de AI-output kun je herschrijven, en dan één alinea, of één zin of maar enkele termen uit de AI laten staan. Wordt dat opgemerkt? Ombudsman Arjen Fortuin van NRC stelt realistisch: “Dan blijft over de vraag naar het gebruik van AI-toepassingen bij het schrijven. Controle op het totstandkomingsproces van lezersbrieven lijkt me daarbij een illusie.”
De Groene, Emma Curvers en Femke Halsema
En daarbij komt, Schram suggereerde ook filosofie die hij had geleerd, te hebben toegepast. Dat werpt een andere vraag op: hoe herken je plagiaat, al dan niet via de omweg van AI gebruikt? Stel, je neemt een geweldige ingezonden brief uit The Guardian over voor een Nederlandse krant? Of als columnist speel je leentjebuur bij eminente columnisten als Thomas Friedman van New York Times of Samuel Rachman van Financial Times. Is dat trouwens erg? Want dat zou het bedenkelijke gemiddelde niveau opvijzelen van Nederlandse columnisten, die vrijwel allemaal voorspelbaar zijn, zowel op links (Sheila Sitalsing etc.) als rechts (Leon de Winter c.s.)
Dan toch een compliment voor een column, van Emma Curvers die op 14 december 2024 in de Volkskrant schrijft naar aanleiding van een voortreffelijk artikel van Eva Hofman en Joris Veerbeek in De Groene van 11 december 2024. Dit duo detecteerde – met hulp van Sightengine - bijna 300 AI-plaatjes in PVV-groepen met als doel (racistische) vooroordelen aan te wakkeren.
Curvers schrijft: “Nu kan het verleidelijk zijn te denken dat die schaapachtige PVV-volgers zich massaal hebben laten foppen. Wat opvalt als ergens AI is ontmaskerd, is dat mensen (ook ik) zichzelf graag feliciteren met hun onfeilbare AI-herkenvermogen. Vooral achteraf. Vorige week bleek dat in De Volkskrant en NRC door AI geschreven ingezonden brieven hebben gestaan; lezers schreven nadien dat die vol zaten met ‘clichés’, de stijl vonden ze ‘gezwollen’. Wat mensen ook vaak beweren: aan AI-producten ontbreekt menselijkheid.”
Het inzetten van een eigen realiteit is zo oud als (de keizers op) de weg naar Rome. Curvers geeft het voorbeeld van Karl Rove en George Bush (boeiende bron). Maar creatie van een alternatieve realiteit geldt voor vrijwel alle partijen en personen bij verkiezingen; of gewoon dagelijks voor iedereen op Instagram, TikTok, zelfs onze ‘reële’ omgeving. We hebben het over beeldvorming, nu een centraal thema van Netkwesties, van Joodse Raad tot de familie Blom-docu.
Uiteindelijk vindt die beeldvorming in individuele hoofden plaats, op grond van genen, opvoeding en ervaringen. Ja, daar wordt misbruik van gemaakt door extreemrechts, maar evenzeer door parmantig links. Zo zegt Femke Halsema in een vraaggesprek met de Volkskrant van 14 december 2024: “Dus toen heb ik gezegd dat ik me kon voorstellen dat de gebeurtenissen de herinnering aan pogroms terugbrengen. Daarmee heb ik recht willen doen aan hoe mensen zich voelden…”
Dus de voedingsbodem voor de ‘strengste asielpolitiek ooit’ is dezelfde als voor het meegaan door Halsema in de oorlogspropaganda van de regering-Netanyahu die tienduizenden doden maakt. Dat is de voedingsbodem waarin AI geen kunstmest meer nodig heeft. Terecht zegt Curvers: ik weet geen oplossing.
Dichter en taalwetenschapper
Op woensdag 11 december 2024 publiceerde de Volkskrant een serie ingezonden brieven over de AI-kwestie. Interessant vind ik de brief van Onno Kosters, taalwetenschapper, vertaler Engels en dichter. Hij betitelt de woordkeuze vanuit ChatGPT in de brieven van Schram als “tekstbagger op internet”.
Zoals Curvers ook stelt, is het een illusie te denken dat gemiddelde krantenlezers de ‘bagger’ onderscheiden, redacteuren konden dat al niet. Dus oneens met deze opmerking van Kosters, maar zijn volgende constatering intrigeert me: “Net zoals het internet en later sociale media bijdroegen aan democratisering, in de zin van toegang tot kennis en debat, doet AI dit ook’, stelt Oltshoorn. Dat is een misvatting. AI voorspelt: niet alleen tekst, sec, maar ook de tekst die we denken te willen lezen; de tekst waarmee we denken ‘ons’ argument op papier te zetten.”
(Aan de naamspelfout zie je dat Kosters, niet gecorrigeerd door de redactie, zie je dat zijn ingezonden brief niet uit ChatGPT komt.) Het gaat om de laatste zin, die me op de volgende gedachte brengt: AI zal meer en meer niet enkel de vorm, maar ook de inhoud van ons denken beïnvloeden.
Net als sociale media de telefoonverslaving en onze dagelijkse communicatie compleet veranderd hebben, qua vorm en inhoud. Dankzij AI werd Danny Schram door opinieredacties beschouwd als een belangrijk denker op vele terreinen. Onnodig te zeggen dat ik de reactie van Vincent Everts bij dit verhaal naïef vindt, AI is niet zomaar een hulpje zoals een spellingchecker. Dan liever de worsteling van uitgever Christian Van Thillo met AI.
Of nog kernachtiger: die ingezonden brievenrubriek vormt het eerste harde signaal dat traditionele media in de weergave van realiteit met AI nog meer concurrentie krijgen in beeldvorming. Daar doet ze zelf vrijwillig aan mee, met columns en kletsshows om lezers en kijkers te binden met amusement vermomd als informatie.
Met Onno Kosters hoop ik van harte dat onderwijs een remedie zal bieden. Zo niet, is de vraag: hoe erg is het dat we met z’n allen in één groot Hollywood komen te leven, of in alsmaar meer van de realiteit afwijkende beeldvorming?
Dit artikel wordt te lang, dus tijd om te stoppen...
Ik word moe van die voortdurende discussie over of iets wel of niet met ChatGPT is gemaakt. ChatGPT is gewoon een hulpmiddel, net zoals een tekstverwerker, spellings / gramatica checker of een zoekmachine. Hoe je het artikel vormgeeft, welke toon je kiest, welke argumenten je aandraagt—dat blijft de verantwoordelijkheid van de auteur, mij dus, zelf. Als je een brief schrijft met hulp van ChatGPT, dan ben jij degene die die argumentatie vormgeeft en beheert.
Het is m.i. onzinnig om standaard te moeten vermelden dat ChatGPT is gebruikt, net zoals de gedwongen cookie-meldingen op websites. Ook zogenaamd ‘onderzoekswerk’ van Peter Olsthoorn om te achterhalen of een tekst door AI is ondersteund, voegt weinig toe. Wen er maar aan, want het wordt/is de norm, voor alle teksten.
Als compromis is het prima om voor een jaartje of zo te zeggen: “Deze tekst is mede tot stand gekomen met ChatGPT, maar de inhoud en mening zijn volledig van mijzelf.” Daarmee is de kous af. Na een jaar stoppen we er mee (doen we natuurlijk nooit, blijft ons achtervolgen, maar niemand spendeert er aandacht aan)
BTW, natuurlijk heb ik ChatGPT gevraagd om dit netjes te maken... MAAR IK BEN HET!
Het is al een behoorlijke tijd zo dat Google grote invloed heeft op wie als een 'autoriteit' wordt gezien op een bepaald terrein. Voor veel mensen is helemaal niet duidelijk hoe het Google algoritme dat bepaalt, voor een relatief kleine groep specialisten is het enigszins duidelijk. Het kan snel veranderen en er is geen transparantie dus is het nooit zeker welke belangen van de aanbieder meewegen.
Jouw werk aan dit artikel, Peter Olsthoorn, maakt heel duidelijk dat het nu niet zo heel moeilijk meer is om deskundig ogende meningen te hebben over uiteenlopende onderwerpen. Daar moet weer ernstig over nagedacht worden, lijkt me, en vooral ook gepubliceerd, gedebatteerd, mogelijk gereguleerd (dat laatste wordt ongetwijfeld als een kansloze of ongewenste missie gezien door velen maar ik noem het toch maar).
Interessant betoog, Peter Olsthoorn, dat tegelijkertijd prikkelt en vragen oproept. Bijvoorbeeld: zijn de traditionele media beter uitgerust om experts te selecteren en opinievorming te stimuleren dan het brede scala aan informatie dat via AI-tools toegankelijk is? En wat is er eigenlijk mis met het inzetten van AI bij het schrijven van artikelen? We maken immers al decennia gebruik van hulpmiddelen zoals grammaticacontrole en spellingscheckers in tekstverwerkingsprogramma’s.
Het idee om opinievorming grotendeels naar sociale media te verplaatsen, klinkt logisch vanwege de interactieve aard van die platforms. Maar het roept een fundamentele vraag op over de rol van traditionele media. Deze lijken steeds meer te verschuiven van feitelijke verslaggeving naar opinievorming en profilering in hun artikelen. Is dit debat over AI niet eerder een spiegel van de uitdagingen waar traditionele media voor staan, dan een discussie over de technologie zelf? Een toekomstperspectief dat vraagt om verdere reflectie.
Heel goed om het debat hierover te voeren, Peter. Maar laten we dat vooral niet alléén doen vanuit de wens om AI buiten de deur te houden. Mijn voorspelling: de grote gevestigde media worden hierdoor nog strenger rond het gebruik van AI (ze moeten wel...), met als gevolg dat ze nog sneller worden voorbijgestreefd door nieuwe partijen die daar wel meer voor open staan.
Hogere dijken leiden wellicht tot iets meer 'veiligheid' maar beperken ook de experimenteerruimte. De grote uitdaging van vandaag is dus: hoe integreer je kunstmatige intelligentie in je journalistieke ziel?