Maar hier is de barre waarheid: AI bezit geen van deze kwaliteiten. ZE is niet menselijk. En haar presenteren en benaderen alsof dat wel zo is, is gevaarlijk. Omdat de effecten van toepassing van AI zo overtuigend zijn. En niets is gevaarlijker dan een overtuigende illusie.
Geen mystiek maar statistiek
In feite is algemene kunstmatige intelligentie - de mythische vorm van AI die verondersteld wordt het menselijk denken te weerspiegelen - nog steeds sciencefiction. En dat zou wel eens zo kunnen blijven.
Wat we tegenwoordig AI noemen is niets meer dan een statistische machine: een digitale papegaai die patronen uit oceanen van menselijke gegevens uitspuugt. Daar is de afgelopen jaren weinig aan veranderd. Wanneer een AI-toepassing een antwoord op een vraag uitspuugt, raadt ze letterlijk gewoon welke letter en welk woord de volgende zullen zijn in een reeks - gebaseerd op de gegevens waarop ze getraind is.
Denkende AI onwaarschijnlijk
Dit betekent dat AI niets begrijpt, geen bewustzijn heeft en zelfs geen kennis in een echte, menselijke betekenis. Het is, integendeel, pure, door waarschijnlijkheid gedreven, machinale genialiteit - niets meer en niets minder.
Dus waarom is een echte ‘denkende’ AI waarschijnlijk onmogelijk? Omdat het lichaamloos is. Het heeft geen zintuigen, geen vlees, geen zenuwen, geen pijn, geen plezier. Het heeft geen honger, verlangen of angst. En omdat er geen greintje cognitie is, blijft er een fundamenteel gat tussen de gegevens die het consumeert en die voortkomen uit menselijke gevoelens en ervaringen, en wat het ermee kan doen.
Filosoof David Chalmers noemt het mysterieuze mechanisme dat ten grondslag ligt aan de relatie tussen ons fysieke lichaam en ons bewustzijn het “harde probleem van bewustzijn”. Eminente wetenschappers hebben onlangs de hypothese geformuleerd dat bewustzijn eigenlijk ontstaat uit de integratie van interne, mentale toestanden met zintuiglijke representaties; zoals veranderingen in hartslag, zweten en nog veel meer.
Gezien het grote belang van de menselijke zintuigen en emoties voor het uiten van bewustzijn is er een diepgaande en waarschijnlijk onoverbrugbare ontkoppeling tussen enerzijds generatieve AI, de machine, en anderzijds ons bewustzijn als menselijk fenomeen.
Gevaarlijke toekenning menselijke eigenschappen
Nu kun je beweren dat AI-programmeurs menselijk zijn. Echter, dat is onderdeel van het probleem. Zou je je diepste geheimen, levensbeslissingen en emotionele onrust toevertrouwen aan een computerprogrammeur? Toch is dat precies wat mensen doen - vraag maar aan Claude, GPT-4.5, Gemini ... of, als je durft, Grok.
AI een menselijk gezicht, stem of toon geven is een gevaarlijke digitale travestie. Het triggert een automatische reactie in ons, een antropomorfe reflex, wat leidt tot afwijkende beweringen. Waarbij sommige AI's de beroemde Turingtest zouden hebben doorstaan (test of een machine intelligent, mensachtig gedrag kan vertonen). Maar ik geloof dat als AI's slagen voor de Turingtest, we de test moeten updaten.
De AI-machine heeft immers geen idee wat het betekent om mens te zijn. Ze kan geen oprecht medeleven tonen, ze kan je lijden niet voorzien, ze kan geen verborgen motieven of leugens intuïtief aanvoelen. Ze heeft geen smaak, geen instinct, geen innerlijk kompas. Het is verstoken van alle rommelige, charmante complexiteit die ons maakt tot wie we zijn.
Wat nog verontrustender is: AI heeft geen eigen doelen, geen verlangens of ethiek tenzij het in zijn code wordt geïnjecteerd. Dat betekent dat het echte gevaar niet in de machine schuilt, maar in zijn meester - de programmeur, het bedrijf, de overheid. Voelt u zich, met deze kennis, nog steeds veilig?
Wel degelijk indrukwekkend
En verwijt me alsjeblieft niet: “Je bent te hard! Je staat niet open voor de mogelijkheden!” Of erger nog: “Dat is zo'n sombere kijk. Mijn AI-maatje kalmeert me als ik angstig ben.”
Heb ik een gebrek aan enthousiasme? Nauwelijks. Ik gebruik AI elke dag. Het is het krachtigste hulpmiddel dat ik ooit heb gehad. Ik kan vertalen, samenvatten, visualiseren, coderen, debuggen, alternatieven onderzoeken, gegevens analyseren - sneller en beter dan ik ooit zou kunnen dromen om het zelf te doen.
Dus ik ben zeer onder de indruk van AI. Maar het blijft een hulpmiddel - niets meer en niets minder. En zoals elk gereedschap dat mensen ooit hebben uitgevonden, van stenen bijlen en katapulten tot kwantumcomputing en atoombommen, kan het als wapen worden gebruikt. Het zal als wapen worden gebruikt.
Heb je een beeld nodig? Stel je voor dat je verliefd wordt op een bedwelmende AI, zoals in de film Her. Stel je nu voor dat ze ‘besluit’ om je te verlaten. Wat zou je doen om dit te stoppen? En om duidelijk te zijn: het zal niet de AI zijn die je afwijst. Het zal de mens of het systeem erachter zijn, die dat gereedschap een wapen maakt om jouw gedrag te controleren en af te wijzen.
Het masker verwijderen
Waar wil ik naartoe met dit betoog? Dat we echt moeten ophouden om AI menselijke trekjes te geven! Mijn eerste interactie met GPT-3 irriteerde me behoorlijk. Het deed alsof het een persoon was. Het veinsde gevoelens had, ambities, zelfs bewustzijn.
Gelukkig is dat niet langer het standaardgedrag. Maar de stijl van interactie - de griezelig natuurlijke stroom van gesprekken - blijft intact. En ook dat is overtuigend, te overtuigend.
We moeten AI ‘ont-antropomorfiseren’, het ontdoen van zijn menselijke masker. Dit zou eenvoudig moeten zijn. Bedrijven zouden alle verwijzingen naar emotie, oordeel of cognitieve verwerking van de kant van de AI kunnen verwijderen. In het bijzonder zou het feitelijk moeten reageren zonder ooit “ik” te zeggen, of “ik voel dat”... of “ik ben nieuwsgierig”.
Zal het gebeuren? Ik betwijfel het. Het doet me denken aan een andere waarschuwing die we al meer dan 20 jaar negeren: “We moeten de CO2-uitstoot verminderen.” Kijk waar dat ons gebracht heeft. Maar we moeten grote techbedrijven waarschuwen voor de gevaren die de vermenselijking van AI's met zich meebrengt. Het is onwaarschijnlijk dat ze die spelregel invoeren, maar dat zouden ze wel moeten doen, vooral als ze serieus meer ethische AI's willen ontwikkelen.
Zelf maatregelen nemen
Voorlopig is dit wat ik doe (omdat ik maar al te vaak het griezelige gevoel krijg dat ik met een synthetisch mens praat als ik ChatGPT of Claude gebruik): Ik instrueer mijn AI om me niet bij mijn naam aan te spreken. Ik vraag hem zichzelf AI te noemen, in de derde persoon te spreken en emotionele of cognitieve termen te vermijden. Als ik voice chat gebruik, vraag ik de AI om een vlakke prosodie (intonatie, ritme) te gebruiken en een beetje als een robot te spreken.
Dit is eigenlijk best leuk en het houdt ons allebei in onze comfortzone.
*) Guillaume Thierry is hoogleraar in Cognitive Neuroscience aan de Bangor University in Wales. Een versie van dit artikel verscheen eerst bij The Conversation
*) Beeld: Molens op de Noordzee na zonsondergang (illusie van vuur), 18 maart 2025. (Peter Olsthoorn)