Stilletjes heeft OpenAI, het bedrijf achter ChatGPT, de vermelding dat hun taalmodellen “politiek onbevooroordeeld” moeten zijn weggehaald uit hun beleidsdocumenten. Zelfs de ambitie om gebruikers van informatie te voorzien die volgens een bepaalde definitie neutraal is, vervalt hiermee.
Hoe moeten we deze verandering zien, die volgt op een jaar waarin OpenAI voortdurend bezig is geweest om te benadrukken hoezeer ze de wereld voor iedereen beter gaat maken? Niet universal income gaat iedereen gelukkig maken, maar universal compute, zei topman van OpenAI Sam Altman nog in mei 2024. Het is een goede vraag om in het kader van de recente AI-top in Parijs te stellen.
Van context naar antwoord
In haar podcast Mystery AI Hype Theater 3000 van Distributed AI Research Institute fileert linguïste Emily M. Bender de AI-hype iedere week vakkundig. Van de zomer opende ze mij weer de ogen met haar opmerkingen dat “zoeken op internet” totaal van betekenis veranderd is in de laatste paar jaar.
Tot een jaar of vijf geleden leidde een zoekvraag, via bijvoorbeeld Google, tot een lijst met plekken waarop die informatie gevonden kon worden. Als je dan naar die plek navigeerde, een blogpost of een krantenartikel, kreeg je de informatie in zijn natuurlijke habitat te zien: context. Maar als je nu een zoekvraag stelt, leidt die vraag naar iets anders. Mensen zoeken natuurlijk niet alleen op Google maar ook met ChatGPT, en als ze dat doen krijgen ze geen plek te zien, maar een antwoord.
Nu kan je natuurlijk zeggen dat dit het gemuggenzift van een linguïst is, maar juist dit soort analyses van wat we eigenlijk aan het doen zijn in de digitale wereld is harder nodig dan ooit. Want nu ik dit onderscheid ken, kijk ik heel anders naar zoekvragen. Er zijn talloze vragen waarop geen antwoord bestaat, of althans geen antwoord zonder context.
Een voorbeeldje: is de arbeidsparticipatie van vrouwen hoog?
Dit zijn alle drie valide antwoorden, alle drie vanuit een ander perspectief. Binnen één perspectief kan men natuurlijk van mening verschillen – kinderopvang is misschien wel duur maar niet zo duur als een groot gat op je cv – maar geen perspectief is neutraler dan een ander.
Doen alsof technologie wél een kloppend of politiek neutraal antwoord kan geven, is toch stiekem een perspectief kiezen en dat als neutraal bestempelen. Filosofen noemen dit ook wel de view from nowhere.
Verschillende perspectieven
Toen ik als tiener twijfelde of ik informatica of filosofie moest gaan studeren zei mijn moeder dat het makkelijker is om programmeur te zijn en op zaterdag filosofieboeken te lezen dan andersom. Daar had ze, vanuit een economisch perspectief, natuurlijk gelijk in.
Als je kijkt naar ons vakgebied vandaag de dag, dan kregen vermoedelijk veel informaticanerds dit soort advies. Dus leven we nu in een wereld waarin programmeurs geen theoretisch kader beheersen voor “wat is eigenlijk een vraag en wat is een antwoord?”, maar wel de macht hebben gekregen om dat voor de meeste mensen te bepalen. En, misschien het ergste, dat dan te presenteren als pure feiten.
Terugblikkend was het misschien een fout van ons allemaal om zo vol de aanval in te zetten op ‘nepnieuws’, want hoe goed het ook is om je te verzetten tegen leugens over ‘tsunami’s aan vluchtelingen’, of dat het de schuld van Jesse Klaver is dat we in een stikstofcrisis zitten, het is nog belangrijker om te snappen dat nepnieuws niet binair waar of onwaar is, maar altijd in een context leeft.
Of Elon Musk met die handbeweging een Hitlergroet bracht is geen vraag van ja of nee, maar een vraag waarvoor 100 jaar geschiedenis nodig is om erover te oordelen; er bestaat daarop geen neutrale kijk.
Die view from nowhere is precies wat techbedrijven zoals OpenAI stelselmatig introduceren, door antwoorden op complexe vragen te behandelen als een hapklaar brokje dat zo verorberd kan worden. Het antwoord van ChatGPT als ik nog meer wil weten over de arbeidsparticipatie van vrouwen: “Ik kan dat wel even voor je uitzoeken”.
Verschillende perspectieven naast elkaar leggen, niet nodig! De ingewikkelde frictie voelen tussen de vrijheid van een individuele vrouw om voor kinderen te zorgen en een wereld die ook wil dat ze werkt, dat hoeft niet. Large Language Models to the rescue.
Verantwoordelijkheid
Los van de inhoudelijke keuzes die OpenAI maakt in de manier waarop het antwoorden produceert en presenteert (waarom beschrijft het taalmodel zichzelf met “ik”? Dat is geen natuurwet maar een keuze met gevolgen) maakt het bedrijf ook steeds politieke keuzes. Data van onafhankelijke websites verzamelen en herverpakken zonder betaalmodel, verzwakt de journalistiek en instanties die voor een open web staan zoals Wikipedia.
Campagne voeren bij onderwijsinstellingen om AI-docenten in te voeren is niet neutraal, maar verzwakt de positie van docenten en wetenschappers als belangrijk onderdeel van een vrije democratie. Zelfs als je gelooft dat AI docenten kan vervangen in het overdragen van kennis; onderwijs draagt ook over hoe we onze samenleving organiseren, zoals Paulo Freire zo treffend beschrijft in Pedagogy of the Oppressed. Als je alleen nog maar les hebt van computers, hoe verhoud je je dan tot de wereld? Wanneer en van wie leer je dat?
En nu dus het loslaten van de ambitie dat AI neutraal moet zijn. Zoals zo vaak bij techneuten begrijpt het bedrijf niet wat een politieke keus is en wat niet, maar verschuilt het zich achter het boetevrije schild van de ingenieur: ‘wij maken alleen dingen, mensen kiezen zelf wat ze ermee doen’.
*) Felienne Hermans (Wikipedia en eigen website) is hoogleraar Computer Science Education aan de VU. Een versie van dit artikel verscheen eerder in NRC
**) Beeld: Sam Altman uit Youtube-video van AI Uncovered