Menu

None

Doorleving is niet ChatGPT’s grootste probleem

Over Artificial Intelligence, woorden en hun betekenis, en menselijke drijfveren

Wat staat er op het spel wanneer theologen aan de slag gaan met ChatGPT? Bron: Bruno via Pixabay

Wat staat er op het spel wanneer theologen aan de slag gaan met AI? Of wat zou er op het spel moeten staan? Ik wil deze vragen bespreken door te reageren op de bijdrage van predikant Evert-Jan Vledder in Woord & Dienst en op Theologie.nl, waarin hij zijn ervaringen deelt met het maken van een preek met behulp van ChatGPT.

Laat ik om te beginnen mijn waardering uitspreken dat Vledder zijn nek uitsteekt om openhartig te reflecteren op zijn ervaringen met verkondiging en kunstmatige intelligentie (Artificial Intelligence; AI). ‘Kunstmatige intelligentie is ondertussen overal. We moeten ons er daarom toe verhouden,’ schrijft hij en hij geeft een aanzet. Deze aanzet vraagt om een vervolg.

Geloof in gevoel

Vledder noemt in zijn artikel drie dingen die op het spel staan: zijn eerlijkheid, zijn mens-zijn en zijn geloofwaardigheid. Kernpunt van zorg is: een door ChatGPT gegenereerde tekst is niet doorleefd, dat wil zeggen: staat los van de rafeligheid die het menselijk bestaan kenmerkt. Zonder die doorleving is de preek, hoe inhoudelijk en tekstueel aansprekend ook, oneerlijk en ongeloofwaardig.

Over passie van Petrus lezen we niets

Hij neemt als voorbeeld de ‘eerste preek’ van Petrus uit Handelingen 2. Vledder tekent Petrus’ toespraak als goudeerlijk, vol passie, integer en authentiek. Een preek kan volgens Vledder alleen authentiek zijn wanneer die gemaakt is door een echt mens van vlees en bloed, die chagrijnig kan opstaan of blij worden van de geboorte van een kind.

Door doorleefde ervaring als belangrijkste waarheidstoets te presenteren toont Vledder zich een kind van deze tijd. De Israëlische historicus en futuroloog Yuval Noah Harari duidt ‘geloof in gevoel’ als een van de belangrijke geloofsartikelen van de postmoderne westerse mens. Gevoelens worden gedacht (geloofd) het meest eerlijk te zijn.

Met dit geloofsartikel in de hand vraagt Vledder hoe een computerprogramma een echt eerlijk betoog kan generen. Een computer kent geen angst, chagrijn of blijdschap. Vledder sluit daarmee aan bij het gewicht dat in deze tijd gegeven wordt aan beleving en gevoel als laatste waarheidstoets. Dat hoeft niet erg te zijn – hoewel diezelfde Harari daarvan de kwetsbaarheden laat zien.

Bezwaarlijk is echter wel dat Vledder suggereert dat er bijbelse grond voor dit postmoderne fenomeen is. Zoals hij het nu beschrijft, doet Vledder alsof in de Bijbel Petrus’ toespraak geschetst wordt als goudeerlijk en vol passie gebracht. Dat is niet het geval. Petrus betoogt met een beroep op citaten uit psalmen en profeten waarom Jezus de Messias is. Als we willen speculeren waarom (zoals Handelingen het vertelt) drieduizend mensen zo getroffen waren dat ze zich lieten dopen, moeten we dat eerder zoeken in de inhoudelijke kracht van Petrus’ betoog. Over doorleefde eerlijkheid of passie lezen we niets.

Typemachine
Woorden hebben macht. Bron: Gerd Altmann via Pixabay

Echt of namaak

Inhoudelijk valt er wat af te dingen op het kernpunt dat preken gegenereerd door ChatGPT niet overtuigen omdat ze menselijke doorleving ontberen. Ten eerste is de tekst van ChatGPT het resultaat van een vele malen grotere menselijke doorleving dan alleen die van Vledder. ChatGPT genereert de preek immers op basis van wat hij zelf invoert, en op wat er aan teksten ‘zweeft’ op het internet. Beide komen echter voort uit mensen van vlees en bloed.

Alleen kun je door hoe ChatGPT geprogrammeerd is, niet meer achterhalen wie
de concrete mensen zijn van wie de chatbot teksten gebruikt. In tegenstelling tot Vledders conclusie dat de computer-gegenereerde tekst eerlijke doorleving mist, kun je dus zeggen dat deze tekst juist de doorleving van een enorme hoeveelheid mensen reflecteert.

Ten tweede brengt Vledder met het beroep op doorleefde eerlijkheid een veel gehoord maar in de praktijk weinig steekhoudend bezwaar tegen door computers gegenereerde creatieve uitingen naar voren. Vaak wordt eerst het punt gemaakt dat computers nooit kunnen tippen aan menselijke kunstenaars. Als dat vervolgens almaar beter tóch lukt, wordt naar voren gebracht dat deze uitingen doorleving missen omdat ze niet van echte mensen komen.

Maar dit laatstgenoemde bezwaar wordt alleen naar voren gebracht wanneer mensen wéten dat ze te maken hebben met creatieve uitingen gegenereerd door computers. Weten ze dit niet, dan lukt het vrijwel niemand, op grote experts na, om door computers gegenereerde kunstuitingen te onderscheiden van die van menselijke kunstenaars. Ik verwacht dat dit met preken niet anders zal zijn. Het zou boeiend zijn de proef op de som te nemen.

Wie ChatGPT gebruikt, maakt zich schuldig aan heling

Opvallend is wat Vledder níet noemt als wat er op het spel staat: zijn kennis en kunde als exegeet. Misschien refereert hij impliciet daaraan wanneer hij aangeeft dat er scherpe trefwoorden en duidelijke zoekopdrachten nodig zijn om ChatGPT een preek te laten genereren. Tegelijkertijd omschrijft hij dit werk als ‘vrij eenvoudig’ en plaatst hij het formuleren van ‘gepaste trefwoorden en zoekopdrachten’ expliciet tegenover ‘de bijbelteksten in de grondtalen uitpluizen’.

Het is wat mij betreft essentieel om nut en noodzaak van exegetische kennis en kunde te benoemen. Een belangrijke zwakte van chatbots als ChatGPT is namelijk dat ze met grote overtuiging onwaarheden kunnen produceren. De enige manier om dat te doorzien is met behulp van eigen expertise. Dit punt sluit aan bij andere zaken die op het spel staan.

Vier criteria

Emily M. Bender noemt in een interview in de NRC vier criteria om verantwoord ChatGPT te kunnen gebruiken (26–27 augustus 2023, Weekendkatern pp. 36– 37). De eerste twee hangen samen met kennis en kunde. Degene die ChatGPT gebruikt, moet de kennis en kunde hebben om te beoordelen of de inhoud wel klopt. In het geval van preken dus bijvoorbeeld de exegetische kennis en kunde om kaf van koren te onderscheiden.

Maar kennis en kunde zijn ook nodig om de vooroordelen te doorzien en te neutraliseren in de antwoorden van ChatGPT. Dit vraagt om kennis en kunde van hoe ChatGPT werkt. De data waarmee ChatGPT bijvoorbeeld getraind is, zijn onevenredig afkomstig van welgestelde witte Angelsaksische mannen.

De andere twee criteria hebben te maken met ethiek. Zoals Bender het in het interview zegt, moet je als je ChatGPT gebruikt ‘niets geven om originaliteit en herkomst van de inhoud’. Vledder is zich daarvan bewust, wanneer hij noemt dat ChatGPT gebruikmaakt van ‘miljoenen teksten die over het internet “zweven”’. ‘Zweven’ klinkt vrij onschuldig. Maar de programmeurs van ChatGPT hebben mede gebruikgemaakt van illegaal verkregen data, in gewoon Nederlands: gestolen goed. In die lijn scherp doorgeredeneerd maakt iedereen die gebruikmaakt van ChatGPT, zich schuldig aan heling.

Als tweede ethisch criterium noemt Bender dat wie ChatGPT gebruikt de ‘enorme verkwisting van natuurlijke hulpbronnen als water en energie’ en de veelal erbarmelijke omstandigheden van de menselijke moderators – mensen die de input en output van de chatbot controleren op ongewenste inhoud – voor lief neemt.

Regulatie versus reparatie

Gebruikers van ChatGPT of andere chatbots moeten nog met andere criteria rekening houden. Ethicus en onderzoeker Maaike Harmsen probeert eveneens naast de interessante mogelijkheden de nadelige kanten van chatbots naar voren te brengen, zonder te vervallen in technofobie. Zij vraagt aandacht ervoor dat een mogelijk ontwrichtende techniek zonder enige beperking op mensen wordt losgelaten en roept op tot veel meer regulatie. Zij vergelijkt dit loslaten met het zomaar in het verkeer loslaten van een nieuw type voertuig of van een experimenteel medicijn op mensen. Dit wordt gedaan met de jongensachtige bravoure van ‘go fast and break things’ dat Silicon Valley nog steeds kenmerkt.

Repareren komt achteraf wel, is de gedachte. Het is echter de vraag of dat achteraf nog kan. Het gaat hierbij niet om het onwaarschijnlijke risico dat AI de mensheid zal uitroeien, maar om de reële en actuele risico’s van informatievervuiling en manipulatie. Vanwege de bezwaren van Bender en Harmsen zie ik ChatGPT niet eens meer als nuttig gereedschap om tot een gestructureerd betoog te komen, maar als iets dat ik niet meer zal gebruiken.

Theologische doordenking

Met de vraag naar wat er op spel staat, zit Vledder wel op een goed spoor. Ik stel voor dat spoor in een wat andere richting te volgen door in te zoomen op de vraag: staat er voor ChatGPT iets op het spel? Het programma kent geen gevoelens. Het heeft geen belangen die gediend of geschaad kunnen worden. Als mensen het massaal links zouden laten liggen, zoals met Hyves of MSN gebeurd is, zal het programma zich niet gekwetst of verlaten voelen. Evenmin zal het zich verzetten tegen een update die alles wat het eerder geleerd heeft, uitwist.

De vraag bij deze ontwikkelingen is die naar de samenhang tussen woorden en hun betekenis

Ook de antwoorden van de chatbot betekenen niets voor de bot zelf. Zint het ene antwoord je niet, dan vraag je gewoon een ander en de bot zal zonder morren leveren. Maar omdat de bot niet werkelijk weet wat die antwoorden betekenen, zijn er drommen menselijke programmeurs en moderators nodig die al hun tijd en energie steken in het voorkomen van schadelijke gevolgen in de echte wereld door ChatGPT-uitspraken.

Wat mij betreft is de passende vraag om te stellen bij deze technologische ontwikkelingen die naar de samenhang tussen woorden en hun betekenis. Dan bedoel ik: de samenhang tussen woorden en dat wat ze uitwerken in de wereld, de gevolgen die ze hebben, de gevoelens die ze oproepen en de belangen die gediend worden.

Dat terrein is bij uitstek terrein van theologen. Wat ook bij uitstek terrein is van theologen, is het scherp stellen op de levensbeschouwelijke, zelfs religieuze, drijfveren van de mensen die deze technologie ontwikkelen. Het zijn immers hún gevoelens en belangen die op het spel staan wanneer ChatGPT wel of niet meer gebruikt wordt. Die gevoelens en belangen hangen weer samen met de betekenis die zij aan de wereld geven. Er is wat dat betreft zeker in het Nederlandse taalveld nog volop ruimte en noodzaak om een gespecialiseerde theologisch beschouwen van AI en andere technologie te ontwikkelen.

Fulco Timmers werkte onder meer als gemeentepredikant en programmaleider bij de PKN en buigt zich graag over complexe vraagstukken.

Meer over ChatGPT

Artikel van Emily Bender, Timnit Gebru, Angelina McMillan-Major en Shmargaret Shmitchell

Eva Hofman en Joris Veerbeek in de Groene Amsterdammer (7 juni 2023).

Maaike Harmsen in De Ongelooflijke Podcast nr. 144. Tristan Harris en Aza Raskin op YouTube; vgl. ook hun documentaire voor Netflix: The Social Dilemma.

Over de ‘wapenwedloop’ tussen de programmeurs/moderators van OpenAI en gebruikers die ChatGPT kunnen veranderen in een soort evil twin: https://tinyurl.com/89xhntkf; vgl. ook https://tinyurl.com/3z6tnnz5


Geloof en psyche
Woord & Dienst 2023, nr. 11

Wellicht ook interessant

Nieuwe boeken