*titel geschreven door ChatGPT – versie: GPT-4
De evolutie van artificiële intelligentie gaat in rotvaart vooruit. De snelle opkomst van ChatGPT zorgt voor heel wat ophef en discussie, niet het minst in onderwijskringen. Waar schuilt het gevaar en waar liggen de opportuniteiten voor studenten en onderzoekers? In deze nieuwe reeks laten we verschillende stemmen aan het woord, telkens vanuit een ander onderzoeksgebied. Dit keer: Walter Daelemans (Taalkunde) en Mike Kestemont (Letterkunde).
First things first: in de volksmond worden ChatGPT en GPT-4 vaak door elkaar gebruikt, maar er is een wezenlijk verschil. De voor het brede publiek meest bekende tool is ongetwijfeld ChatGPT, een app die je via je browser kan gebruiken en werkt als een chatbot. Voor inhoud leunt het op het echte ‘brein’ achter de schermen: het taalmodel GPT. In maart 2023 bracht moederbedrijf OpenAI GPT-4 uit. Deze versie is creatiever en ‘menselijker’ dan voorgaande versies en kan ook input uit beelden verwerken. GPT is tevens de drijvende kracht achter andere veelgebruikte tools zoals Bing en Jasper.
Goed nieuws, zou je denken! Maar zoals met bijna elke ontwikkeling in artificiële intelligentie, gaat ook deze volgende stap gepaard met heel wat doemdenken. Zal deze evolutie voor veel jobverlies zorgen? Worden we zelf niet luier en dommer door het gebruik van dit soort applicaties? En wat als AI ons uiteindelijk te slim af wordt?
Meer poëet dan wetenschapper
Walter Daelemans nuanceert deze angsten: “Ik vind het vreemd dat er nu zoveel negatieve stemmen opgaan in de zin van ‘dit had nooit ontwikkeld mogen worden’. We zijn al dertig jaar bezig met de ontwikkeling van deze technologie. Van spellingscorrectie tot taalverbeteringsprogramma’s: dit is een logische volgende stap, en eentje die enorm veel mogelijkheden biedt. Zeker als je er goed mee leert omgaan. Ik gebruik het zelf bijvoorbeeld als programmeerhulp en kan zo veel productiever werken. Het is wel nog altijd belangrijk dat er een expert in de loop zit, iemand die de materie door en door kent. Want er zitten nog heel wat fouten in GPT, zogenaamde ‘hallucinaties’. Bij gebrek aan informatie verzint het model soms gewoon namen of objecten en die moet je er wel zien uit te halen. Vooralsnog is het meer een poëet dan een wetenschapper.”
Voor studenten is het daarom des te belangrijker om eerst de materie zelf goed onder de knie krijgen voor ze met GPT aan de slag gaan. Anderzijds is het ook belangrijk dat ze juist met GPT leren omgaan, want het is nu eenmaal een onderdeel van de wereld geworden. En er zijn genoeg interessante manieren om GPT in te zetten: voor het herformatteren van bibliografieën bijvoorbeeld of voor het genereren van de juiste onderzoeksvragen.
Mike Kestemont: “Ik denk dat het ook belangrijk is om bij studenten de reflex te creëren om GPT te citeren, zoals je dat ook voor een artikel of boek zou doen. Inclusief de versie waar je mee gewerkt hebt en de tool, zoals Bing, Edge, … Op dit moment geeft ChatGPT nog geen bronnen voor de output die hij genereert. Dat is natuurlijk ook heel moeilijk voor een taalmodel, want de hoeveelheid input en bijhorende bronnen is gigantisch. Een taalmodel is ook helemaal niet gemaakt om deze op te lijsten en weer te geven. Maar bij Bing merk je nu wel dat ze een poging doen om een lijst met verwijzingen aan te leggen, waarschijnlijk gebeurt dat via een reguliere zoekopdracht.”
Vangrails naast de AI-snelweg
De massale hoeveelheid bronnen die door GPT snel geraadpleegd kan worden is natuurlijk ook een belangrijke meerwaarde van het model. Maar hoe weet je of het de meest correcte bronnen gebruikt of zelfs maar het onderscheid weet te maken tussen een degelijke brok informatie en een half-gefantaseerde tekst?
Walter Daelemans: “Dat is moeilijk, maar dat kan je nu eigenlijk ook over Google zeggen. Die tool is toegespitst op ‘precision’, met andere woorden: wat je te zien krijgt zal goed zijn. Maar wat veel mensen niet weten is dat het niet geoptimaliseerd is op ‘recall’: je zal waarschijnlijk niet alle relevante informatie ontvangen. En dat is lastig te achterhalen, want je weet natuurlijk nooit wat hij niet opgehaald heeft.”
Mike Kestemont: “Hetzelfde geldt voor vooroordelen in zo’n model. Je krijgt te maken met een mattheuseffect, maar ook dat had je al bij de Google zoekmachine. De output die je daar krijgt is de stem van de meerderheid op het internet. Toch denk ik dat er op dat gebied al vooruitgang geboekt wordt sinds de komst van ChatGTP. Ze zijn er dankzij reinforcement learning (RL, een trainingsmethode voor machinaal leren gebaseerd op het belonen van gewenst gedrag en/of het bestraffen van ongewenst gedrag, nvdr) wel in geslaagd om de output beter te modereren, waardoor racisme en extremistische uitspraken er bijna helemaal uitgefilterd worden. Die RL zorgt er tegelijkertijd ook voor dat ChatGPT een redelijk matte gesprekspartner is die niet snel tegen je in zal gaan.”
Walter Daelemans: “Natuurlijk hangt het er ook van af wie die ‘vangrails’ creëert. Stel dat er achter de knoppen van dit soort RL iemand staat die kwalijke gedachten net wil promoten, dan krijg je natuurlijk een heel andere uitkomst.”
De kost van een technisch hoogstandje
Een ander punt van kritiek op GPT en AI dat je vaak hoort, is dat het niet duurzaam is en ongelofelijk veel energie kost. Er zijn zelfs auteurs die beweren dat de CO2-uitstoot van GPT in januari 2023 gelijk stond met het gemiddeld verbruik van 175.000 mensen die maand.
Mike Kestemont: “Je moet niet vergeten dat GPT een enorm technisch hoogstandje is. Om dat te trainen en draaiende te houden is er heel veel energie nodig. Hoeveel precies, dat weten we niet. Ook al zijn er daar al veel hypothetische berekeningen rond gemaakt.”
Walter Daelemans: “We staan natuurlijk nog maar aan het beginpunt van deze evolutie. We kunnen wel verwachten dat deze processen in de toekomst steeds zuiniger gaan worden.”
Ook de impact op het professionele leven is op korte tijd heel groot geworden. Je kan GPT bijna niet meer wegdenken uit de wereld van de geschreven media.
Walter Daelemans: “De impact die het heeft op het werkveld, zal waarschijnlijk te vergelijken zijn met de impact van vertaalmachines op het vertaalberoep. Ze gaan ervan uit dat je méér kan vertalen dan voorheen, dus onder de streep word je evenveel betaald voor een groter aantal vertaalde woorden. De kans dat dit nu ook gebeurt in de copywriting business is reëel natuurlijk.”
Mens of machine?
We zien in de nieuwe versie GPT-4 dat er veel vooruitgang geboekt werd in het spontaan zelf leren van het model – emergent leren – waardoor de output ook ‘menselijker’ lijkt. En dan komt natuurlijk de vraag bovendrijven: als een computerprogramma ook creatief en poëtisch kan schrijven, wat is dan nog het verschil met hoe mensen schrijven?
Walter Daelemans: “Nieuw onderzoek wijst uit dat het menselijk brein voor een deel net zo werkt als GPT: ook wij proberen telkens het volgende woord te voorspellen en doen op die manier veel kennis op. Alleen is dit wel maar één van de doelen die ons brein heeft en waarvoor we geoptimaliseerd zijn, en dat maakt toch een groot verschil. Wij maken en doen dingen met intentie, en dat heeft GPT niet. Het is een lege doos en er zit niets achter. Hoe bedrieglijk menselijk de output soms ook lijkt. ”
Mike Kestemont: “We moeten inderdaad oppassen dat we tools zoals ChatGPT niet antropomorfiseren of ze gaan beschouwen als vervanging voor menselijke creativiteit. Wat ik wél denk dat er kan gebeuren, is wat eerder de fotografie ook met de kunstwereld heeft gedaan. Toen beweerde men ook al dat de opkomst van de foto het einde van het schilderij zou inluiden. Maar dat is niet gebeurd, de schilderkunst heeft zich juist heruitgevonden en een artistieke transformatie doorgemaakt. Ik denk dat de huidige evolutie in AI onze taal ook nieuwe impulsen kan geven. Ongetwijfeld zullen juristen hier wel nog een flinke kluif aan hebben. Want wat doen we met auteursrecht bijvoorbeeld? Als jij ChatGPT een opdracht geeft om iets te schrijven, ben jij dan nog wel de auteur?”
Meer weten?
Luistertip – Podcast van Lex Fridman in gesprek de CEO van OpenAI Sam Altman: https://lexfridman.com/sam-altman/
The difference between human writing and AI: empty box vs. intention The evolution of artificial intelligence is moving forward at breakneck speed. The rapid rise of ChatGPT is causing quite a stir and discussion, not least in education circles. Where does the danger lie and where are the opportunities for students and researchers? In this new series, we let different voices speak, each time from a different field of research. This time: Walter Daelemans (Linguistics) and Mike Kestemont (Literature). They believe we should help students use ChatGPT to their advantage in stead of keeping them away from it. Of course, the use of AI will have a great impact on the profession of (copy)writing and there will be a couple of (legal) challenges that we will have to deal with. They do warn against anthropomorphising tools like ChatGPT too much. It remains a machine that executes commands and has no intentions of its own.