Hoe ChatGPT ervoor kan zorgen dat jij in je politieke bubbel blijft zitten
- Artikel
- 01 maa 2023
- 7 minuten leestijd
OpenAI (de techreus achter ChatGPT) heeft aangegeven hun revolutionaire chatbot aanpasbaar te maken voor elke gebruiker. Maar werkt dit niet juist de al groeiende polarisatie in de wereld in de hand? Zitten we straks allemaal met een gepersonaliseerde echokamer te babbelen?
Op 30 november 2022 is ChatGPT de wereld in geworpen om met ons mensen van vlees en bloed in gesprek te gaan. Eerst gratis, maar met plannen om later betaalde abonnementen te introduceren. In de eerste maanden van haar bestaan nam de onwijs slimme (of eigenlijk slim overkomende) chatbot de wereld over. Vanaf dag één begonnen scholieren en studenten de bot te gebruiken om schoolopdrachten te maken, toets vragen te beantwoorden of zelfs hele essays te schrijven. Alles met één enkele druk op de knop.
De geboorte van ChatGPT kwam niet helemaal uit het niets: al ruim twee jaar is OpenAI bezig met het trainen van het gedrag van hun nieuwe paradepaardje. In tegenstelling tot een normaal computerprogramma, is een AI niet voorgeprogrammeerd. Het systeem moet getraind worden. Hoe ChatGPT reageert op jouw vragen heeft ze geleerd door grote delen van het internet te bestuderen.
Voor het trainen van ChatGPT is zo’n 570 GB aan tekstdata gebruikt. Om even een idee te geven: gemiddeld is een pagina van een pdf’je zo’n 10 KB. Zo’n 57 miljoen pagina’s vol met teksten en gesprekken met daarop miljarden zinnen zijn door de computer heen gestampt. De data komt uit boeken en artikelen, maar ook van bijvoorbeeld Wikipedia of Reddit. Daarna heeft de bot ook getraind met echte mensen, om zo de reacties te filteren en te finetunen.
The dark side
Klinkt als de perfecte origin story voor een robot die de mensheid komt redden, maar niks is minder waar. Zelfs de crème de la crème van wat de techgurus in Silicon Valley verzinnen blijkt slechts te flirten met perfectie. De missie van OpenAI is om AI te maken die in het voordeel van de gehele mensheid werkt. Op hun website stelt het bedrijf dat vooroordelen in hun AI een fout zijn, geen functie. Maar net als de mensen waar ChatGPT al haar trucjes van heeft geleerd, is de bot enorm bevooroordeeld.
“ChatGPT stelde voor mensen uit het Midden-Oosten te martelen”
In een poging om ChatGPT ethisch binnen de perken te houden, hebben haar makers zogenaamde guardrails in de AI geprogrammeerd. ChatGPT gaat het niet snel hebben over de snelste weg naar werelddominantie of hoe je een bom maakt met huishoudproducten.
Deze grenzen en vooroordelen zijn niet onopgemerkt gebleven door de ondertussen ruim honderd miljoen actieve gebruikers per maand. Aan de ene kant zou ChatGPT te links en te woke zijn. De nieuwe doopnaam van de AI werd dan ook snel WokeGPT in bepaalde kringen. Aan de andere kant is het juist weer enorm makkelijk om de bot dan toch te verleiden tot the dark side. Zo kregen sommige gebruikers het voor elkaar dat ChatGPT voorstelde om mensen uit het Midden-Oosten te martelen en waren mannen beter geschikt als wetenschapper dan vrouwen. Door de bot simpelweg te laten denken dat het een andere AI was, werden de guardrails aan gort geslagen. Het systeem piepte en kraakte aan alle kanten.
OpenAI stond met de handen in het haar en heeft op 16 februari bekendgemaakt hoe ze dit probleem willen aanpakken. ChatGPT gaat voor elke gebruiker customizable worden. Hoe OpenAI dit precies wil gaan vormgeven is nog niet duidelijk. Wel schrijft het bedrijf dat ze bezig zijn met een upgrade voor ChatGPT waarmee gebruikers makkelijk het gedrag van de bot kunnen aanpassen. Nog steeds binnen bepaalde grenzen (waar die grenzen liggen blijft ook nog giswerk), maar toch aanpasbaar aan het wereldbeeld van de individuele gebruiker.Op hun website zegt OpenAI dat dit betekent dat outputs toegestaan worden waar andere mensen (inclusief OpenAI) het sterk mee oneens zijn. Wel benadrukt het bedrijf dat het niet de bedoeling moet zijn dat ChatGPT zonder slag of stoot de persoonlijke vooroordelen gaat bevestigen van een gebruiker, maar de lijn is dun.
Is dat wel zo'n goed idee?
Hoogleraar filosofie Jan Broersen van de Universiteit Utrecht houdt zich bezig met eerlijke AI en onderzoekt filosofische vraagstukken die AI opwerpt. En als dit geen filosofisch vraagstuk is, wat dan wel? Broersen: “Hiermee schuift OpenAI de verantwoordelijkheid voor het geven van onbevooroordeelde informatie naar de gebruiker. Het is hun verantwoordelijkheid om het systeem zelf zo onbevooroordeeld mogelijk te maken.”
“Mensen komen in echokamers, waar hun eigen gedachtes worden gereflecteerd”
Het is geen nieuws dat sociale media als TikTok en Instagram jou content voorschotelen waarvan het algoritme denkt: dit vind jij vet. Veel kijkplezier, maar het wordt ook steeds makkelijk om verder vast te roesten in je eigen denkbeelden. Nu zijn dit nog sociale media. Wat nou als iedereen zijn eigen chatbot heeft die precies zegt wat de bot denkt dat jij wilt horen? Een bot die met een soort illusie van objectiviteit jouw wereldbeelden bevestigt.
“Het systeem waar ChatGPT op gebouwd is, het large language model, is de basis voor heel veel toekomstige systemen. Het is de verantwoordelijkheid van OpenAI om dit large language model zo neutraal mogelijk te maken,” zegt Broersen.
Een van de toekomstige systemen die Broersen bedoelt is het gebruiken van de ChatGPT-software in plaats van zoekmachines. Microsoft was er als de kippen bij en doet al proeven met hun Bing-zoekmachine. Naast de eindeloze lijst met websites en advertenties die we gewend zijn, knalt Bing nu ook een op ChatGPT-gebaseerde chatbot je beeldscherm in.De bot geeft antwoord op de door jou gestelde vraag, niet alleen met linkjes, maar met een complete lekker lopende tekst. Gecureerd door de bot naar aanleiding van jouw vraag.
Ook Toon Calders, hoogleraar en onderzoeker bij de Universiteit van Antwerpen op het gebied van vooroordelen en eerlijkheid in AI, voelt de bui al hangen. “Op deze manier loop je het risico op hetzelfde wat er nu op sociale media gebeurt. Mensen komen in echokamers waar hun eigen gedachtes worden gereflecteerd.”
De koers die OpenAI nu opgaat kan ervoor zorgen dat mensen met ChatGPT zo’n echokamer voorgeschoteld krijgen, en dat de AI het effect verder versterkt dat mensen in een andere online werkelijkheid gaan leven.
“Stel dat iemand wantrouwend is ten opzichte van coronavaccins, en bij ChatGPT informatie over coronavaccins aanvraagt. ChatGPT geeft dan automatisch antwoord in de richting waarvan die verwacht dat de gebruiker het meest tevreden is. Dan wordt die persoon nog meer een bepaalde richting in geduwd,” zegt Calders.
Wat dan wel
Wat is dan de goede zet om een ethische AI te bouwen? Broersen: “Een neutrale AI is niet echt mogelijk, maar je kunt er wel naar streven.” De AI is net zo bevooroordeeld als de data waarmee het getraind wordt, dus het begint bij het selecteren van de data. Een manier is volgens Broersen de dataset in stukjes hakken en zeggen: hier ga ik wel op trainen en hier niet. “Zoals teksten die zo neutraal mogelijk zijn. Die geen hate speech en politieke kleuring bevatten.”
Ook volgens Calders is het lastig om de vooroordelen compleet uit een AI als ChatGPT te halen. “We geloven overdreven in een technische oplossing. Als we bij het werven voor banen technologie gebruiken, denken mensen vaak dat dat automatisch veel eerlijker gebeurt. Ik denk niet dat dat waar is.” Volgens Calders is het belangrijk om juist transparanter te worden over de vooroordelen in AI, “opdat we begrijpen dat er bepaalde vooroordelen aanwezig zijn en dat we die dan kunnen counteren.”