ChatGPT zei je…? – Deel 2

Wat vooraf ging

In Deel 1 van deze blog staat beschreven welke weg ChatGPT tot nu toe heeft afgelegd en wat je ermee kan aanvangen. Daar wordt al gewezen op mogelijke valkuilen en gevaren, de thema’s die verder worden uitgewerkt in deel 2.

Wat zijn de valkuilen?

ChatGPT in het onderwijs

De oorsprong van ChatGPT is en blijft de Engelse taal. Veel testen in het Nederlands stoten onvermijdelijk op anglicismen1.  Alvast een teken aan de wand, maar toch zit een leerkracht vaak in stoel “C” uit de Turing test en moet hij/zij de leerling of student dus goed inschatten om uit opgeleverde teksten af te leiden dat die niet door de leerling maar door een machine gemaakt zijn. Als gevolg van het ontstaan van dit soort tools, sturen scholen en universiteiten hun ondervraagtechnieken bij en er komt een golf van onderzoeken naar het ongeoorloofd gebruik van AI-tools om papers en eindwerken te schrijven2.

Sommige scholen in binnen- en buitenland bannen ChatGPT nu al van hun internet!

Trainen van ChatGPT

OpenAI besteedde via een Californisch bedrijf training van ChatGPT uit aan Keniaanse werknemers. Zij verdienden tussen 1,3 en 2 dollar per uur om inhoud te labelen. Deze labels worden gebruikt om het model te trainen om gelijkaardige inhoud in de toekomst te detecteren en het model uit te breiden. De arbeiders werden daarbij blootgesteld aan zulke giftige en gevaarlijke inhoud – bijv. seks, geweld, doodslag – dat ze de ervaring beschreven als een “marteling”3. Wegens deze vertaalslag beperkt ChatGPT momenteel de periode van geldige data en dus output tot en met 2021. Daarnaast beperkt deze vertaling ook de “denkwereld” van een AI systeem. Zo kan je dus botsen op racistische, seksistische of historisch ronduit verkeerde uitspraken. ChatGPT deelt je bijv. mee dat Multatuli de acties van Leopold II in Congo veroordeelde 25 jaar vóór die plaats vonden.

ChatGPT maakt zijn antwoorden gewoon op basis van het statistisch meest voorkomende volgende woord uit deze grote maar toch beperkte datapool.

Ecologisch is ChatGPT zeer belastend

Een AI systeem trainen en gebruiken vereist allerlei hulpbronnen die het milieu belasten. Naast verbruik van water en lucht voor koeling van de servers is het gebruik van elektriciteit en bijhorende productie van CO2 belangrijk. Vergelijkingen met andere systemen, insider informatie en educated guesses van waar de systemen draaien geven aan dat het trainen van ChatGPT in de buurt van 550 ton CO2-equivalanten uitstootte. Dat komt overeen met een rit in een dieselwagen naar de maan en terug. Deze uitstoot voor gebruik komt in de buurt van 75% van die van een gemiddelde Deen4. De runtime kosten worden op 100.000 dollar per dag geraamd5.

OpenAI moet op zoek naar een businessmodel waar ze deze hoge kosten mee terugverdienen én waarmee ze de problemen die zich aandienen kunnen oplossen. Het betaalmodel is al aangekondigd.

Heel wat organisaties pleiten er voor om het elektriciteitsverbruik van ANI en AGI in de toekomst te beperken. Het moet qua energieverbruik in de buurt geraken van onze hersenen. Anders is het niet betaalbaar noch haalbaar om AI op grote schaal toe te passen. Contradictie is, om milieuvriendelijke AI te realiseren moet AI op zijn best ingezet worden6.

Data centers als die van Microsoft Azure zijn al geoptimaliseerd om zo zuinig mogelijk systemen te runnen, maar het moet nog veel beter. Daarom ontwikkelt bijv. IMEC in Leuven heel specifieke chips die de werking van onze hersenen imiteren. Dit is beter dan de deep-learning software-algoritmes uit de jaren ’60 en ’70 die nu nog steeds gebruikt worden.

Hoe ChatGPT gebruiken?

Straks kan je niet anders dan tools als ChatGPT gebruiken. Het is trouwens een volgende stap op wat Meta (Facebook, WhatsApp, Instagram…), Microsoft, Google, Spotify en anderen ons nu al dagelijks aanbieden.

Wees steeds op je hoede voor de beperkingen, verifieer de resultaten en kijk uit voor overdaad.

Op dit moment werken vooral “experten” met het tool. Ze weten waarmee ze bezig zijn, leren en zijn alert op fouten voor ze erover rapporteren. Wat gebeurt er als iedereen blind vertrouwt op deze tools? Het is aangewezen om ChatGPT en DALL E 2 als ideeëngenerator te gebruiken, maar het eindresultaat steeds te controleren7.

Co-creatie en ideeëngeneratie kan je toevertrouwen aan mensen die hun vakgebied kennen. Zij kunnen het resultaat van deze Chatbots interpreteren, beoordelen en gebruiken.

En daar knelt het schoentje voor het onderwijs: hoe kan je leerlingen ChatGPT leren gebruiken en tegelijkertijd de voorstellen leren beoordelen en bijleren? Dat vraagt inzicht bij leerkrachten, ervaring met de tools en vooral veel overtuigingskracht om de leerlingen in toom te houden. Veel voorsprong krijgen leerkrachten hier echter niet. Door de snelheid waarmee gratis accounts worden aangeboden komen leerlingen vaak eerder aandraven met uitkomsten van het systeem dan de leerkracht ervan hoorde. Is het een opdracht van de IT-coördinator in de school om leerkrachten hier op te wijzen en ze te introduceren?

Jason M. Allen “Théâtre D’opéra Spatial” gecreëerd door DALL E met een prompt
bron: CNN

Wat doet de EU ondertussen?

Veel commentatoren kijken naar de overheid voor reglementering. Omdat landelijke maatregelen te beperkt zijn, is dit voor Europees grondgebied een rol voor de EU. Zij werkt aan de “AI Act”, in de VS is dat de “AI Bill of Rights”.

Betrouwbare AI

De EU balanceert tussen zelf sterk staan in de wereldwijde AI-markt en betrouwbare AI voortbrengen. Daarvoor wordt onderscheid gemaakt tussen risicovolle AI en onschadelijke vormen van AI. De richtlijnen voor “Betrouwbare AI”8 moeten wettelijk afdwingbaar zijn, ethisch verantwoord en robuust zowel technisch als qua toepassing in de samenleving.

Aan risicovolle AI worden richtlijnen opgelegd i.v.m. veiligheid van gebruik, bescherming van data voor auteurs, privacy van gebruikers, transparantie om te melden over welke bron het gaat en gebruikte algoritmes, vermijden van unfaire bias en toekennen van verantwoordelijkheid.

In welke categorie past ChatGPT?

Zowel in risicovol als gewoon, al naargelang hoe je het gebruikt. Daarom worden regels van de “AI Act” verder aangescherpt tegen maart 2023. De Raad wil heel wat uitzonderingen i.v.m. werk voor politie, defensie en veiligheid. Zullen alle landen een centrale “AI Act” regeling aannemen of krijgen we uitzonderingen zoals Ierland deed voor de GDPR regelgeving?

Tegen eind van dit jaar zouden Commissie, Parlement en Raad moeten overeenkomen willen ze op de geplande datum van januari 2025 de “AI Act” activeren. Ondertussen zitten de aanbieders niet stil natuurlijk. Als referentie, het even complexe GDPR-proces kwam wel tijdig in orde en beïnvloedt nu dagelijks onze manier van werken met systemen.

Moeten we schrik hebben van ChatGPT?

AI kan veel goed doen voor de samenleving en we staan nog maar aan het begin. Dat echoot het begin van de jaren ’80. Als we hier schrik van hebben dan moeten we ook schrik hebben van wat Google, Amazon, META (facebook en co) en Microsoft ons vandaag aanbieden, voorstellen of zelfs opdringen.

Sommigen geloven dat de mens de snelheid van de technologie lang kan blijven beheersen en dat de positie van AI om de problemen in de wereld op te lossen, gerealiseerd zal worden. Hoewel ik bekendsta als een optimist met betrekking tot de mens, ben ik daar niet zo zeker van. – Stephen Hawking9

Als samenleving zijn we in het algemeen niet zo goed om risico’s juist in te schatten. Denk bijv. aan de zwakheden in de geglobaliseerde supply chains die we vandaag zien door corona en de oorlog in Oekraïne. Meer hierover kan je lezen op deze site in de vierdelige blog rond ‘Supply Chain denken’

OpenAI erkent deze problemen en doet er veel aan

  • CEO Sam Altman erkent dat ChatGPT “soms plausibel klinkende maar onjuiste of onzinnige antwoorden schrijft“. Dit gedrag komt vaak voor bij grote taalmodellen en wordt “hallucinatie” genoemd. Hij ziet zelf nog een periode van tien jaar om volwaardige AGI systemen te realiseren. Ondertussen moet de wereld volgens hem de voordelen van de huidige systemen leren kennen en de nadelen ervan onderkennen. Dat zijn o.a. de steeds realistischer lijkende cybercriminaliteit, teksten voor onderwijs en zelfs wetenschap die geschreven zijn door AI, overtuigend klinken maar gewoon verkeerd of bedoeld nep zijn;
  • OpenAI waarschuwt voor tekortkomingen op zijn websites, maar je moet ze lezen natuurlijk. Het brengt ook een “AI-text-classifier” tool in de markt om AI teksten te herkennen10. Deze tool werkt nog onvoldoende en zoals zo vaak loopt de boswachter achter op de methodes van de stroper. OpenAI stel zich toch tot doel de teksten te ontmaskeren die met ChatGPT gemaakt zijn;
  • Sam Altman suggereert nu al dat er verschillende varianten van ChatGPT zullen ontstaan zodat er weer nieuwe echokamers op het internet zullen verschijnen waar je de eigen boodschappen steeds opnieuw hoort. Echter wel gebaseerd op goed en ferm geformuleerde informatie en niet op stukken data;
  • Volgens gastonderzoeker Scott Aaronson werkt OpenAI aan een tool om zijn tekstgeneratiesystemen van een watermerk te voorzien tegen kwaadwillig gebruik van hun diensten voor academisch plagiaat of spam te beschermen.

De wereld moet wennen aan AI en waartoe die in staat is – Sam Altman in het Financieel Dagblad

OpenAI zal er alles aan doen om niet de weg op te gaan van Microsoft met TAY of META met zijn Galactica. TAY hielp in 2016 gebruikers om met AI tools sneller en beter te converseren op Twitter. Microsoft stopte de service toen bleek dat binnen de 24 uur de meeste tweets en re-tweets racistisch en misogyn werden. Galactica was eind 2022 een AI systeem voor wetenschappers en bedoeld om teksten te verklaren. Nadat wetenschappers er snel achter kwamen dat het systeem teksten genereerde die subtiel onjuist, bevooroordeeld of totaal verkeerd waren werd het systeem drie dagen na de aankondiging offline gehaald11.

Onze toekomst is een wedloop tussen de groeiende macht van onze technologie en de wijsheid waarmee we die gebruiken. Laten we ervoor zorgen dat de wijsheid wint – Stephen Hawking12

Vormt AI een bedreiging voor jobs?

Velen zien AI als een gevaar voor jobs en deze keer ook hoog geschoolde jobs. Mensen die informatie verwerken, beslissingen nemen a.d.h.v. kennis en ervaring en het resultaat verwerken op maat van de verbruiker van de informatie voelen zich bedreigd. Vooral binnen de overheid, administratie van bedrijven en organisaties gaat dat om veel jobs.  Ook in creatieve industrieën zoals de film denken velen dat hun werk bedreigd is. Een voorbeeld vind je in de Japanse industrie van de ons vertrouwde Anime tekenfilms. Netflix liet een eerste film ontwerpen waar de achtergrond met AI gemaakt is13. Volgens Netflix om het tekort aan tekenaars op te vangen. Tot grote schrik van tekenaars die jarenlang oefenen in een genre en stijl potentieel vervangen zien door een computeralgoritme. Anderen zien dan het tijdperk aankomen om meer te bereiken met minder, m.a.w. efficiëntie winst – ook in diensten – dus groei met meer tijd voor de leuke dingen van het leven en meer inkomen voor de overheid.

Binnen de Metaverse* kunnen meerder van jouw Avatars voor jou werken en zo meerdere zaken tegelijk realiseren. Diezelfde Avatars kunnen dan weer met de Avatars van anderen gaan onderhandelen en bijv. zonder dat je het beseft een date in de reële wereld regelen 😉.

Het zijn altijd dezelfde mensen die denken dat met die AI technologie hebben we geen menselijke experts meer nodig. Dat bleek in de jaren ’80 al te overhaast. En het zal ook deze keer voorbarig blijken – Luc Steels14

Vormt AI een bedreiging voor Google?

Google voelt zich bedreigd omdat ChatGPT op termijn hun zoekmachine kan vervangen. En laat dat nu net de melkkoe van hun businessmodel zijn. Daarom komen de twee stichters terug om de acties te coördineren. Vreemd is dat Google gelijkaardige tools ontwikkelde onder de codenaam LaMDA maar die nog niet op de markt bracht omdat de kwaliteit nog niet op punt staat. Google heeft een goed werkende zoekmachine met 90% marktaandeel en kan zich natuurlijk niet permitteren dat daar fouten insluipen door het te vroeg nieuwe AI technieken te gebruiken. Op 6 februari kondigt Google CEO Sundar Pichai aan dat “Bard” – een “gedurfde en verantwoordelijke” tool – nu ook door een testgroep buiten Google gebruikt wordt15. Het draait op een lichtere versie van LaMDA en het is de voorloper van beeldengenerator Imagen en muziekgenerator MusicLM. In de demo stonden fouten, daarom nemen velen aan dat de lancering overhaast was. Zoals het hoort op Wallstreet verloor de holding boven Google, Alfabet, meteen 100 miljard dollar aan waarde in twee dagen. Het is vermoedelijk wachten op het Google I/O evenement in mei voor een volledig zicht op het AI aanbod en het tijdsplan van Google. In ieder geval heeft Sam Altman Google in het defensief geduwd. Dat was zijn bedoeling en wie deed hem dat voor? In een poging om marktaandeel af te pakken van Google bouwt Microsoft een nieuwe versie van het GPT-model in bij Edge en Bing16. Deze zoekmachine gebruikt het actuele internet en geeft de link naar gebruikte bronnen om te verifiëren of verder te zoeken. Vragen hierbij zijn of de zoekmachine ongewenste of verkeerde antwoorden voldoende kan vermijden en of we niet overrompeld zullen worden door reclame in ruil voor het gratis beschikbaar blijven dan de zoekfunctie. AI in zoekmachines beïnvloedt ook de manier waarop achterliggende informatie verzameld en betaald wordt. Zoekmachines kunnen informatie achter een betaalmuur ontdekken, maar niet vrijgeven 17. Je kan je daarbij afvragen of gebruikers niet eerder informatie zullen zoeken via gratis chatbots en niet langer betalen aan bedrijven die nu de data voor die informatie leveren. Waardoor op termijn de bronnen voor de data droogvallen. Studenten en hackers zijn er ondertussen wel al in geslaagd om met een speciale “prompt” de laag die in ChatGPT en Bing resultaten filtert op “verkeerde” uitspraken te omzeilen. Dat brengt de meer onfatsoenlijke antwoorden naar buiten18. OpenAI en Microsoft reageren met bijkomende complexere afschermingsregels. De wedloop tussen stroper en boswachter is volop bezig. Wat we mogen verwachten van META, eigenaar van Facebook, WhatsApp en Instagram, en Chinese leveranciers van service-applicaties is op dit moment niet duidelijk. Er zijn nu al 100 miljoen gebruikers met ChatGPT tools aan ’t werken. We mogen snel een antwoord verwachten.

En nu?

Is ChatGPT een vorm van AGI? Een tussenstap naar ASI? Het hangt ervan af wat je onder intelligentie verstaat
  • IQ, enkel puur logisch redeneren;
  • EQ, ook meevoelen en mee inleven;
  • SQ, ook inzicht hebben in de extensionele vragen van het leven.
Binnen een context van IQ geraakt de computer steeds dichter bij AGI. Wat gebeurt er voor de andere twee dimensies? Streven naar ASI is voor de mens een existentieel avontuur. Is de mens in staat om op zijn beurt God te spelen en een “wezen” te scheppen “naar zijn beeld en gelijkenis”? Een wezen dat even intelligent of zelfs intelligenter is dan hem zelf? Een wezen dat dan te zijner beschikking staat om “beter te leven”? Daarbij is het risico dat dit nieuwe “wezen” het leven van de mens overneemt reëel. Is dat risico wezenlijk anders dan een atoombom ontwerpen en er zoveel van maken dat je de aarde een tiental keer kan vernietigen? We staan sowieso een eind verder dan in de het begin van de jaren ’80. Dat mag duidelijk zijn. Evengoed in de geest met wat Nick Cave beweerde is AI nooit af. Enerzijds houden de taken van medewerkers veel meer in dan teksten maken. Ook redeneren, mensen ondervragen, brongegevens controleren, enz. zijn er een wezenlijk deel van. Anderzijds verleggen we impliciet de grenzen van ANI over AGI naar ASI. We verwachten steeds meer en nieuwe technologie lost daar altijd maar een deeltje van in. We moeten ons de vraag stellen hoe we persoonlijk de stap zetten van “data opvragen” via de huidige zoekmachines naar “informatie krijgen” via nieuwe tools als ChatGPT, Bing, Bard en later ook vanuit Facebook enz. Deze informatie is voorgekauwd en dus gekleurd door de data, algoritmes en allerlei filters in dienst van Techbedrijven, leveranciers van reclamefondsen en aandeelhouders. We zijn voorbestemd om met AI verder te werken. Dus is experimenteren, begrijpen en kritisch evalueren van de huidige producten een goede houding. Alleen is er een soort contradictio in terminis tussen steeds kritischer zijn – iets wat een persoon met ervaring in het vak kan – en tegelijk meer en meer op AI steunen tijdens de opleiding – de periode waarin je leert om kritisch te zijn. AI neemt juist die skills over die je moet leren om kritisch te zijn.

Kernvragen bij dit aanpassingsproces zijn

  • Hoe leren we vandaag AI technologie kennen en gebruiken?
  • Wat leren we als gebruiker? Wat leren we als ontwikkelaar?
  • Hoe zetten we AI in ter verbetering van onze samenleving en om beter te gaan samenleven met de ecosystemen om ons heen. Laten we AI systemen voortdurend in onze browser de grootste vervuilers publiceren samen met de actuele concentratie aan CO2 en de gemiddelde temperatuur van de atmosfeer? Gebruiken we AI en de bereikte efficiëntie om, zoals John M Keynes voorspelde, uit onze ratrace te stappen?
  • Hoe zorgen we ervoor dat volgende generaties niet alleen beter omgaan met een veel breder scala aan technologieën maar die inzetten om meer welzijn te creëren en democratisch samen te leven met meer dan negen miljard mensen op aarde?
Tegelijk kan ik mij niet van de indruk ontdoen dat ook voor AI de “issue attention cycle”**van Anthony Down steeds korter wordt. Ondanks de huidige mediaheisa rond ChatGPT en de reactie van Google zou het kunnen dat over een paar weken het enige wat overblijft een upgrade is van de zoekmachines van Microsoft en Google en een nieuwe golf van verfijnde phishing-mails. De media zal dan de aandacht van het grote publiek alweer afleiden naar iets totaal anders.

1 ChatGPT in de les getest: onder het klasgemiddelde | De Standaard

2 ChatGPT maakt hoger onderwijs zenuwachtig | De Standaard

3 https://time.com/6247678/openai-chatgpt-kenya-workers/

4 https://towardsdatascience.com/the-carbon-footprint-of-chatgpt-66932314627d

5 https://www.msn.com/en-in/money/news/openais-chatgpt-it-costs-dollar100000-to-run-per-day-and-other-interesting-facts-to-keep-in-mind/ar-AA15ucFf

6 https://www.knack.be/nieuws/technologie/steven-latre-imec-als-ai-niet-duurzamer-wordt-is-het-gedoemd-om-te-falen/?cel_hash=d545d91907883115ac68bafd348ee20432ab020e&chts=1673809132&utm_source=Newsletter-20230115&utm_medium=Email&utm_campaign=Newsletter-RNBAVUKN&error=invalid_abo_response

7 Gebruik ChatGPT als ideeëngenerator | De Standaard

8 Ethics guidelines for trustworthy AI | Shaping Europe’s digital future (europa.eu)

9 Stephen Hawking, de antwoorden op de grote vragen, p 228, Spectrum

10 AI-detector herkent teksten van ChatGPT | De Standaard en OpenAI API

11 The Galactica AI model was trained on scientific knowledge – but it spat out alarmingly plausible nonsense (theconversation.com)

12 Stephen Hawking, de antwoorden op de grote vragen, p 239, Spectrum

13 Tekenaars boos om Netflix-reeks met AI-animatie: ‘Miljoenen mensen zullen hun job verliezen’ | De Standaard

14 AI-blog | Luc Steels vindt ChatGPT gevaarlijk | De Standaard

15 Google launches ChatGPT rival called Bard – BBC News

16 Microsoft launches the new Bing, with ChatGPT built in | TechCrunch

17 Geeft generatieve AI de doodsteek aan de media? | De Standaard

18 People Are Trying To ‘Jailbreak’ ChatGPT By Threatening To Kill It (piratewires.com)

* Metaverse is het gehele netwerk van aan elkaar gekoppelde virtuele 3D-ruimtes waarin de gebruikers, vaak door middel van avatars, interactief kunnen rondkijken en interageren

** In de “issue attention cycle” wordt het publiek gealarmeerd en zeer bezorgd over een probleem en de verbetering ervan. Zodra het publiek zich realiseert wat de kosten van aanzienlijke vooruitgang zijn, wordt het enthousiasme voor oplossingen voor het probleem gedempt en zoekt het een ander issue op

Wil je op de hoogte worden gehouden van nieuwe publicaties?

Schrijf je dan in op onze nieuwsbrief en ontvang regelmatig de inzichten van Lucrates