Loopt AI tegen het plafond?

Natuurkundige: “LLM’s zoals ChatGPT zijn niet de toekomst”

Het algoritme van YouTube gaf me vanochtend een interessante suggestie: een video van Sabine Hossenfelder met de titel “Are Hallucinations Popping the AI Bubble?”. Hierin stelt de natuurkundige dat Large Language Models (LLM’s), de AI-techniek waar onder andere ChatGPT op gebaseerd is, níet de toekomst van AI zijn. Lopen de huidige ontwikkelingen tegen het plafond en moeten de techies terug naar de tekentafel? Wie zal het zeggen. Lees de kernpunten uit de video met uitleg en ontdek een andere kijk op de ontwikkelingen in AI.

Wat zijn ‘hallucinaties’ en hoezo ‘AI bubble’?

We weten het nog als de dag van gisteren: ChatGPT werd in november 2022 voor het eerst geïntroduceerd aan het publiek als een gratis research preview. Hiermee werd ‘AI’ in één klap toegankelijk voor het grote publiek. Iedereen van studenten en creatieve professionals tot accountants en advocaten heeft er al eens gebruik van gemaakt of doet dit regelmatig. Het kan inderdaad, zoals beloofd, de efficiëntie van werkzaamheden vergroten. Maar het gaat ook wel eens mis, zoals met laatstgenoemde beroepsgroep, zo wordt verteld in de video die we straks gaan bekijken. In grote lijnen gaat het verhaal als volgt: 

Rechtszaken uit de duim gezogen

Er was eens een advocaat, die een belangrijke zaak aan het opbouwen was. Omdat hij ervan uit ging dat ChatGPT getraind is met grote datasets op het juridisch vlak, vroeg hij de chatbot om jurisprudentie. De zaken, die hij in de verdediging aanvoerde, bleken helemaal niet te bestaan. ChatGPT wist het niet en heeft zomaar iets verzonnen.

Zes vingers

Een ander voorbeeld zijn de AI afbeeldingsgeneratoren. Vroegere versies kwamen nogal eens met niet zo natuurgetrouwe anatomie op de proppen, zoals de welbekende handen met zes vingers. Inmiddels is dit probleem verholpen, tot het punt dat het een gebruiker niet meer lukte om een hand met zes vingers te genereren, zelfs niet met een zeer expliciet prompt.

Zoals je hierboven ziet is het me toch enigszins gelukt.

Hallucinaties

Het fenomeen achter deze anekdotes heet ‘hallucinaties’ en vormt een groot probleem voor Large Language Models en hun gebruikers, maar ook voor de bedrijven achter de LLM’s en hun aandeelhouders. Het blijkt moeilijk te verhelpen, waardoor hallucinaties de toekomst van LLM’s en generatieve AI in de weg lijken te staan.

De AI bubble?

En dan komen we bij de vermeende ‘AI bubble’.

Sinds de AI hype met ChatGPT begon, zijn er al geluiden die het jubelverhaal afzwakken. Dit is een bekend proces: de volgende Grote Belofte die de Toekomst Voor Altijd Gaat Veranderen wordt altijd gerelativeerd door experts uit het vakgebied (gestudeerden, onderzoekers, professionals) én iedereen die zich presenteert als expert op bijvoorbeeld YouTube. En vaak is het ook geen utopie, maar zoals in het geval van AI betekent de ontwikkeling wel een grote impact op ons leven. Dat terzijde, als je zoals ik op de hoogte wilt blijven is het belangrijk door het clickbait heen te kijken en eruit te pikken wat legit lijkt en voor jou interessant is. 

Enkele statements die recent bij mij zijn blijven hangen:

“AI is fake”

Nuancering: de AI zoals deze door inmiddels vrijwel iedereen met een website of een app wordt gepresenteerd, is geen echte AI. LLM’s zijn op z’n hoogst geavanceerde chatbots, die op basis van trainingsdata en prompts de meest waarschijnlijke tekstuele uitkomst genereert in voor mensen begrijpelijke taal.

Dataplafond:

LLM’s worden getraind met gigantische datasets. Alleen weten ze nog lang niet alles. Het kan bijvoorbeeld zijn dat het veel weet over natuurkunde, maar over een zeer specifiek onderwerp slechts één onderzoekspapier te raadplegen heeft. Plagiaat ligt dan op de loer en die ene bron kan inmiddels achterhaald zijn. Of een ander voorbeeld: Afbeeldingsgeneratoren zoals Dall-E kunnen heel goed een origineel lijkende afbeelding van een kat genereren. Hiervoor beschikken ze over duizenden tot miljoenen kattenfoto’s. Wil je een foto van een specifieke kattensoort, dan is de dataset al veel kleiner en ligt wederom plagiaat op de loer. Méér data, betere antwoorden, zo luidt het credo. Maar hier loopt men tegen een uitdaging: het plafond voor dataopslag wordt bereikt voordat het gewenste intelligentieniveau wordt bereikt. Er is simpelweg niet genoeg opslagcapaciteit, niet nu en niet in de nabije toekomst. Deze weg is dus uitzichtloos, zo wordt gesteld.

Investeerders pleasen door “AI” te roepen:

Hoeveel mailtjes, notificaties en pop-ups heb jij gehad over ‘nieuwe AI features’ in apps en online tools die je gebruikt? De meeste lezers zullen zeggen: heel veel. Nu ben ik laatst een filmpje tegengekomen, de bron hou je tegoed, waarin dit fenomeen van een niet-technische kant wordt geanalyseerd. Het blijkt namelijk dat een groot deel van deze ‘AI features’ vooral geïntroduceerd worden om op de hype train te kunnen springen en zo de eigen marktwaarde te vergroten. En vaak zijn de genoemde features niet eens echt AI, maar is dat label erop geplakt om voornoemde reden. Sterker nog: meerdere bedrijven die ‘AI’ aan hun bedrijfsnaam toevoegden, hebben hun aandelen plotsklaps zien stijgen, aldus een expert op YouTube.

Wanneer is iets een ‘bubble’?

We spreken van een ‘bubble’ wanneer de waarde van zaken, merken, ideeën wordt opgeblazen en men op basis van deze opgeblazen waarde veel investeert. Als vroeg of laat de bubbel barst, keldert de financiële waarde en lijden de investeerders grote verliezen.

De vraag of dit ook voor AI geldt, is een complexe. Zelf heb ik het totaalplaatje niet genoeg in beeld om hier uitspraken over te doen. Hallucineren doe ik niet aan, dit is meer een ding voor AI chatbots en image generators. Daarom laat ik het hebben van een visie op dit onderwerp liever aan experts over.

Zo zit YouTube bijvoorbeeld vol met tech experts en creatieve professionals, die hun kennis en visie delen in hun video’s. Toegegeven: de titel doet wat clickbaity aan, maar mijn interesse werd er in ieder geval door gewekt. In “Are Hallucinations Popping the AI Bubble?” vertelt Sabine Hossenfelder over haar visie op de materie. Met een achtergrond als PhD in Physics, zoals haar bio vermeldt, kijkt ze met unieke ogen naar de ontwikkelingen in AI.

Video: “Are Hallucinations Popping the AI Bubble?”

Hoe krijg je dan échte (kunstmatige) intelligentie?

In de video stelt Hossenfelder dat taalgebaseerde AI nooit écht intelligent wordt. Ook al blijf je het trainen met steeds meer data, het kent de onderliggende werkelijkheid niet en zal altijd antwoorden geven op basis van taal.

Wat is dan de oplossing en hoe ziet Hossenfelder de toekomst van AI?

Ik vroeg Gemini, Google’s LLM chat, om een run down van de videotranscriptie te maken. De LLM chatbot wilde gerust assisteren en noemde het een fascinerend onderwerp. Vervolgens vroeg ik ChatGPT om de samenvatting van de transcriptie in begrijpelijk Nederlands te vertalen.

Zo krijgen we een aardig beeld van de kernboodschap van de natuurkundige over AI:

Large Language Models (LLMs) zijn niet de toekomst van AI.

In de video wordt betoogd dat LLMs, die getraind zijn op enorme hoeveelheden tekstdata, verschillende beperkingen hebben:

  • Hallucinaties: Ze kunnen vol vertrouwen onzin uitkramen die plausibel klinkt.
  • Focus op trefwoorden, niet op betekenis: Ze kunnen antwoorden geven die “in de buurt” komen op een oppervlakkige manier, maar missen de onderliggende logica.
  • Beperkt begrip van de echte wereld: De wereld bestaat niet uit woorden, maar is gebaseerd op natuurkunde en wiskunde.

De oplossing, volgens de video, is om AI te ontwikkelen gebaseerd op:

  • Logisch redeneren: Gebruik maken van symbolische taal zoals wiskundige software.
  • Inzicht in de fysieke realiteit: Modellen bouwen die de echte wereld weerspiegelen.

Deze aanpak, “neurosymbolic AI” genoemd, wordt geïllustreerd door DeepMind’s AI die wiskundige problemen kan oplossen en menselijk begrijpelijke bewijzen kan leveren.

De video voorspelt dat bedrijven die zich richten op LLMs mogelijk achterop raken, terwijl diegenen die AI bouwen gebaseerd op logica en realistische modellen de winnaars zullen zijn.

En nu? Gaat alles op de schop?

Volgens Sabine Hossenfelder heeft het geen zin voor ontwikkelaars om een ‘neurosymbolic’ schil over hun bestaande AI te leggen. De basis is dan nog steeds tekstgebaseerd en het model zal de verkregen informatie vanuit deze basis interpreteren.

“De korte samenvatting is dat iedereen die aan AI werkt, minder moet nadenken over woorden en meer over natuurkunde. Wacht maar tot mensen AI gaan gebruiken om hun aandelen te beheren, dat wordt geweldig.“

Ik dacht dat dit laatste allang gebeurde met Aladdin, de AI die al sinds de jaren 80 steeds meer beslissingsterrein op Wall Street verovert. Hoe dan ook, de PhD geeft aan dat het uitgangspunt van AI moet veranderen, en ook dat ze niet de enige is met deze opvatting. 

Relativering

De nuchtere houding van ons Kampense internetmarketingbureau is mij op het lijf geschreven. Net als dat je niet blindelings met hypes mee hoeft te lopen, zijn tegenberichten vaak te relativeren. Het is een interessante blik op AI vanuit een ander perspectief. De gezegde “Zo’n vaart zal het niet lopen” is ook vaak waar gebleken, zullen we maar zeggen. Vooralsnog zijn LLM chats zoals ChatGPT en Gemini handige hulpmiddelen bij online marketing. Hulpmiddelen, inderdaad, want zoals we onderbouwen in “Maakt ChatGPT je online marketingbureau overbodig?” kunnen LLM’s en (andere) generatieve AI-systemen niet autonoom de strategie en uitvoering overnemen. Er is altijd initiatief, input, monitoring en redactie nodig van ervaren marketeers. Het is voor professionals zaak om deze hulpmiddelen in te zetten om hun werkzaamheden efficiënter te maken, bijvoorbeeld door tijd te besparen, ideeën op te doen of meer output te leveren.

Large Language Models zijn ook niet de enige en eerste ontwikkeling in AI. Al sinds jaar en dag worden allerlei vormen van kunstmatige intelligentie opgenomen in allerlei processen en toepassingen, vaak volledig op de achtergrond maar ook expliciet. Zo heeft Google onlangs de AI Overview uitgerold, waarin SGE (Search Generative Experience) een prominente plek krijgt in de zoekresultaten. De resultaten en reacties zijn wisselend, maar dat terzijde. Google’s algoritme is al tientallen jaren doorspekt van AI, alleen is het nu beter voor de marktwaarde om dit publiekelijk uit te buiten. En het levert soms slimme toepassingen op die mogelijk tijd besparen, inzicht opleveren en rendement helpen verhogen. Demand Gen in Google Ads is zo’n belofte. Ik zal onze specialisten eens vragen naar hun ervaringen tot nu toe.

Het ontwikkelen en verbeteren van de technologie is trouwens één kant van de medaille. De andere is wat er wordt ontwikkeld binnen de huidige mogelijkheden. Van de pop-up paperclip in Word naar een AI-assistent die binnen een brede softwareomgeving cross-app taken kan uitvoeren, zoals het notuleren bij online meetings en managen van je agenda en projectplanning, is ook vooruitgang, toch? Zo wordt AI steeds meer geïntegreerd in workflows. Op X kwam ik trouwens  een post tegen over een koptelefoon die automatisch spraak kan vertalen in 40 talen. Als deze ook nog nuances als sarcasme en intonatie begrijpt, zijn we al aardig dicht bij de Universal Translator uit Star Trek.

En je baan? is die nog veilig?

“AI will not replace your job. Someone who knows how to use it, will.”
Gezien op X.

Geen enkele update van B&S Media meer missen?

Schrijf je in voor onze nieuwsbrief!

  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.