San Francisco, Verenigde Staten:

Een stilletjes groeiend geloof in Silicon Valley zou enorme implicaties kunnen hebben: de doorbraken van grote AI-modellen – de modellen die naar verwachting in de nabije toekomst kunstmatige intelligentie op menselijk niveau zullen opleveren – zouden langzamer kunnen gaan.

Sinds de waanzinnige lancering van ChatGPT twee jaar geleden hebben AI-gelovigen volgehouden dat verbeteringen in generatieve AI exponentieel zouden versnellen naarmate technologiegiganten olie op het vuur bleven gooien in de vorm van data voor training en rekenkracht.

De redenering was dat het waarmaken van de belofte van de technologie eenvoudigweg een kwestie van middelen was: als je er voldoende rekenkracht en data in zou stoppen, zou er een kunstmatige algemene intelligentie (AGI) ontstaan, die in staat zou zijn prestaties op menselijk niveau te evenaren of te overtreffen.

De vooruitgang ging zo snel dat vooraanstaande figuren uit de industrie, waaronder Elon Musk, opriepen tot een moratorium op AI-onderzoek.

Toch gingen de grote technologiebedrijven, waaronder die van Musk, door en gaven ze tientallen miljarden dollars uit om te voorkomen dat ze achterop raakten.

OpenAI, de door Microsoft gesteunde maker van ChatGPT, heeft onlangs $6,6 miljard opgehaald om verdere vooruitgang te financieren.

xAI, het AI-bedrijf van Musk, is volgens CNBC bezig om 6 miljard dollar op te halen om 100.000 Nvidia-chips te kopen, de allernieuwste elektronische componenten die de grote modellen aandrijven.

Er lijken echter problemen te zijn op weg naar AGI.

Insiders uit de industrie beginnen te erkennen dat grote taalmodellen (LLM’s) niet eindeloos sneller kunnen worden opgeschaald als ze worden gepompt met meer kracht en data.

Ondanks de enorme investeringen vertonen de prestatieverbeteringen tekenen van stagnatie.

“De torenhoge waarderingen van bedrijven als OpenAI en Microsoft zijn grotendeels gebaseerd op het idee dat LLM’s, bij voortdurende schaalvergroting, kunstmatige algemene intelligentie zullen worden”, zegt AI-expert en frequente criticus Gary Marcus. “Zoals ik altijd heb gewaarschuwd: dat is slechts een fantasie.”

‘Geen muur’

Een fundamentele uitdaging is de beperkte hoeveelheid taalgebaseerde gegevens die beschikbaar zijn voor AI-training.

Volgens Scott Stevenson, CEO van AI-juridische takenfirma Spellbook, die samenwerkt met OpenAI en andere providers, is het vertrouwen op alleen taalgegevens voor schaalvergroting gedoemd om op een muur te botsen.

“Sommige laboratoria waren veel te gefocust op het invoeren van meer taal, omdat ze dachten dat het alleen maar slimmer zou worden”, legde Stevenson uit.

Sasha Luccioni, onderzoeker en AI-leider bij startup Hugging Face, stelt dat een stagnatie in de voortgang voorspelbaar was, gezien de focus van bedrijven op omvang in plaats van op het doel bij de modelontwikkeling.

“Het streven naar AGI is altijd onrealistisch geweest, en de ‘groter is beter’-benadering van AI zou uiteindelijk op een grens stuiten – en ik denk dat dit is wat we hier zien”, vertelde ze aan AFP.

De AI-industrie betwist deze interpretaties en stelt dat de vooruitgang in de richting van AI op menselijk niveau onvoorspelbaar is.

“Er is geen muur”, schreef Sam Altman, CEO van OpenAI, donderdag op X, zonder verdere toelichting.

CEO van Anthropic, Dario Amodei, wiens bedrijf de Claude-chatbot ontwikkelt in samenwerking met Amazon, blijft optimistisch: “Als je alleen maar kijkt naar de snelheid waarmee deze mogelijkheden toenemen, denk je dat we daar in 2026 of 2027 zullen zijn.”

Tijd om na te denken

Niettemin heeft OpenAI de release van de verwachte opvolger van GPT-4, het model dat de basis vormt voor ChatGPT, uitgesteld omdat de toename in mogelijkheden beneden de verwachtingen ligt, volgens bronnen geciteerd door The Information.

Nu richt het bedrijf zich op het efficiënter gebruiken van zijn bestaande mogelijkheden.

Deze strategieverschuiving wordt weerspiegeld in hun recente o1-model, ontworpen om nauwkeurigere antwoorden te bieden door middel van verbeterde redenering in plaats van door meer trainingsgegevens.

Stevenson zei dat een verschuiving van OpenAI naar het leren van zijn model om “meer tijd te besteden aan denken in plaats van reageren” heeft geleid tot “radicale verbeteringen”.

Hij vergeleek de komst van AI met de ontdekking van vuur. In plaats van meer brandstof in te zetten in de vorm van data en computerkracht, is het tijd om de doorbraak voor specifieke taken te benutten.

Professor Walter De Brouwer van Stanford University vergelijkt geavanceerde LLM’s met studenten die de overstap maken van de middelbare school naar de universiteit: “De AI-baby was een chatbot die veel improviseerde” en was gevoelig voor fouten, merkte hij op.

“De homo sapiens-benadering van denken voordat je springt komt eraan”, voegde hij eraan toe.

(Behalve de kop is dit verhaal niet geredigeerd door NDTV-medewerkers en wordt het gepubliceerd via een gesyndiceerde feed.)