We zitten in een ‘LLM-bubbel’, niet in een AI-bubbel
- Mark Baars

- Nov 19
- 2 min read
In een recent interview tijdens een Axios-evenement zei Clem Delangue, medeoprichter en CEO van Hugging Face, dat we niet per se in een algemene “AI-bubbel” zitten, maar in een meer gerichte “LLM-bubbel” — en dat die bubbel volgend jaar wel eens kan barsten.

Delangue onderscheidt grote taalmodellen (LLM's) van het brede AI-veld
Grote taalmodellen (LLM’s) staan los van het bredere AI-veld. De overdreven aandacht en waarderingen rond LLM’s kunnen terugvallen.
Hij benadrukt dat LLM’s niet dé oplossing zijn voor alle problemen; gespecialiseerde, kleinere modellen zullen in veel praktische toepassingen beter, goedkoper en sneller zijn.
Als voorbeeld noemt hij klantchatbots in de bankensector: daar is geen generieke allesweter nodig — een compact, veilig en kostenefficiënt model volstaat.
Hugging Face zelf heeft volgens Delangue een conservatievere financiële strategie (nog de helft van $400M in kas) en streeft naar duurzaamheid in plaats van uitgave-excessen.
Waarom dit onderscheid belangrijk is
Het onderscheid tussen een “LLM-bubbel” en een algemene “AI-bubbel” is meer dan semantiek. LLM’s zijn de spectaculaire publiekstrekker — ChatGPT-achtige interfaces, virale demo’s en enorme investeringen in compute — maar AI als vakgebied omvat veel meer: beeld-, audio-, video- en domeinspecifieke modellen (bioinformatica, chemie, productie-automatisering, enz.). Als de marktcorrectie alleen de LLM-hype raakt, blijft innovatie in andere AI-domeinen doorlopen.
Praktische gevolgen voor bedrijven en ontwikkelaars
Kosten & infra: Bedrijven met echte productbehoeften zullen steeds vaker kiezen voor lichtere, gespecialiseerde modellen die on-premise of op beperktere cloudresources draaien.
Differentiatie: Producten die vertrouwen op algemene LLM-capaciteiten (kaarten van creativiteit of brede kennis) zullen het moeilijker krijgen tegenover nichespecifieke oplossingen die betrouwbaarder en veilig(er) zijn.
Talent & tooling: De focus verschuift van ‘wie bouwt de grootste model’ naar ‘wie bouwt de beste gespecialiseerde pipeline, data-ops en evaluatie voor een domein’.
Wat dit betekent voor investeerders en de markt
Als Delangue gelijk heeft, kunnen fondsen die puur inzetten op megamodellen en schaal (met hoge burn-rates) sneller pijn voelen bij een marktdaling. Tegelijkertijd zullen kapitaal-efficiënte bedrijven met slimme monetisatie, sterke community (zoals Hugging Face) en duidelijk product-market-fit relatief robuuster blijken.
Waar je op moet letten in 2026
Toename van server-side en edge-implementaties van compacte modellen voor latency-gevoelige toepassingen.
Meer aandacht voor model-audit, veiligheid en domain-specific fine-tuning als differentiator.
Consolidatie in tooling en platforms: wie goede workflows biedt voor meerdere, gespecialiseerde modellen wint.
Prijsdruk op LLM-API’s; bedrijven zoeken alternatieven om kosten te drukken en controle te behouden.
Conclusie
Delangue’s stelling is geruststellend realistisch: de hype rond grote taalmodellen kan afnemen zonder dat AI als geheel instort. Een correctie in de LLM-markt zou eerder een natuurlijke herallocatie van aandacht en kapitaal betekenen — weg van showmodellen en richting bruikbare, efficiënte oplossingen. Voor ondernemers is de les duidelijk: bouw voor echte problemen, kies modellen die passen bij het probleem en let op duurzaamheid in businessmodellen. Voor investeerders geldt hetzelfde: differentiëren tussen spectacle en substantie.



Comments