top of page

We zitten in een ‘LLM-bubbel’, niet in een AI-bubbel

In een recent interview tijdens een Axios-evenement zei Clem Delangue, medeoprichter en CEO van Hugging Face, dat we niet per se in een algemene “AI-bubbel” zitten, maar in een meer gerichte “LLM-bubbel” — en dat die bubbel volgend jaar wel eens kan barsten.


ree

Delangue onderscheidt grote taalmodellen (LLM's) van het brede AI-veld


  • Grote taalmodellen (LLM’s) staan los van het bredere AI-veld. De overdreven aandacht en waarderingen rond LLM’s kunnen terugvallen.

  • Hij benadrukt dat LLM’s niet dé oplossing zijn voor alle problemen; gespecialiseerde, kleinere modellen zullen in veel praktische toepassingen beter, goedkoper en sneller zijn.

  • Als voorbeeld noemt hij klantchatbots in de bankensector: daar is geen generieke allesweter nodig — een compact, veilig en kostenefficiënt model volstaat.

  • Hugging Face zelf heeft volgens Delangue een conservatievere financiële strategie (nog de helft van $400M in kas) en streeft naar duurzaamheid in plaats van uitgave-excessen.



Waarom dit onderscheid belangrijk is

Het onderscheid tussen een “LLM-bubbel” en een algemene “AI-bubbel” is meer dan semantiek. LLM’s zijn de spectaculaire publiekstrekker — ChatGPT-achtige interfaces, virale demo’s en enorme investeringen in compute — maar AI als vakgebied omvat veel meer: beeld-, audio-, video- en domeinspecifieke modellen (bioinformatica, chemie, productie-automatisering, enz.). Als de marktcorrectie alleen de LLM-hype raakt, blijft innovatie in andere AI-domeinen doorlopen.


Praktische gevolgen voor bedrijven en ontwikkelaars

  • Kosten & infra: Bedrijven met echte productbehoeften zullen steeds vaker kiezen voor lichtere, gespecialiseerde modellen die on-premise of op beperktere cloudresources draaien.

  • Differentiatie: Producten die vertrouwen op algemene LLM-capaciteiten (kaarten van creativiteit of brede kennis) zullen het moeilijker krijgen tegenover nichespecifieke oplossingen die betrouwbaarder en veilig(er) zijn.

  • Talent & tooling: De focus verschuift van ‘wie bouwt de grootste model’ naar ‘wie bouwt de beste gespecialiseerde pipeline, data-ops en evaluatie voor een domein’.


Wat dit betekent voor investeerders en de markt

Als Delangue gelijk heeft, kunnen fondsen die puur inzetten op megamodellen en schaal (met hoge burn-rates) sneller pijn voelen bij een marktdaling. Tegelijkertijd zullen kapitaal-efficiënte bedrijven met slimme monetisatie, sterke community (zoals Hugging Face) en duidelijk product-market-fit relatief robuuster blijken.


Waar je op moet letten in 2026

  • Toename van server-side en edge-implementaties van compacte modellen voor latency-gevoelige toepassingen.

  • Meer aandacht voor model-audit, veiligheid en domain-specific fine-tuning als differentiator.

  • Consolidatie in tooling en platforms: wie goede workflows biedt voor meerdere, gespecialiseerde modellen wint.

  • Prijsdruk op LLM-API’s; bedrijven zoeken alternatieven om kosten te drukken en controle te behouden.


Conclusie

Delangue’s stelling is geruststellend realistisch: de hype rond grote taalmodellen kan afnemen zonder dat AI als geheel instort. Een correctie in de LLM-markt zou eerder een natuurlijke herallocatie van aandacht en kapitaal betekenen — weg van showmodellen en richting bruikbare, efficiënte oplossingen. Voor ondernemers is de les duidelijk: bouw voor echte problemen, kies modellen die passen bij het probleem en let op duurzaamheid in businessmodellen. Voor investeerders geldt hetzelfde: differentiëren tussen spectacle en substantie.

Comments


Everything on this website is subject to our Legal documents, which can be found at our Legal Stuff page.
Alles op deze website valt onder onze juridische documenten, die te vinden zijn op onze Legal Stuff pagina.

Kea Boumanstraat 24
5026 DG  Tilburg
The Netherlands

bottom of page