De race om het grootste model is voorbij. Jij hebt er niets aan.
GPT-5, Gemini, Claude. Iedereen aast op het krachtigste model. Maar de bedrijven die in 2026 winnen, bouwen iets heel anders.
De bedrijven die in 2026 het meest uit AI halen, gebruiken niet het grootste model.
Ze gebruiken een klein, smal model. Getraind op hun eigen data. Gericht op een specifiek proces. En het verslaat GPT-5 op precies de taken die voor hun organisatie tellen.
Dat is het verhaal dat niet wordt verteld in de boardroom. Terwijl het DAT verhaal is dat bepaalt wie er over drie jaar nog meedoet.
De mythe van het grote model
We zijn geconditioneerd om te denken dat meer vermogen altijd beter is.
Dat klopt voor sommige taken. Een complexe juridische analyse, een creatieve strategiesessie, een rapport dat diepe redenering vraagt. Daarvoor wil je een groot, capabel model.
Maar voor de meeste herhaalbare bedrijfstaken? Die redenering klopt niet.
Een e-commercebedrijf in de VS heeft onlangs GPT-3.5 vervangen door een fine-tuned Mistral 7B, een model met 7 miljard parameters. Het resultaat: 90% kostenreductie. Drie keer snellere responstijd. En op de specifieke vragen die hun klantenservice dagelijks afhandelt: gelijke of betere kwaliteit dan het grote model.
Dat is geen uitzonderlijk geval. Het is een patroon.
10-30x
goedkoper om een klein gespecialiseerd model te draaien dan een groot frontier modelLux Research, 2026
Een getraind 3 miljard parametermodel kan een groot model als GPT-4 verslaan op klantenservicevragen, als het is getraind op de juiste data. Niet omdat het slimmer is. Maar omdat het precies weet wat jouw klant bedoelt, in jouw context, met jouw producten.
Het krachtigste AI-model voor jouw organisatie is niet het grootste. Het is het meest relevante.
Wat dit betekent voor jouw strategie
Hier wordt het ongemakkelijk voor directies die hun AI-strategie hebben gebouwd rond een leverancierscontract.
Als je denkt dat AI-implementatie neerkomt op "welk pakket nemen we van welke grote speler", mis je de kern. Dat is niet dom. Het is begrijpelijk. Maar het is ook de reden waarom zoveel implementaties stranden bij gemiddelde resultaten.
De echte vraag is een andere.
Welke data heeft jouw organisatie die niemand anders heeft? Welke beslissingen neem je wekelijks, op basis van kennis die je nooit hebt geformaliseerd? Welke processen herhaal je honderden keren per jaar, met variaties die een generiek model nooit leert kennen?
Dát is je concurrentievoordeel. Niet de tool die je koopt. Maar de data die je al hebt.
En die data, goed gestructureerd en gebruikt om een domeinspecifiek model te trainen, levert je iets op dat niemand kan overnemen met een abonnement. Gartner voorspelt dat in 2026 al 40% van alle enterprise AI-applicaties gebruikmaakt van taakspecifieke modellen of agents. In 2025 was dat nog geen 5%.
De race is al bezig. Alleen de meeste directies weten het nog niet.
Welke drie vragen je vandaag moet stellen
Je hoeft geen eigen AI-lab op te zetten. Je hoeft geen data science team van tien mensen aan te nemen.
Maar je moet wél drie vragen beantwoorden, en die beantwoord je niet in een IT-vergadering.
De eerste vraag: welke drie beslissingen neemt onze organisatie het vaakst, het meest herhalend, met de meeste variatie in uitkomst? Dat zijn de kandidaten voor automatisering of ondersteuning.
De tweede vraag: welke data is betrokken bij die beslissingen? Niet data in de abstracte zin, maar letterlijk: welke systemen, welke historische records, welke informatie gebruikt een medewerker als hij of zij die beslissing neemt?
De derde vraag: wie is de eigenaar van die data? Wie is verantwoordelijk voor de kwaliteit ervan?
Als je op die derde vraag geen naam kunt noemen, weet je waar je het eerst aan moet werken.
Herken je dit in jouw organisatie?
Ik help je graag verder. Geen verplichtingen, gewoon een goed gesprek.
Plan een gesprekWaarom dit een strategisch gesprek is, geen technisch gesprek
Dit is waar ik organisaties zie vastlopen.
De vraag "wat doen we met AI" belandt bij de technisch directeur of de IT-manager. Die persoon begint met een vergelijking van tools, een beveiligingsanalyse, een architectuurvoorstel. Dat werk is nodig. Maar het begint op de verkeerde plek.
De keuze tussen een generiek groot model en een domeinspecifiek klein model is geen technische keuze. Het is een strategische keuze die raakt aan wie je bent als organisatie.
Wat maakt jou anders dan je concurrent? Wat weet jij over jouw klant, jouw markt, jouw product, dat niemand anders weet? Hoe ga je die kennis inbedden in systemen die er iets mee doen?
Dat zijn vragen voor de boardroom. De technische implementatie volgt daarna.
AI-strategie begint niet bij de tool. Het begint bij de vraag: wat weten wij dat anderen niet weten, en hoe maken we dat schaalbaar?
Het gevaar van wachten op het volgende grote model
Er is een verleiding die ik regelmatig zie.
Organisaties stellen de implementatiebeslissing uit omdat er volgende maand weer een nieuw model uitkomt. GPT-5 is er al. Claude is er. Gemini ook. Straks komt er weer iets groters, iets beters. Dan beginnen we pas.
Dat uitstel is de duurste fout die je kan maken.
Want terwijl jij wacht op het volgende model, zijn jouw concurrenten bezig met iets anders. Zij zijn hun data aan het structureren. Zij zijn een eerste domeinspecifiek model aan het trainen op hun eigen klantendata. Zij bouwen processen die leren en verbeteren terwijl jij nog vergadert over welke tool je gaat kiezen.
Het voordeel van domeinspecifieke AI is niet eenmalig. Het groeit naarmate je meer data verzamelt en je model verder verbetert. Wie later begint, begint op achterstand die zich opstapelt.
Het nieuwe model van OpenAI of Anthropic maakt dat gat niet kleiner. Het maakt je concurrent slimmer nog sneller.
Blijf op de hoogte
Ontvang wekelijks inzichten over AI-implementatie en digitale transformatie. Geen spam, alleen relevante content.
De organisaties die het begrijpen
Ik zie ze. Ze zijn niet altijd de grootste bedrijven. Vaak zijn het middelgrote organisaties die een scherpe directie hebben die de juiste vraag stelt.
Ze beginnen niet met "we gaan AI inzetten". Ze beginnen met "we hebben tien jaar aan klantgesprekken in ons CRM. Wat kunnen we daaruit leren dat we nu nog niet systematisch gebruiken?"
Ze beginnen klein. Eén proces, één afdeling, één concreet meetpunt. Ze falen snel als het niet werkt en schalen snel als het wel werkt. Ze behandelen datastructuur als een leiderschapsvraagstuk, niet als een IT-vraagstuk.
En ze begrijpen dat het krachtigste AI-model voor hun organisatie niet te koop is bij OpenAI of Google.
Het ligt opgeslagen in tien jaar aan transacties, klantgesprekken, beslismomenten en operationele kennis die niemand ooit heeft geformaliseerd.
De race om het grootste model is al gewonnen door de grote techbedrijven. Die race is niet voor jou.
De race waar je wél in meedoet, gaat om de vraag wie zijn domeinkennis het snelst omzet in een werkend systeem.
Welke kennis ligt er bij jou op de plank die nog niemand heeft laten werken?

Wouter Overbeek
Interim Manager & Projectmanager
Senior interim manager gespecialiseerd in AI-implementatie en digitale transformatie. 7+ jaar ervaring in de financiële sector.
Plan een gesprekNieuwsbrief
Wekelijks inzichten over AI en digitale transformatie.
Gerelateerde artikelen
AI heeft iedereen een mening gegeven. En nu?
Harvard Business Review vraagt het hardop: heeft AI thought leadership beëindigd? Wat dit voor jouw organisatie betekent.
Je AI agent doet exact wat je zegt. Dat is het probleem.
De meeste organisaties automatiseren processen die op papier bestaan maar in de praktijk niet. Zo faalt AI-implementatie structureel.
74% wil AI agents. Slechts 21% is er klaar voor.
Driekwart van de bedrijven wil AI agents inzetten. Maar slechts 21% heeft daarvoor de governance op orde. Dit gat kost je meer dan je denkt.