Een foundation model (ook wel base model genoemd) is een groot AI-model dat getraind is op hele grote hoeveelheden algemene data. Deze modellen worden gebruikt als startpunt voor specifieke/smallere toepassingen.
Ze zijn eigenlijk de basismodellen waar dan later fine-tuningFine-tuning is het verder trainen van een AI-model met eigen data, zodat het beter aansluit op een specifieke taak, schrijfstijl of domein. Een model vanaf nul trainen kost enorm veel... Meer of andere aanpassingen op worden toegepast.
Voorbeelden van Foundation models zijn GPT-5, Claude, of LLaMA.
Foundation models worden getraind op miljarden woorden uit boeken, websites, artikelen en andere tekstbronnen. Ze leren algemene taalpatronen, feiten, redeneervaardigheden en culturele context. Daarna kunnen ze als fundament dienen voor allerlei specifieke toepassingen: klantenservice, juridisch werk, medische documentatie, enzovoorts.
Waarom dit belangrijk is
Foundation models vormen de basis voor moderne AI-toepassingen. In plaats van dat er voor elke taak een nieuw model moet worden getraind, wat extreem duur is, bouw je voort op een bestaand foundation model. Het is als een goed opgeleide generalist die je vervolgens kunt specialiseren. Zonder foundation models zou AI onbetaalbaar en ontoegankelijk zijn voor de meeste organisaties.
Maar foundation models hebben ook beperkingen: ze bevatten de biasBias is de set aan vooroordelen in AI-output die het resultaat is van de data en de manier waarop een model is getraind. Omdat LLM's leren van bestaande teksten, waarin... Meer uit hun trainingsdata, ze weten niets van gebeurtenissen na hun trainingsdatum, en ze missen domeinspecifieke kennis. Daarom zijn technieken zoals fine-tuning en RAGRAG (Retrieval-Augmented Generation) is een techniek waarbij een LLM bij het antwoorden op een vraag/uitvoeren van een prompt, informatie opzoekt in bronnen die je vooraf hebt gedefinieerd. Daardoor hoef je... Meer nodig om ze bruikbaar te maken voor specifieke contexten.
Voorbeeld
OpenAI traint GPT-5 op enorme hoeveelheden tekst. Dat is het foundation model. Dat basismodel kan algemene vragen beantwoorden en teksten schrijven, maar weet niets specifiek over jouw organisatie.
Als je ChatGPT gebruikt, gebruik je eigenlijk een versie van dat foundation model die verder is aangepast met instruction fine-tuning om beter instructies te kunnen volgen.
Als een ziekenhuis een medische assistent wil, starten ze met zo’n foundation model en passen het aan met fine-tuning op medische data.
Risico
Foundation models bepalen wat überhaupt mogelijk is met AI. Als het foundation model bias bevat, zit die in alles wat erop voortbouwt. Als belangrijke perspectieven ontbreken in de trainingsdata, kun je die later niet meer volledig toevoegen. En omdat foundation models zo groot en complex zijn, begrijpt niemand volledig wat ze wél en niét kunnen, ook de makers ervan zelf niet.
Daarnaast creëren foundation models risicovolle machtsconcentratie, want enkel een handjevol bedrijven (OpenAI, Anthropic, Google, Meta) hebben de middelen om state-of-the-art foundation models te trainen. Dat betekent dat veel AI-innovatie afhankelijk is van wat deze bedrijven beslissen om te bouwen en beschikbaar te maken.
Wat kun je doen?
- Als iets niet werkt met één AI-tool, probeer dan een andere want ze zijn gebouwd op verschillende foundation models
- Wees je bewust dat verschillende foundation models verschillende sterktes en zwaktes hebben
- Test grondig of het foundation model geschikt is voor jouw use case voordat je erin investeert
- Overweeg open-source foundation models (zoals LLaMA) als je meer controle wilt over je AI-stack
- Volg ontwikkelingen in foundation models want ze veranderen snel en nieuwe modellen kunnen beter passen