Decoder-only | Autoregressief; genereert output token-voor-token | GPT-2/3/4, LLaMA, Mistral, Claude, PaLM, Command R | Tekstgeneratie, redeneren, coderen |
Encoder-only | Begrijpt volledige input tegelijk; geen outputgeneratie | BERT, RoBERTa, DistilBERT, ELECTRA | Classificatie, named entity recognition, Q&A |
Encoder-decoder (seq2seq) | Input verwerken via encoder, output genereren via decoder | T5, BART, FLAN-T5, mT5 | Vertaling, samenvatting, vraag-beantwoording |
Retrieval-Augmented Generation (RAG) | Combineert LLM met vectorzoekmachine; haalt context op en verwerkt die in de prompt | Meta RAG, LangChain, ChatGPT+RAG, jouw Ollama + FAISS stack | Semantisch zoeken, contextuele Q&A |
Mixture of Experts (MoE) | Activeert alleen relevante submodellen (‘experts’) per taak | Mixtral, GShard, Switch Transformer | Schaalbare tekstverwerking met minder compute |
Diffusion (beeld/audio/video) | Genereert data (beeld/audio/video) via iteratief "denoisen" van ruis | Stable Diffusion, DALL·E, Riffusion, AudioLDM, Lumiere | Tekst-naar-beeld, muziek, video |
Multimodale modellen | Kunnen meerdere datatypes (tekst, beeld, audio) verwerken en combineren | GPT-4V, Gemini, CLIP, Flamingo, Kosmos-1 | Beeldanalyse, captioning, cross-modale Q&A |
Embedding modellen | Mappen tekst naar vectoren in hoge-dimensionale ruimte | OpenAI Ada, BGE, E5, sentence-transformers | Semantisch zoeken, clustering, RAG |
Instruct-finetuned modellen | LLM getraind op instructies zoals "schrijf een...", "beantwoord..." | Alpaca, Vicuna, Zephyr, OpenChat, Orca | Conversaties, educatie, assistentie |
RLHF-modellen | Fijngetuned met menselijke feedback voor betere alignment met gebruiker | InstructGPT, ChatGPT, Claude | Chatbots, gebruikersgerichte antwoorden |
Agents / Tool-use LLMs | Kunnen externe tools gebruiken (bijv. calculator, code interpreter, web-browsing) | AutoGPT, BabyAGI, GPT-4+Tools, OpenDevin | Autonome taakuitvoering, agentsystemen |
LoRA / QLoRA / Quantized modellen | Lichtgewicht fine-tuning met lage compute; geschikt voor edge deployment | LLaMA + LoRA, GPTQ, GGUF | Lokale LLMs, goedkope inferentie, embedded systems |
Reasoning-geoptimaliseerde modellen | Modellen met chain-of-thought of tree-of-thought mechanismen | Tree-of-Thoughts, ReAct, Toolformer | Complexe redeneringen, multi-stap beslissingen |