Panoramische banner voor de AI-woordenlijst van AIWiser met het woord ‘AI WOORDENLIJST' in contrastrijk donkergroen.

AI-woordenlijst: 256 essentiële termen

Snel Antwoord

Wat is de AI-woordenlijst? AI-woordenlijst (of AI glossary) is een verzameling van 256 essentiële termen binnen de wereld van kunstmatige intelligentie. De lijst biedt heldere definities voor zowel beginners als experts en is opgedeeld in vijf categorieën: basisconcepten, machine learning, NLP, ethiek en geavanceerde techniek & trends. Met deze glossary vertalen we complexe AI-vaktaal naar begrijpelijke inzichten.

Laatst herzien: maart 2026

Waarom een woordenlijst?

AI verandert de wereld in een hoog tempo, maar de bijbehorende taal is vaak onnodig ingewikkeld. AIWiser.nl heeft deze Glossary samengesteld om die drempel te verlagen. We bieden heldere definities van de concepten die de richting van kunstmatige intelligentie bepalen.

Waarom 256 woorden?

In de informatica is 256 een iconisch getal; het is het maximale aantal waarden dat je met één byte kunt vormen. Omdat computers altijd bij nul beginnen met tellen, start onze lijst ook bij 0. Zo bevat deze glossary exact 256 termen (van 0 tot 255), een subtiele knipoog naar de fundering van de digitale wereld.

Navigatie & Gebruik

De lijst is opgedeeld in vijf segmenten, van de fundering tot de techniek van morgen. Veel van deze termen zijn direct gelinkt aan uitgebreide artikelen en tools op onze site voor wie meer diepgang zoekt.

Snel zoeken in de lijst

Wil je direct naar een specifiek begrip? Gebruik dan de zoekfunctie van je browser:

  • Windows: Toets Ctrl + F
  • Mac: Toets Cmd + F
  • Mobiel: Tik op de drie puntjes of het deel-icoon in je browser en kies ‘Zoeken op pagina’.

De opbouw van deze AI glossary

Deze lijst volgt de logische leercurve van kunstmatige intelligentie. We starten bij de fundering en eindigen bij de technieken van morgen.

  1. De oorsprong: De nulmeting.
  2. De Basis & Concepten: Alles wat je moet weten om mee te kunnen praten over AI, van algoritmes tot prompts.
  3. Machine Learning & Deep Learning: De motor onder de motorkap. Hoe systemen daadwerkelijk ‘leren’ van data.
  4. NLP & Generatieve AI: De techniek achter chatbots en beeldgeneratoren; hoe machines taal en beelden begrijpen.
  5. Ethiek, Wetgeving & Maatschappij: De impact van AI op ons leven, de regels (AI Act) en de morele keuzes.
  6. Geavanceerde Techniek & Trends: Voor wie dieper wil gaan. De nieuwste chip-technologieën en complexe model-architecturen.

Onderstaande lijst is in een groter lettertype, zodat eventuele links op een mobiel makkelijker aan te klikken zijn. Links volgen later.

0. De oorsprong

  1. Nulmeting (Baseline): Het startpunt of referentiekader waarmee de prestaties van een AI-model worden vergeleken om te bepalen of het daadwerkelijk intelligentie of verbetering vertoont.

1. De Basis & Concepten (1-40)

  1. AI (Artificial Intelligence): Computersystemen die taken uitvoeren die normaal menselijke intelligentie vereisen.
  2. AGI (Artificial General Intelligence): AI die elk intellectueel probleem kan oplossen dat een mens ook kan.
  3. ANI (Artificial Narrow Intelligence): AI gespecialiseerd in één specifieke taak, ook wel ‘Weak AI’ genoemd.
  4. ASI (Artificial Superintelligence): Een hypothetische AI die de menselijke intelligentie op alle vlakken overstijgt.
  5. Algoritme: Een stapsgewijze instructie of regelset om een probleem op te lossen.
  6. Machine Learning (ML): Een vorm van AI waarbij systemen zelfstandig leren van data zonder expliciet geprogrammeerd te zijn.
  7. Deep Learning: Een subcategorie van ML die gebruikmaakt van gelaagde neurale netwerken.
  8. Neuraal Netwerk: Een computermodel geïnspireerd op de werking van het menselijk brein.
  9. NLP (Natural Language Processing): De technologie die machines menselijke taal laat begrijpen en genereren.
  10. Generatieve AI: AI die nieuwe content creëert, zoals tekst, afbeeldingen of audio.
  11. Data: De brandstof voor AI; informatie die wordt gebruikt om modellen te trainen.
  12. Trainingsdata: De specifieke dataset die een model gebruikt om patronen te leren.
  13. Model: De output van een trainingsproces; een wiskundig algoritme dat voorspellingen doet.
  14. Prompt: De instructie of vraag die een gebruiker aan een AI-model geeft.
  15. Prompt Engineering: De kunst van het optimaal formuleren van prompts voor betere resultaten.
  16. Token: Een kleine eenheid van tekst (zoals een woord of lettergreep) die een AI verwerkt.
  17. Inference: Het proces waarbij een getraind model een voorspelling doet op nieuwe data.
  18. Hallucinatie: Wanneer een AI-model feitelijk onjuiste informatie presenteert als waarheid.
  19. Chatbot: Software ontworpen om menselijke conversatie te simuleren.
  20. Turingtest: Een test om te bepalen of een machine intelligent gedrag vertoont dat niet te onderscheiden is van een mens.
  21. Predictive AI: AI die historische data gebruikt om toekomstige uitkomsten te voorspellen.
  22. Heuristiek: Een praktische methode of “vuistregel” die AI gebruikt om snel een oplossing te vinden wanneer een optimaal algoritme te traag is.
  23. Data-annotatie: Het handmatig labelen van ruwe data (zoals foto’s of tekst) zodat AI-modellen kunnen leren wat de data representeert.
  24. Cognitive Computing: Systemen die menselijke denkprocessen nabootsen.
  25. Big Data: Extreem grote datasets die AI nodig heeft voor complexe analyses.
  26. Data Mining: Het ontdekken van patronen in grote hoeveelheden data.
  27. Automatisering: Het gebruik van technologie om taken uit te voeren zonder menselijke tussenkomst.
  28. Autonomie: Het vermogen van een systeem om zelf beslissingen te nemen.
  29. Robotica: Het vakgebied dat zich bezighoudt met fysieke machines die door AI kunnen worden aangestuurd.
  30. Computer Vision: De tak van AI die computers visuele informatie laat ‘zien’ en interpreteren.
  31. LLM (Large Language Model): Een model getraind op enorme hoeveelheden tekst (zoals GPT-4).
  32. GPT (Generative Pre-trained Transformer): Een specifiek type architectuur voor tekstgeneratie.
  33. Transformer: De architectuur achter bijna alle moderne taalmodellen.
  34. Bias: Systematische fouten of vooroordelen in AI-uitkomsten door gekleurde data.
  35. Ethiek in AI: De morele principes en richtlijnen voor het ontwikkelen van AI.
  36. Black Box AI: Een model waarvan het besluitvormingsproces niet transparant of begrijpelijk is voor mensen.
  37. XAI (Explainable AI): AI die zo is ontworpen dat mensen kunnen begrijpen waarom een bepaalde beslissing is genomen.
  38. Parameter: Een variabele binnen een model die tijdens het trainen wordt aangepast.
  39. Context Window: De hoeveelheid informatie die een model tegelijkertijd kan ‘onthouden’ tijdens een gesprek.
  40. Agent: Een AI-systeem dat zelfstandig doelen probeert te bereiken door acties uit te voeren.

2. Machine Learning & Deep Learning (41-100)

  1. Supervised Learning: Leren van gelabelde data waarbij de uitkomst bekend is.
  2. Unsupervised Learning: Het vinden van patronen in data zonder labels of bekende uitkomsten.
  3. Reinforcement Learning: Leren door vallen en opstaan op basis van beloningen en straffen.
  4. Semi-Supervised Learning: Een combinatie van gelabelde en ongelabelde data.
  5. Transfer Learning: Een getraind model gebruiken voor een nieuwe, gerelateerde taak.
  6. Overfitting: Wanneer een model de trainingsdata té goed leert, waardoor het slecht presteert op nieuwe data.
  7. Underfitting: Wanneer een model te simpel is om de patronen in de data te begrijpen.
  8. Hyperparameter: Instellingen die vóór het trainen worden vastgelegd, zoals de leersnelheid.
  9. Backpropagation: De techniek om fouten terug te koppelen in een neuraal netwerk om de gewichten aan te passen.
  10. Neuron: Een basisrekeneenheid in een neuraal netwerk.
  11. Layer (Laag): Een verzameling neuronen binnen een neuraal netwerk.
  12. Input Layer: De eerste laag die de data ontvangt.
  13. Hidden Layer: De tussenliggende lagen waar de eigenlijke berekeningen plaatsvinden.
  14. Output Layer: De laatste laag die het eindresultaat geeft.
  15. Activation Function: Bepaalt of een neuron ‘vuurt’ op basis van de input.
  16. ReLU (Rectified Linear Unit): Een veelgebruikte activatiefunctie.
  17. Sigmoid: Een functie die waarden tussen 0 en 1 geeft.
  18. Softmax: Gebruikt bij classificatie om kansen te berekenen voor verschillende categorieën.
  19. Loss Function: Meet hoe ver de voorspelling van het model afligt van de werkelijke waarde.
  20. Gradient Descent: Een optimalisatie-algoritme om de ‘loss’ te minimaliseren.
  21. Epoch: Eén volledige ronde waarbij de hele dataset door het model is gegaan.
  22. Batch Size: Het aantal voorbeelden dat tegelijk wordt verwerkt voordat het model wordt bijgewerkt.
  23. Weights (Gewichten): De waarden die de sterkte van de verbinding tussen neuronen bepalen.
  24. Biases: Een constante waarde toegevoegd aan de berekening van een neuron.
  25. CNN (Convolutional Neural Network): Specifiek neuraal netwerk voor beeldverwerking.
  26. RNN (Recurrent Neural Network): Netwerk dat data in een reeks verwerkt (zoals tekst of tijd).
  27. LSTM (Long Short-Term Memory): Een type RNN dat informatie over lange tijd kan onthouden.
  28. GAN (Generative Adversarial Network): Twee netwerken die tegen elkaar strijden om realistische data te maken.
  29. Discriminator: Het deel van een GAN dat ‘echt’ van ‘nep’ onderscheidt.
  30. Generator: Het deel van een GAN dat de ‘nep’ data maakt.
  31. Reinforcement Learning from Human Feedback (RLHF): Het model verfijnen op basis van menselijke beoordelingen.
  32. Fine-tuning: Een bestaand model verder trainen op een specifieke dataset.
  33. Zero-shot Learning: Een taak uitvoeren zonder dat het model daar specifiek voor getraind is.
  34. Few-shot Learning: Een taak leren met slechts een handvol voorbeelden.
  35. Chain of Thought (CoT): Een techniek waarbij de AI wordt gevraagd zijn denkstappen te laten zien.
  36. Embeddings: Woorden of data omzetten in getallenreeksen (vectoren).
  37. Latent Representation: De manier waarop AI complexe data (zoals een gezicht of een zin) versimpelt tot een reeks getallen die de essentie beschrijft.
  38. RAG (Retrieval-Augmented Generation): AI koppelen aan een externe database voor actuele en feitelijke antwoorden.
  39. Attention Mechanism: Laat het model focussen op de belangrijkste delen van de input.
  40. Self-Attention: De kern van de Transformer-architectuur.
  41. Encoder: Verwerkt de input naar een interne representatie.
  42. Decoder: Zet de interne representatie om naar de gewenste output.
  43. Foundational Model: Een groot model dat als basis dient voor vele andere toepassingen.
  44. Multimodal AI: AI die verschillende soorten data (tekst, beeld, geluid) tegelijk kan verwerken.
  45. Sentiment Analysis: Het bepalen van de emotie of toon in een tekst.
  46. Named Entity Recognition (NER): Het herkennen van eigennamen zoals personen of locaties.
  47. Classification: Data indelen in vooraf gedefinieerde categorieën.
  48. Regression: Het voorspellen van een getalwaarde (zoals huizenprijzen).
  49. Clustering: Gelijksoortige data bij elkaar groeperen zonder labels.
  50. Dimensionality Reduction: Het vereenvoudigen van data zonder essentieel verlies van informatie.
  51. PCA (Principal Component Analysis): Een techniek voor dimensiereductie.
  52. Regularization: Technieken om overfitting te voorkomen.
  53. Dropout: Het willekeurig uitschakelen van neuronen tijdens training om robuustheid te vergroten.
  54. Inference Engine: De software die de logica uitvoert om tot een resultaat te komen.
  55. Edge AI: AI die direct op een lokaal apparaat draait in plaats van in de cloud.
  56. Federated Learning: Trainen op verschillende apparaten zonder de ruwe data te delen.
  57. Knowledge Distillation: Een groot model ‘samenvatten’ tot een kleiner, sneller model.
  58. Model Merging: Twee of meer modellen combineren tot één superieur model.
  59. Quantization: Het verkleinen van een model door de precisie van de berekeningen te verlagen.
  60. Temperature: Een parameter die bepaalt hoe creatief of voorspelbaar de output van een AI is.

3. Natural Language Processing & Generatieve AI (101-150)

  1. Tokenization: Het opknippen van tekst in kleinere stukjes (tokens).
  2. Stop Words: Veelvoorkomende woorden (zoals ‘de’, ‘het’) die vaak uit data worden gefilterd.
  3. Lemmatisering: Woorden terugbrengen naar hun basisvorm (bijv. ‘lopend’ wordt ‘lopen’).
  4. Word2Vec: Een techniek om woorden om te zetten in vectoren op basis van context.
  5. Contextual Embeddings: Woordbetekenis die verandert op basis van omliggende woorden.
  6. Hallucination Rate: De frequentie waarmee een model onwaarheden genereert.
  7. Grounding: Het koppelen van AI-antwoorden aan verifieerbare, externe feiten.
  8. System Prompt: De verborgen instructie die het basisgedrag van een AI bepaalt.
  9. Negative Prompt: Instructies over wat de AI niet moet doen of genereren.
  10. Few-shot Prompting: De AI een paar voorbeelden geven in de prompt.
  11. Chain-of-Thought Prompting: De AI vragen om stap-voor-stap te redeneren.
  12. Self-Correction: Het vermogen van een model om eigen fouten te herkennen en te herstellen.
  13. Auto-GPT: Een experimenteel systeem dat zichzelf opdrachten geeft om een doel te bereiken.
  14. Diffusion Model: Technologie achter beeldgeneratoren zoals Midjourney en DALL-E.
  15. Latent Space: De verborgen ruimte waarin AI-modellen concepten en stijlen opslaan.
  16. In-painting: Het repareren of aanpassen van een specifiek deel van een AI-afbeelding.
  17. Out-painting: Een afbeelding verder uitbreiden buiten de oorspronkelijke kaders.
  18. Deepfake: Realistisch ogende maar gemanipuleerde video of audio gemaakt door AI.
  19. Synthetic Data: Kunstmatig gegenereerde data om modellen mee te trainen.
  20. Llama: De open-source model-familie van Meta (Facebook).
  21. Claude: De AI-assistent van Anthropic, gericht op veiligheid.
  22. Gemini: Het krachtigste AI-model van Google.
  23. Mistral: Een toonaangevend Europees open-source AI-model.
  24. Perplexity: Een maatstaf voor hoe goed een taalmodel tekst voorspelt.
  25. Beam Search: Een algoritme dat de meest waarschijnlijke volgende woorden kiest.
  26. Stochastic Parrots: Een kritische term voor AI die tekst genereert zonder echt begrip.
  27. Constitutional AI: AI die getraind is volgens een set vastgelegde ‘grondwetten’ of regels.
  28. Red Teaming: Het moedwillig proberen de AI te laten ‘breken’ om zwakheden te vinden.
  29. Jailbreaking: Het omzeilen van de veiligheidsfilters van een AI-model.
  30. Modality: Het type input (tekst, beeld, audio).
  31. Multi-agent System: Meerdere AI-systemen die samenwerken aan één taak.
  32. Orchestration: Het managen van verschillende AI-modellen en tools in één workflow.
  33. API (Application Programming Interface): De brug waarmee software praat met een AI-model.
  34. Fine-tuning on Instructions: Modellen specifiek trainen om opdrachten op te volgen.
  35. Chat Markup Language (ChatML): Een standaardformaat voor gesprekken tussen mens en AI.
  36. Prompt Injection: Een aanval waarbij gebruikers de AI dwingen zijn instructies te negeren.
  37. Latency: De tijd die de AI nodig heeft om een antwoord te genereren.
  38. Throughput: Hoeveel data (tokens) een AI-systeem per seconde kan verwerken.
  39. Context Stuffing: Het proberen te proppen van te veel info in een prompt.
  40. Small Language Model (SLM): Compactere modellen die sneller en goedkoper zijn.
  41. Semantic Search: Zoeken op betekenis in plaats van alleen op trefwoorden.
  42. Knowledge Graph: Een netwerk van informatie dat relaties tussen concepten laat zien.
  43. MoE (Mixture of Experts): Een modelarchitectuur die alleen relevante delen activeert.
  44. Text-to-Speech (TTS): AI die geschreven tekst omzet in natuurlijke spraak.
  45. Speech-to-Text (STT): AI die gesproken woorden transcribeert naar tekst.
  46. Zero-shot Prompting: Een vraag stellen zonder enige uitleg of voorbeelden vooraf.
  47. Persona: De specifieke rol of toon die je een AI-assistent geeft.
  48. Context Compression: Techniek om lange teksten in te korten zodat ze binnen het ‘context window’ van een model passen zonder de belangrijkste info te verliezen.
  49. Top-K Sampling: Een techniek om de keuze van de AI te beperken tot de K meest waarschijnlijke woorden.
  50. Top-P (Nucleus) Sampling: Woordkeuze op basis van een cumulatieve kansverdeling.

4. Ethiek, Wetgeving & Maatschappij (151-200)

  1. AI Act: De Europese wetgeving die de risico’s van AI reguleert.
  2. Algorithmic Bias: Vooroordelen in besluitvorming door slechte trainingsdata.
  3. Alignment: Het proces om AI-doelen gelijk te trekken met menselijke waarden.
  4. Singularity: Het theoretische punt waarop AI zichzelf sneller verbetert dan mensen kunnen bijhouden.
  5. Existential Risk: Het risico dat AI een bedreiging vormt voor het voortbestaan van de mens.
  6. AI Safety: Onderzoek naar het voorkomen van onbedoeld schadelijk gedrag van AI.
  7. Transparency: De mate waarin inzichtelijk is hoe een AI tot een besluit komt.
  8. Accountability: Wie er verantwoordelijk is als een AI-systeem een fout maakt.
  9. Deepfake Detection: Technologie om AI-gegenereerde content te herkennen.
  10. Data Privacy: Bescherming van persoonlijke gegevens bij het trainen van AI.
  11. Opt-out: Het recht van makers om hun data niet te laten gebruiken voor AI-training.
  12. Copyright AI: De juridische strijd over auteursrecht op AI-output en trainingsdata.
  13. Technological Unemployment: Banenverlies door automatisering via AI.
  14. Universal Basic Income (UBI): Een voorgestelde oplossing voor banenverlies door AI.
  15. Trolley Problem (AI): Ethische dilemma’s bij zelfrijdende auto’s in noodsituaties.
  16. Human-in-the-loop: Een proces waarbij een mens de uiteindelijke AI-beslissing controleert.
  17. Algorithm Governance: Het toezicht op het gebruik van algoritmes binnen organisaties.
  18. Deepfake Pornography: Een van de meest schadelijke misbruiken van generatieve AI.
  19. Filter Bubble: Een situatie waarin AI-algoritmes je alleen laten zien wat je al vindt.
  20. Echo Chamber: Versterking van meningen door AI-gestuurde sociale media.
  21. Shadow AI: Het gebruik van AI-tools binnen een bedrijf zonder toestemming van de IT-afdeling.
  22. Watermarking: Een onzichtbaar kenmerk toevoegen aan AI-content voor herkenning.
  23. Anthropomorphism: De neiging om menselijke eigenschappen aan AI toe te dichten.
  24. Robot Law: De wetten die de omgang met en verantwoordelijkheid van robots regelen.
  25. AI Ethics Board: Een commissie die toeziet op ethisch verantwoorde AI-ontwikkeling.
  26. Informed Consent: Toestemming van gebruikers voor het gebruik van hun data voor AI.
  27. Algorithmic Transparency: Openheid over de werking van algoritmes.
  28. Bias Mitigation: Technieken om vooroordelen uit AI-systemen te verwijderen.
  29. Fairness: Het streven naar gelijke behandeling van alle groepen door AI.
  30. AI-Sovereignty (AI-Soevereiniteit): Het streven van landen of organisaties om eigen AI-modellen en infrastructuur te bezitten, onafhankelijk van grote tech-giganten.
  31. Surveillance AI: AI ingezet voor massale monitoring en gezichtsherkenning.
  32. Social Scoring: Het beoordelen van burgers via AI (zoals in China).
  33. E-waste: De milieu-impact van de hardware die nodig is voor AI.
  34. Compute: De rekenkracht die nodig is om modellen te draaien.
  35. Carbon Footprint of AI: De CO2-uitstoot veroorzaakt door enorme datacenters.
  36. Data Sovereignty: Het recht van landen of personen op hun eigen data.
  37. Digital Divide: De kloof tussen mensen die wel en geen toegang hebben tot AI.
  38. Weaponized AI: Het gebruik van AI in autonome wapensystemen.
  39. Deep Learning Theory: De wetenschappelijke studie naar waarom neurale netwerken werken.
  40. Heuristics: Simpele vuistregels die AI gebruikt om sneller beslissingen te nemen.
  41. Data Ethics: Het moreel verantwoorde beheer van datasets.
  42. User Agency: De mate waarin een gebruiker controle houdt over de AI.
  43. Model Collapse: De theorie dat AI-modellen slechter worden als ze getraind worden op AI-data.
  44. Techno-optimism: Het geloof dat AI bijna alle wereldproblemen zal oplossen.
  45. Doomerism: De overtuiging dat AI onvermijdelijk tot de ondergang van de mensheid leidt.
  46. Effective Altruism (EA): Een beweging die veel invloed heeft op AI-veiligheidsonderzoek.
  47. Model Cards: Een soort ‘etiket’ voor AI-modellen met info over prestaties en bias.
  48. Privacy-Preserving ML: Trainen van AI zonder ooit de ruwe data te zien.
  49. Differential Privacy: Een techniek om individuele data in een dataset te anonimiseren.
  50. Right to Explanation: Het recht van burgers op uitleg over een geautomatiseerd besluit.

5. Geavanceerde Techniek & Toekomstige Trends (201-251)

  1. Liquid Neural Networks: Neurale netwerken die hun parameters tijdens het uitvoeren kunnen aanpassen, ideaal voor tijdreeksdata.
  2. Neuromorphic Computing: Hardware die de fysieke structuur van menselijke hersenen nabootst voor extreme efficiëntie.
  3. Quantized Fine-Tuning (QLoRA): Een techniek om zeer grote modellen efficiënt te trainen op consumentenhardware.
  4. Sparse MoE: Een Mixture of Experts-model waarbij slechts een fractie van het netwerk per token wordt geactiveerd.
  5. Long Context Window: Modellen die hele boeken of volledige codebases in één keer kunnen verwerken.
  6. Recursive Character Text Splitter: Een methode om tekst in logische blokken te hakken voor RAG-systemen.
  7. Vector Similarity Search: Het zoeken naar informatie op basis van wiskundige nabijheid in een vectorruimte.
  8. Cosine Similarity: Een specifieke berekening om te bepalen hoe gelijk twee tekstfragmenten zijn.
  9. Hugging Face: Het belangrijkste wereldwijde platform voor het delen van open-source AI-modellen en datasets.
  10. ONNX (Open Neural Network Exchange): Een open standaard voor het uitwisselen van AI-modellen tussen verschillende frameworks.
  11. PyTorch: Een van de meest gebruikte programmeer-frameworks voor deep learning, ontwikkeld door Meta.
  12. TensorFlow: Een krachtig AI-framework ontwikkeld door Google.
  13. CUDA: Een platform van NVIDIA waarmee software direct gebruikmaakt van de rekenkracht van de videokaart (GPU).
  14. TPU (Tensor Processing Unit): Door Google ontwikkelde chips, specifiek ontworpen voor AI-berekeningen.
  15. LPU (Language Processing Unit): Nieuwe generatie chips (zoals van Groq) die extreem snelle tekstgeneratie mogelijk maken.
  16. In-Context Learning: Het vermogen van een model om te leren van instructies binnen de huidige prompt, zonder training.
  17. Knowledge Cutoff: De datum waarop de trainingsdata van een AI-model stopt; alles daarna ‘weet’ het model niet standaard.
  18. Instruction Tuning: Het proces waarbij een model wordt geleerd om specifieke opdrachten op te volgen in plaats van alleen tekst te voorspellen.
  19. RLAIF (Reinforcement Learning from AI Feedback): Een model trainen met feedback van een ander AI-model in plaats van een mens.
  20. Self-Instruct: Een methode waarbij een AI zijn eigen trainingsvoorbeelden genereert om zichzelf te verbeteren.
  21. Emergent Behavior: Onverwachte vaardigheden die een AI-model plotseling vertoont zodra het groot genoeg wordt.
  22. Stochasticity: De mate van willekeur in de antwoorden van een AI-model.
  23. Auto-regressive Model: Een model dat elk volgend woord voorspelt op basis van alle voorgaande woorden.
  24. Vision Transformer (ViT): Een Transformer-architectuur toegepast op afbeeldingen in plaats van tekst.
  25. Stable Diffusion: Een populair open-source model voor het genereren van afbeeldingen uit tekst.
  26. ControlNet: Een toevoeging aan beeldmodellen waarmee je de compositie of houding van figuren exact kunt sturen.
  27. LoRA (Low-Rank Adaptation): Een methode om met minimale rekenkracht een AI-model aan te passen aan een specifieke taak.
  28. PEFT (Parameter-Efficient Fine-Tuning): Verzamelnaam voor technieken zoals LoRA om modellen slim te finetunen.
  29. Prompt Chaining: Het achter elkaar schakelen van verschillende prompts om een complexe taak te voltooien.
  30. Retrieval Score: Een cijfer dat aangeeft hoe relevant een gevonden document is binnen een RAG-systeem.
  31. Cross-Encoder: Een model dat de relatie tussen twee teksten zeer nauwkeurig, maar relatief traag, beoordeelt.
  32. Bi-Encoder: Een sneller model voor het vergelijken van teksten, veel gebruikt in zoekmachines.
  33. Word Embedding: De numerieke representatie van een woord in een meerdimensionale ruimte.
  34. Token Limit: Het maximale aantal tokens dat een AI in één keer kan verwerken.
  35. Multi-Head Attention: Het mechanisme waarmee een Transformer op verschillende aspecten van een zin tegelijk let.
  36. GPU Cloud: Online verhuur van videokaarten specifiek voor het trainen of draaien van AI.
  37. Model Hub: Een centrale plek waar AI-modellen worden opgeslagen en gedownload.
  38. Inference Cost: De kosten (in geld of energie) om één enkel antwoord uit een AI-model te genereren.
  39. Sovereign AI: AI-systemen die volledig eigendom zijn van en beheerd worden door een specifiek land of bedrijf.
  40. AI Governance: Het beleid en de regels binnen een organisatie voor veilig AI-gebruik.
  41. Deep Learning Pipeline: De volledige route van ruwe data naar een werkend AI-model.
  42. Hyperparameter Tuning: Het zoeken naar de beste instellingen (zoals leersnelheid) voor een AI-model.
  43. Data Augmentation: Het kunstmatig vergroten van een dataset door bestaande data licht te wijzigen (bijv. foto’s draaien).
  44. Ensemble Learning: Meerdere modellen samenvoegen om een betere voorspelling te doen dan elk individueel model.
  45. Model Pruning: Het verwijderen van onnodige verbindingen in een neuraal netwerk om het sneller te maken.
  46. Weight Decay: Een techniek tijdens training om te voorkomen dat gewichten te groot worden (helpt tegen overfitting).
  47. Vanishing Gradient: Een probleem bij diepe netwerken waarbij het model stopt met leren omdat signalen te zwak worden.
  48. Exploding Gradient: Het tegenovergestelde, waarbij signalen te sterk worden en het model onstabiel raakt.
  49. Soft Robotics: Robots gemaakt van flexibele materialen, vaak aangestuurd door AI voor menselijke interactie.
  50. AI Agent Loop: Het proces waarbij een agent een actie uitvoert, de uitkomst observeert en zijn volgende stap plant.
  51. Vector Database: Een gespecialiseerde database die gegevens opslaat als wiskundige representaties (vectoren), essentieel voor het snel terugvinden van relevante informatie in moderne AI-systemen zoals RAG.
  52. AI Literacy: De vaardigheid om AI-technologieën kritisch te begrijpen, te gebruiken en de impact ervan op de samenleving te beoordelen.
  53. Agentic Workflow: Een manier van werken waarbij AI-agents niet alleen een vraag beantwoorden, maar zelfstandig plannen maken, tools gebruiken en resultaten controleren.
  54. GPU Poor: Een term uit de AI-community voor ontwikkelaars of bedrijven die beperkte toegang hebben tot de krachtige hardware die nodig is voor grote modellen.
  55. Test-Time Compute: Het vergroten van de rekenkracht op het moment dat de AI een antwoord geeft (bijv. door langer na te denken), in plaats van alleen tijdens de training.
Scroll naar boven