LLM, genAI, prompts: 10 AI-termen uitgelegd

AI termen uitgelegd

Je hebt vast al wel eens met AI gewerkt, maar daarom ken je nog niet alle vaak gebruikte termen waar ervaren gebruikers wel eens mee durven uitpakken.

AI duikt overal op: in mailprogramma’s, processors, afbeeldinggeneratie en zelfs in vergadernotities. Maar nieuwe technologieën brengen ook nieuwe woorden met zich mee. Large Language Model (LMM), generatieve AI, prompt, finetuning … het kan soms wat overweldigend zijn. In dit artikel leggen we tien populaire AI-termen uit, zodat je voortaan helemaal mee bent.

1. Large Language Model (LLM)

Een Large Language Model (LLM) is een AI die taal begrijpt en genereert. Een taalmodel dus. Het is getraind met enorme hoeveelheden tekst om te begrijpen hoe mensen schrijven, spreken en denken. Bekende LLM’s zijn GPT, Claude en LLaMA. Ze worden gebruikt om teksten te schrijven, vragen te beantwoorden of vertalingen te maken.

2. Generatieve AI (genAI)

Generatieve AI verwijst naar systemen die iets nieuws maken of genereren: tekst, afbeeldingen, code … Het is de technologie achter AI-tools die bijvoorbeeld automatisch e-mails schrijven, afbeeldingen maken op basis van een omschrijving of een liedje componeren. Het is creatief, maar niet altijd origineel. Veel modellen doen inspiratie op via het internet, waardoor de originele artiesten niet gecrediteerd worden. Dat leidde al tot veel kritiek.

3. Prompt

Een prompt is wat jij aan de AI vraagt of welke opdracht je geeft. Denk aan: “Vat deze tekst samen in drie zinnen” of “Schrijf een positieve afsluiter voor deze e-mail naar mijn nieuwe klant.” Hoe concreter je prompt, hoe beter het resultaat. Goede prompts zijn dus nodig om nuttige antwoorden te krijgen.

4. Prompt engineering

Prompt engineering betekent het stellen van goede vragen aan een AI. In plaats van een vage opdracht (“Verbeter deze afbeelding”), leer je via prompt engineering om specifieke instructies geven (“Verhoog het contrast en pas de beeldkwaliteit aan zodat de afbeelding geschikt is voor hoge-resolutie print (CMYK)”). De vraag naar specifieke prompt engineering functies stijgt bij sommige werkgevers.

5. Finetuning

Finetuning betekent dat je een bestaand AI-model verder traint op jouw specifieke data. Het behoudt dus zijn originele capaciteiten, maar is afgesteld op jouw specifieke noden. Stel dat je een LLM staaldraad wil laten controleren op beschadiging, dan geef je extra trainingsmateriaal mee zoals foto’s. Zo krijg je meer relevante en contextbewuste antwoorden.

6. Token

AI werkt niet met woorden, maar met stukjes tekst: tokens. Een token kan een woord of een deel van een woord zijn. Bijvoorbeeld, het woord “onmogelijk” kan uit twee tokens bestaan: “on” en “mogelijk”. Ze worden ook gebruikt als kostprijs van een bepaald AI-model. Zo kost ChatGPT-4 bijvoorbeeld 30.00 dollar per een miljoen tokens. Veel AI-modellen hebben een limiet op het aantal tokens per prompt of antwoord.

7. Hallucinatie

Een ‘hallucinatie’ betekent in AI dat het model iets verzint dat fout is of niet bestaat en toch overtuigend gebracht wordt. Dat is de laatste tijd al fel verbetert, maar komt toch nog vrij veel voor bij sommige modellen. Bijvoorbeeld een nepbron, een verkeerd feit of een verzonnen cijfer. Daarom is het belangrijk AI-antwoorden altijd kritisch te bekijken.

8. Context window

Dit is het geheugenbereik van een taalmodel: hoeveel tekst het tegelijk kan ‘onthouden’. Bij een korte prompt van drie zinnen is dat geen probleem, maar als je een volledige conversatie voert of een lang document upload, kan het model oudere info vergeten als de context window stilaan vol geraakt. Daarom hebben nieuwe AI-modellen geheugenfuncties, zodat die context window praktisch ongelimiteerd wordt.

9. Trainingsdata

We vermeldden al dat sommige AI-modellen getraind worden met afbeeldingen en informatie van het internet. Die input wordt trainingsdata genoemd. Large Language Models (LLM’s) gebruiken tekst als trainingsdata en leren patronen herkennen door telkens te voorspellen welk woord logisch volgt. Modellen die afbeeldingen verwerken, doen iets vergelijkbaar door te voorspellen wat er te zien is op een foto. Zo leren ze uiteindelijk om context te begrijpen.

10. Inferentie

Inferentie is het moment waarop een AI-model antwoord geeft. Het rekent uit, op basis van de prompt en zijn kennis, wat de meest logische volgende woorden zijn. Inferentie is dus het ‘nadenken’ van het model, net voordat je het resultaat te zien krijgt. Bij sommige modellen kan je dat redeneerproces zelfs in detail bekijken.

Waarom is dit belangrijk?

Je hoeft niet gestudeerd te hebben om met AI te werken. Maar als je de basisbegrippen begrijpt, weet je beter wat er gebeurt achter de schermen. Je leert betere vragen stellen en kritischer omgaan met de output. Je gaat met andere woorden slimmer, sneller en bewuster werken met AI.

Thuiswerkers omzeilen IT-beveiliging door eigen apparatuur aan te schaffen

Uit een rapport van HP Wolf Security blijkt dat steeds meer thuiswerkers eigen apparaten aanschaffen zonder deze door de IT-afdeling te laten controleren. Dit…