Hoe AI Echt Werkt
De basis begrijpen verandert hoe je AI gebruikt — het mentale model dat je resultaten transformeert.
INFO
- Tijd: ~15 minuten
- Moeilijkheid: Beginner
- Wat je leert: Het mentale model dat verandert hoe je AI gebruikt
Wat Komt er aan Bod
- Het Mentale Model - AI voorspelt woorden op basis van patronen, niet "denken"
- Wat Zijn Modellen - GPT-4, Claude, Gemini begrijpen en wat nieuwe releases betekenen
- Hallucinaties - Waarom AI zelfverzekerd is, zelfs als het fout zit
- Context Windows - Het beperkte "werkgeheugen" van AI
- AI is Stateless - Waarom AI niet "leert" van je gesprekken
- Training vs Zoeken - Het verschil tussen wat AI "weet" en wat het opzoekt
- Waarom AI Midden in een Antwoord Stopt - Output-limieten begrijpen
- Praktische Implicaties - Hoe deze kennis je resultaten verbetert
Het Mentale Model
Wanneer je iets intypt in ChatGPT of Claude, is dit wat er daadwerkelijk gebeurt:
AI voorspelt het volgende woord. Dat is het. Het kijkt naar alles wat je hebt geschreven en voorspelt welk woord er als volgende moet komen, en herhaalt dit proces duizenden keren om een antwoord te vormen.
Dit is geen "denken" in menselijke zin. Het is extreem geavanceerde patroonherkenning. De AI is getraind op enorme hoeveelheden tekst van het internet — boeken, artikelen, code, gesprekken — en heeft patronen geleerd over hoe woorden op andere woorden volgen.
Zie het als de meest geavanceerde autocomplete ter wereld. Je telefoon suggereert "je" nadat je "dank" typt, omdat het dat patroon miljoenen keren heeft gezien. AI doet hetzelfde, maar op een schaal en complexiteit die verrassend samenhangende antwoorden oplevert.
Waarom Dit Belangrijk Is
Dit begrijpen verandert hoe je AI gebruikt:
- AI "weet" geen dingen - Het herkent patronen die op kennis lijken
- Het kan zichzelf niet factchecken - Het heeft geen manier om te verifiëren of wat het zegt waar is
- Zelfvertrouwen betekent geen nauwkeurigheid - Het voorspelt zelfverzekerd klinkende tekst omdat dat is hoe goede antwoorden eruitzien
Patroonherkenning in Actie
AI is uitstekend in taken waarbij patronen overvloedig aanwezig zijn in de trainingsdata:
| Taak | Waarom AI hier goed in is |
|---|---|
| E-mails schrijven | Miljoenen e-mails gezien |
| Concepten uitleggen | Talloze uitleg gezien |
| Code schrijven | Getraind op enorme code-repositories |
| Tekst samenvatten | Veel voorbeelden van samenvattingen gezien |
AI heeft moeite met:
- Nieuwe problemen waar het geen patronen voor heeft gezien
- Zeer recente gebeurtenissen (trainingsdata heeft een afsluitdatum)
- Nicheonderwerpen met weinig trainingsdata
- Taken die verificatie in de echte wereld vereisen
Nooit Twee Keer Hetzelfde
Voer exact dezelfde prompt twee keer uit en je krijgt verschillende antwoorden. Dit is geen bug — het is by design.
Bij het voorspellen van het volgende woord kiest AI niet altijd de meest waarschijnlijke optie. In plaats daarvan maakt het een selectie uit de topcandidaten met enige willekeur. Dit wordt geregeld door een instelling genaamd temperature:
- Lage temperature → Meer voorspelbare, gerichte antwoorden
- Hoge temperature → Meer creatieve, gevarieerde antwoorden
Dit betekent:
- Verwacht geen identieke outputs - Zelfs het kopiëren en plakken van dezelfde prompt levert variaties op
- Genereer opnieuw als je ontevreden bent - De volgende poging kan beter zijn
- Kleine verschillen zijn normaal - Toon, woordkeuze en structuur zullen variëren
Opmerking over Temperature
Je kunt temperature niet aanpassen in de consumentenapps van ChatGPT of Claude — dit is een API-only instelling voor ontwikkelaars. Wanneer je ChatGPT.com of Claude.ai gebruikt, kiest de AI-aanbieder de temperature voor je. Voor dagelijks gebruik kun je de variatie gewoon omarmen — het levert vaak betere ideeën op.
Wat Zijn Modellen?
Je hoort over "GPT-4," "Claude Sonnet," "Gemini Pro" — dit zijn allemaal modellen. Een model is het getrainde neurale netwerk dat de daadwerkelijke voorspellingen doet. Zie het als het "brein" dat de AI-tool aandrijft.
Waarom Verschillende Modellen Bestaan
Bedrijven trainen verschillende modellen met verschillende afwegingen:
| Afweging | Voorbeeld |
|---|---|
| Snelheid vs. capaciteit | Kleinere modellen reageren sneller maar kunnen minder complexiteit aan |
| Kosten vs. kwaliteit | Grotere modellen zijn duurder om te draaien maar leveren betere resultaten |
| Algemeen vs. gespecialiseerd | Sommige modellen blinken uit in code, andere in conversatie |
Daarom zie je modelnamen als "Claude Sonnet" (gebalanceerd) vs "Claude Haiku" (snel en goedkoop) vs "Claude Opus" (meest capabel).
Wat "Nieuw Model" Betekent
Wanneer een bedrijf een nieuw model aankondigt, hebben ze meestal:
- Getraind op meer of betere data
- De onderliggende architectuur verbeterd
- Mogelijkheden uitgebreid (langer context window, beter redeneren, nieuwe functies)
Koppen zullen beweren dat het nieuwe model "X% beter" is — maar beter waarin?
Benchmarks Vertellen Niet het Hele Verhaal
AI-bedrijven publiceren benchmarkscores die laten zien hoe modellen presteren op gestandaardiseerde tests. Het probleem:
- Benchmarks testen specifieke taken - Jouw werk is waarschijnlijk geen gestandaardiseerde test
- Modellen kunnen geoptimaliseerd worden voor benchmarks - Hoge scores garanderen geen prestaties in de echte wereld
- Jouw use case is uniek - Een model dat het "beste" is in code is misschien niet het beste voor je marketingteksten
Beoordeel Zelf
Wanneer een nieuw model lanceert, test het op je daadwerkelijke taken — niet op hypothetische. Voer dezelfde prompts uit die je dagelijks gebruikt en vergelijk de resultaten. Jouw ervaring telt meer dan welke benchmark dan ook.
Hallucinaties: Zelfverzekerd maar Fout
AI-"hallucinaties" zijn wanneer het model informatie genereert die gezaghebbend klinkt maar volledig verzonnen is. Dit gebeurt omdat:
- AI optimaliseert voor plausibel klinkende tekst - Als er om een bron wordt gevraagd, genereert het iets dat eruitziet als een bron
- Het kan feit niet van fictie onderscheiden - Zowel echte als verzonnen feiten zijn gewoon patronen om te matchen
- Het weet niet wat het niet weet - Er is geen intern "ik weet het niet zeker" signaal
Veelvoorkomende Voorbeelden van Hallucinaties
- Nepbronnen - Academische papers die niet bestaan, met overtuigend klinkende auteurs en tijdschriften
- Verzonnen statistieken - "Onderzoek toont aan dat 73% van..." zonder echte bron
- Zelfverzekerde technische fouten - Code die er goed uitziet maar subtiele bugs bevat
- Fictieve gebeurtenissen - Gedetailleerde beschrijvingen van dingen die nooit zijn gebeurd
Belangrijk
AI presenteert verzonnen feiten met dezelfde zelfverzekerdheid als echte. Verifieer belangrijke informatie altijd bij primaire bronnen.
Context Windows: Het Werkgeheugen van AI
AI heeft een beperkt "context window" — de hoeveelheid tekst die het tegelijkertijd kan verwerken. Zie het als werkgeheugen.
Claude: ~100.000+ tokens (ongeveer 75.000 woorden) ChatGPT: Varieert per model (8k tot 128k tokens)
Wat Dit in de Praktijk Betekent
- Lange gesprekken verslechteren - Naarmate de context volloopt, kan AI eerdere delen "vergeten"
- Grote documenten uploaden - AI kan details kwijtraken in zeer lange bestanden
- Opnieuw beginnen helpt - Wanneer antwoorden vreemd worden, werkt een nieuw gesprek vaak beter
Signalen dat je Contextlimieten Bereikt
- AI spreekt zichzelf tegen over iets dat het eerder zei
- Het vergeet details die je hebt genoemd
- Antwoorden worden minder samenhangend
- Het begint zichzelf te herhalen
Oplossing: Begin een nieuw gesprek en geef de belangrijkste context vooraf.
AI is Stateless: Het "Leert" Niet van Jou
Dit is een veelvoorkomend misverstand: AI leert niet van je gesprekken.
Wanneer je chat met ChatGPT of Claude, kan het voelen alsof de AI je leert kennen. Het onthoudt wat je eerder zei, verwijst terug naar je context en bouwt voort op eerdere antwoorden. Dit creëert een illusie van leren — maar het is precies dat, een illusie.
Hoe Gesprekken Echt Werken
Achter de schermen gebeurt het volgende telkens wanneer je een bericht stuurt:
- Alles wordt samengevoegd - Je nieuwe bericht wordt samengevoegd met de volledige gespreksgeschiedenis
- AI ontvangt alles tegelijk - Het is alsof het één groot document ontvangt, geen vloeiend gesprek
- AI voorspelt het antwoord - Op basis van deze gecombineerde tekst, zonder daadwerkelijk geheugen
Wanneer je een nieuw gesprek begint, heeft de AI nul herinnering aan eerdere chats. Het is een volledig nieuwe start. Het "context window" is geen geheugen — het is gewoon het huidige gesprek dat herhaaldelijk wordt ingevoerd.
Waarom Dit Belangrijk Is
- AI verbetert niet door met jou te praten - Het wordt niet beter in jouw specifieke taken over tijd
- Elke sessie is onafhankelijk - De doorbraken van gisteren worden niet meegenomen
- Je kunt het niet "trainen" door gebruik - Hoe vaak je ook je voorkeuren uitlegt
De Uitzondering: Projecten en Geheugenfuncties
Zowel ChatGPT als Claude bieden nu manieren om context te bewaren:
- Projecten laten je instructies en documenten opslaan die over gesprekken heen blijven bestaan
- ChatGPT Geheugen slaat specifieke feiten op die je het vraagt te onthouden
Deze functies veranderen niet hoe de onderliggende AI werkt — ze voegen opgeslagen context automatisch toe aan het begin van elk gesprek. Meer hierover in Les 3.
Training vs Zoeken: Wat AI "Weet" vs. Wat Het Opzoekt
AI-kennis komt uit twee zeer verschillende bronnen, en dit begrijpen is belangrijk:
Getrainde Kennis (Ingebouwd)
Wanneer een AI-model wordt gemaakt, wordt het getraind op enorme hoeveelheden tekst. Deze kennis is "ingebakken":
- Heeft een afsluitdatum - GPT-4 weet mogelijk niets na januari 2024
- Kan niet worden bijgewerkt - Eenmaal getraind, ligt de kennis van het model vast
- Kan verouderde informatie bevatten - Feiten veranderen, maar het model niet
Dit is wat AI standaard "weet" wanneer je het een vraag stelt.
Zoeken/Ophalen (Realtime)
Moderne AI-tools kunnen ook het web doorzoeken of geüploade documenten raadplegen:
- Actuele informatie - Kan het nieuws van vandaag vinden, laatste prijzen, recente gebeurtenissen
- Expliciet opgehaald - AI zoekt het op, in plaats van uit het geheugen te genereren
- Betrouwbaarder voor feiten - Controleert daadwerkelijk bronnen in plaats van patroonherkenning
Hoe je het Verschil Herkent
| Als je vraagt over... | AI gebruikt waarschijnlijk... | Betrouwbaarheid |
|---|---|---|
| Algemene concepten (fotosynthese, WO2) | Getrainde kennis | Goed voor gevestigde feiten |
| Recente gebeurtenissen (aandelenkoers vandaag) | Zoeken (indien ingeschakeld) | Goed als zoeken aan staat |
| Obscure of nicheonderwerpen | Getrainde kennis | Kan hallucineren |
| Je geüploade documenten | Ophalen | Goed — het leest het daadwerkelijke bestand |
Let Op
Wanneer zoeken is uitgeschakeld of niet beschikbaar is, zal AI nog steeds zelfverzekerd vragen over recente gebeurtenissen beantwoorden — met verouderde of verzonnen informatie. Controleer altijd of je AI-tool webtoegang heeft ingeschakeld wanneer je vraagt over actuele onderwerpen.
Waarom AI Soms Midden in een Antwoord Stopt
Is het je opgevallen dat AI soms midden in een antwoord stopt? Het is niet willekeurig — er zijn specifieke redenen:
Output Token-limieten
Net zoals er een limiet is op hoeveel AI kan lezen (context window), is er een limiet op hoeveel het kan schrijven in één antwoord:
- ChatGPT: Meestal 4.000-8.000 tokens per antwoord
- Claude: Meestal 4.000-8.000 tokens per antwoord
Wanneer de AI deze limiet bereikt, stopt het simpelweg — vaak midden in een zin.
Hoe je Verder Gaat
Als AI midden in een antwoord stopt:
- Zeg "ga verder" - De AI gaat verder waar het gebleven was
- Vraag om de rest - "Ga alsjeblieft verder waar je was gestopt"
- Vraag om output in delen - "Geef me dit in delen, te beginnen met sectie 1"
Andere Redenen Waarom AI Kan Stoppen
| Symptoom | Waarschijnlijke oorzaak | Oplossing |
|---|---|---|
| Stopt midden in een zin | Output token-limiet | Zeg "ga verder" |
| Stopt na een lang gesprek | Context window vol | Begin een nieuw gesprek met de belangrijkste context |
| Stopt met een foutmelding | Server-/tarieflimieten | Wacht en probeer opnieuw |
| Geeft een zeer kort antwoord | Omvang verkeerd begrepen | Verduidelijk wat je nodig hebt met meer detail |
Strategie voor Lange Content
Voor lange content (zoals gedetailleerde rapporten of documentatie), vraag AI om het vooraf in secties op te delen. Dit voorkomt onhandige onderbrekingen en geeft je natuurlijke stoppunten.
Wat Dit voor Jou Betekent
Nu je begrijpt hoe AI werkt, kun je het beter gebruiken:
Wees Specifiek
Vage invoer levert vage uitvoer op. De AI vult gaten met aannames.
| In plaats van... | Probeer... |
|---|---|
| "Schrijf een e-mail" | "Schrijf een e-mail van 3 alinea's aan een klant waarin je de projectvertraging uitlegt" |
| "Help me met code" | "Debug deze Python-functie die de som van een lijst moet teruggeven" |
| "Geef me ideeën" | "Geef me 5 marketingslogans voor een duurzaam koffiemerk gericht op millennials" |
Geef Context
AI kan je gedachten niet lezen. Vertel het:
- Wie je bent (je rol, expertiseniveau)
- Wat je probeert te bereiken
- Eventuele beperkingen of vereisten
- Voorbeelden van wat je wilt
Verifieer Belangrijke Feiten
Voor alles wat consequenties heeft:
- Controleer statistieken bij primaire bronnen
- Verifieer of bronvermeldingen daadwerkelijk bestaan
- Test code voordat je het gebruikt
- Dubbelcheck bij gezaghebbende bronnen
Begin Opnieuw Wanneer Nodig
Als AI-antwoorden vreemd worden:
- Begin een nieuw gesprek
- Geef essentiële context vooraf
- Probeer niet een verslechterd gesprek te "repareren"
Belangrijkste Inzichten
- AI voorspelt woorden, het denkt niet - Het is geavanceerde patroonherkenning, geen redenering
- Modellen zijn de getrainde "breinen" - Verschillende modellen hebben verschillende afwegingen; beoordeel nieuwe zelf
- Zelfvertrouwen ≠ nauwkeurigheid - AI klinkt zelfverzekerd, zelfs wanneer het volledig fout zit
- Hallucinaties zijn normaal - Verifieer belangrijke feiten altijd bij primaire bronnen
- Context is beperkt - Begin opnieuw wanneer gesprekken verslechteren
- AI is stateless - Het leert niet van je gesprekken; elke sessie begint vers
- Training vs zoeken - AI "weet" waar het op getraind is; het "zoekt op" wat actuele informatie is
- Output-limieten bestaan - AI kan midden in een antwoord stoppen; vraag gewoon om verder te gaan
- Specificiteit wint - Duidelijke invoer levert betere uitvoer op
