Het boek Prompten als een pro is het onmisbare handboek voor iedereen die AI-systemen optimaal wil benutten. Dit diepgravende werk leert je hoe je krachtige prompts formuleert die leiden tot nauwkeurige en nuttige antwoorden van AI. Dit boek biedt gedetailleerde uitleg en praktische voorbeelden om je promptvaardigheden te verfijnen, bijvoorbeeld op het gebied van creatieve toepassingen zoals schrijven en ontwerpen, of voor diepgaand onderzoek en data-analyse. Je leert de juiste balans te vinden tussen specificiteit en openheid, hoe je complexe vragen kunt opbreken in eenvoudiger prompts en hoe je de output kunt sturen door slimme follow-up prompts. Ook biedt het inzichten in het vermijden van veelvoorkomende fouten en het maximaliseren van de efficiëntie van je AI-interacties.
Het boek is te gebruiken voor AI-systemen als ChatGPT, Copilot, Perplexity en Gemini en geeft tips hoe je de systemen zo kunt tweaken en optimaliseren dat antwoorden voorspelbaar worden en hallucineren tot een minimum wordt beperkt. Hieronder lees je het begin van hoofdstuk 2 uit het boek: Waarom prompting bepalend is voor de uitvoer.
Hoe een LLM tekst interpreteert
Een Large Language Model (LLM) is een geavanceerd neuraal netwerk dat getraind is op enorme hoeveelheden tekstdata. Het model voorspelt woorden op basis van de eerder ingevoerde tekst en genereert zo coherente en contextuele uitvoer. Hoewel dit proces intuïtief kan aanvoelen als ‘begrip’, is het in werkelijkheid een complex statistisch patroonherkenningsproces.
Een LLM werkt met statistische patronen. Dit betekent dat de kleinste variatie in de vraagstelling of formulering de gegenereerde tekst drastisch kan veranderen. Het verschil tussen een generiek, oppervlakkig vraag wordt gesteld.

Specifiek versus vaag geformuleerde prompts
De mate van specificiteit in een prompt bepaalt hoeveel controle de gebruiker heeft over de gegenereerde uitvoer.
Voorbeeld 1: een vage prompt
Schrijf een tekst over duurzaamheid.Wat gebeurt er?
- De AI heeft veel vrijheid en genereert een breed, algemeen antwoord.
- Er is geen duidelijke doelgroep of invalshoek, waardoor het resultaat weinig diepgang kan hebben.
Voorbeeld 2: een specifieke prompt
Schrijf een artikel van 300 woorden over de impact van elektrische auto’s op duurzaamheid, met nadruk op CO2-reductie en grondstoffenverbruik.Wat gebeurt er?
- De AI wordt gestuurd naar een specifiek onderwerp.
- Het artikel zal gerichter en informatiever zijn, omdat irrelevante aspecten worden uitgesloten.
Conclusie
Hoe specifieker de prompt, hoe beter de uitvoer aansluit op de verwachtingen.
Open versus gesloten prompts
De structuur van de prompt bepaalt hoe uitgebreid en flexibel de gegenereerde tekst is.
Voorbeeld 1: een gesloten vraag
Heeft windenergie voordelen?Wat gebeurt er?
- De AI kan antwoorden met ‘ja’ of ‘nee’, gevolgd door een korte toelichting.
- Het resultaat is beperkter dan bij een open vraag.
Voorbeeld 2: een open vraag
Welke voordelen en nadelen heeft windenergie vergeleken met zonne-energie?Wat gebeurt er?
- De AI wordt gestimuleerd om breder te antwoorden.
- De vergelijking dwingt het model om twee concepten tegenover elkaar te zetten.
Conclusie
Open vragen genereren doorgaans uitgebreidere, meer gevarieerde antwoorden. Gesloten vragen kunnen nuttig zijn om korte, gerichte antwoorden te krijgen.
Neutrale versus sturende formulering
De manier waarop een vraag wordt gesteld kan de uitvoer beïnvloeden zonder dat de gebruiker zich daar altijd bewust van is.
Voorbeeld 1: neutrale vraagstelling
Wat zijn de voor- en nadelen van kunstmatige intelligentie?Wat gebeurt er?
- De AI geeft een gebalanceerd antwoord met zowel positieve als negatieve aspecten.
Voorbeeld 2: sturende vraagstelling
Waarom is kunstmatige intelligentie gevaarlijk?Wat gebeurt er?
- De AI focust op de negatieve aspecten, omdat de prompt een bepaalde richting afdwingt.
- Dit kan leiden tot een eenzijdig antwoord.
Conclusie
Een neutrale formulering leidt tot evenwichtigere uitvoer. Sturende prompts kunnen nuttig zijn als je een specifiek perspectief wilt benadrukken, maar kunnen ook tot vooringenomenheid (bias in AI-speak) in de antwoorden leiden.
Impact van impliciete aannames
Een LLM verwerkt taal zonder begrip van de realiteit. Dit betekent dat impliciete aannames in een prompt direct de respons beïnvloeden.
Bijvoorbeeld:
Waarom werken elektrische auto’s beter dan benzineauto’s?Wat gebeurt er?
- De AI neemt de aanname over dat elektrische auto’s ‘beter’ zijn en onderbouwt dit, zonder het waarheidsgehalte van die bewering te controleren.
Om bias te voorkomen, kan de prompt worden herschreven als:
Vergelijk de prestaties en milieueffecten van elektrische auto’s en benzineauto’s.Hierdoor wordt de uitvoer objectiever en beter onderbouwd.
Samenvatting
De manier waarop een vraag wordt gesteld, bepaalt in hoge mate de gegenereerde uitvoer. Kleine nuances in formulering beïnvloeden:
- Hoe specifiek of generiek de AI antwoordt
- Hoe uitgebreid of beknopt het antwoord is
- Hoe objectief of gekleurd de informatie wordt gepresenteerd
Een effectieve prompt engineer formuleert prompts bewust en strategisch om controle te houden over de gegenereerde tekst. In de volgende paragrafen gaan we dieper in op technieken om prompts nog effectiever te structureren.
Een interview met Bob van Duuren, de auteur van Prompten als een pro, kun je HIER lezen.


