Dit artikel is geschreven in opdracht van Headliners SEO Bureau
In ons vorige artikel hebben we de ‘AI-paniek’ genuanceerd met harde data. De conclusie was onontkoombaar: het daadwerkelijke websiteverkeer dat momenteel direct vanuit LLM’s (Large Language Models) zoals ChatGPT komt, is nog miniem vergeleken met de volumes uit traditionele zoekmachines zoals Google.
Echter, als vooruitstrevend SEO-specialist betekent dit niet dat je deze ontwikkeling moet negeren. Het betekent wel dat je moet begrijpen hoe deze systemen werken om er in de toekomst de vruchten van te plukken. Waar het vorige artikel de ‘waarom’-vraag beantwoordde (waarom de hype nog niet strookt met de realiteit), duiken we in dit tweede deel de diepte in op de ‘hoe’-vraag. Hoe komt ChatGPT aan zijn informatie? Wat is ‘Grounding’? En hoe kun je jouw content strategisch inzetten om die felbegeerde bronvermelding te krijgen?
De Basisprincipes van ChatGPT’s Kennis: Trainingsdata versus actuele informatie
Om Generative Engine Optimization (GEO) te begrijpen, moeten we eerst snappen dat een chatbot zoals ChatGPT niet op één, maar op twee manieren antwoord kan geven op een gebruikersvraag.
De eerste manier is gebaseerd op zijn interne trainingsdata. Dit is de enorme hoeveelheid tekst waarop het model is getraind tot een bepaald moment in de tijd (de ‘knowledge cutoff’). Als je een algemene vraag stelt waarvan het antwoord tijdloos is of ruim voor die datum bekend was, put ChatGPT uit deze parate kennis. Het heeft hierbij geen externe bronnen nodig.
De tweede manier wordt geactiveerd wanneer de vraag complexer is, actuele informatie vereist die na de trainingsdatum ligt, of wanneer het model ‘onzeker’ is over zijn eigen kennis. In dat geval moet ChatGPT ‘naar buiten’ om informatie op te halen. Dit proces noemen we in vakjermen Grounding. Het model zoekt een fundering (grounding) voor zijn antwoord in live informatie op het internet.
Het proces van ‘Grounding’ en de cruciale techniek van ‘Query Fan-out’
Wanneer ChatGPT ‘Grounding’ toepast, gebruikt het doorgaans de zoekindex van Bing om het web te doorzoeken. Maar – en dit is het cruciale inzicht voor GEO – ChatGPT neemt jouw ingewikkelde prompt niet letterlijk over als één lange zoekopdracht. Het model begrijpt dat een complex vraagstuk vaak uiteenvalt in meerdere informatiebehoeften.
Om een accuraat en volledig antwoord te construeren, breekt ChatGPT jouw oorspronkelijke vraag op in verschillende, specifiekere sub-vragen. Dit mechanisme noemen we de Query Fan-out. Deze sub-vragen zijn de daadwerkelijke zoekopdrachten die naar Bing worden gestuurd om brede informatie op te halen.
Een praktijkvoorbeeld van Query Fan-out in Actie
Laten we dit concretiseren met een voorbeeld. Stel, een gebruiker voert de volgende complexe prompt in bij ChatGPT:
Prompt: “Ik zoek een duurzame oplossing voor de verwarming van mijn jaren ’30 woning in Utrecht, wat zijn de kosten van een warmtepomp inclusief subsidie in 2026 en zijn er lokale installateurs?”
ChatGPT kan dit niet met één simpele zoekopdracht beantwoorden. Via de Query Fan-out methode zal het model deze vraag opbreken in verschillende Bing-zoekopdrachten, die er ongeveer zo uit kunnen zien:
- Bing zoekopdracht 1: “Duurzame verwarming opties jaren 30 woning”
- Bing zoekopdracht 2: “Kosten hybride warmtepomp 2026 inclusief ISDE subsidie”
- Bing zoekopdracht 3: “Subsidie warmtepomp Utrecht gemeente 2026”
- Bing zoekopdracht 4: “Erkende warmtepomp installateurs Utrecht reviews”
Vervolgens leest ChatGPT de topresultaten van deze vier verschillende zoekopdrachten in Bing, synthetiseert de informatie en formuleert één samenhangend antwoord voor de gebruiker.
De GEO-Strategie: Reverse-engineering van de zoekopdrachten
Hier ligt de kern van Generative Engine Optimization. Als je wilt dat ChatGPT jouw website gebruikt om een antwoord samen te stellen, moet je zorgen dat jouw content gevonden wordt tijdens die ‘Query Fan-out’.
De strategie is dus het reverse-engineeren van dit proces. Je moet erachter komen welke sub-vragen (de fan-out queries) ChatGPT waarschijnlijk genereert voor jouw belangrijkste bedrijfsonderwerpen. Er zijn inmiddels diverse browser-extensies en tools op de markt die inzichtelijk kunnen maken welke bronnen en zoekopdrachten een LLM gebruikt heeft voor een specifiek antwoord.
Met die kennis kun je jouw contentstrategie aanscherpen. Je gaat blogs schrijven, bestaande pagina’s uitbreiden en FAQ-secties optimaliseren die laser-scherp antwoord geven op die specifieke sub-vragen. Het doel is om op die deelvragen in de top van Bing te ranken. Als dat lukt, vergroot je de kans aanzienlijk dat ChatGPT jouw site als bron gebruikt en – het allerbelangrijkste – een aanklikbare bronvermelding opneemt in de output.
De harde realiteit van de Click-Through Rate (CTR) bij Bronvermeldingen in ChatGPT
Je hebt de Query Fan-out begrepen, je content geoptimaliseerd en je hebt een bronvermelding te pakken. Missie geslaagd? Dat hangt af van je doelstelling. Als het doel ‘branding’ en ‘zichtbaarheid’ is: ja. Als het doel ‘verkeer en leads’ is: waarschijnlijk niet.
We moeten hier uiterst realistisch over zijn. Data wijst uit dat de Click-Through Rate (CTR) op deze bronvermeldingen in chatbots ontzettend laag is. Voor de meeste branches en sectoren ligt dit percentage onder de 1%. De meeste gebruikers zijn tevreden met het directe antwoord dat de chatbot geeft en voelen geen noodzaak om door te klikken voor verdieping.
Strategische conclusie: Een nuchtere blik op investering versus rendement
Dit brengt ons terug bij de zakelijke realiteit. We weten dat het totale volume van ChatGPT veel kleiner is dan Google. We weten nu ook dat van dat kleinere volume, minder dan 1% daadwerkelijk doorklikt naar jouw website.
Reken dat even door. Hoeveel duizenden vertoningen in ChatGPT-antwoorden heb je nodig om één bezoeker op je site te krijgen? En hoeveel van die bezoekers heb je nodig om uiteindelijk één aanvraagformulier ingevuld te krijgen of één product te verkopen?
Dit zijn de kritische vragen die we bij Headliners stellen. Als ervaren SEO-bureau helpen wij opdrachtgevers om door de hypes heen te kijken. We analyseren samen welk kanaal het meest interessant is voor nu én voor de toekomst, en waar de prioriteit moet liggen. GEO is een fascinerend vakgebied om mee te experimenteren en op voor te sorteren, maar het is bedrijfseconomisch onverantwoord om je huidige, renderende SEO-strategie overboord te gooien voor een kanaal waar de CTR nog onder de één procent ligt.
Veel gestelde vragen over ChatGPT en query fan out
Deze sectie behandelt tactische en strategische vragen die verder gaan dan de basis, bedoeld voor specialisten die GEO willen integreren in hun bestaande marketingmix.
Hoe kan ik tactisch achterhalen welke specifieke ‘Query Fan-out’ zoekopdrachten ChatGPT genereert voor mijn niche?
Antwoord: Dit is de heilige graal van GEO. Naast het gebruik van specifieke browser-extensies die proberen de ‘netwerk-calls’ van de chatbot te analyseren, is de meest betrouwbare methode momenteel het analyseren van je eigen Bing Webmaster Tools data. Zoek naar plotselinge vertoningen op zeer specifieke, soms grammaticaal incomplete, conversational long-tail zoekopdrachten waar je nooit bewust op geoptimaliseerd hebt. Dit zijn vaak de letterlijke sub-vragen die een LLM via Bing afvuurt. Combineer dit met het handmatig testen van complexe prompts in ChatGPT (met browsing aan) en let goed op de “Searching for…” indicatoren die kort in beeld verschijnen; deze geven de essentie van de fan-out weer.
Betekent de afhankelijkheid van ChatGPT op Bing dat we onze technische SEO-prioriteit moeten verschuiven van Google naar Bing?
Antwoord: Tactisch wel, strategisch niet. Omdat ChatGPT voor zijn ‘grounding’ afhankelijk is van de Bing-index, is het essentieel dat jouw site technisch perfect in orde is voor de Bingbot (denk aan indexing en rendering). Een site die slecht presteert in Bing, zal nooit als bron dienen voor ChatGPT. Echter, gezien Google’s enorme marktaandeel in traditioneel zoeken én de komst van hun eigen AI Overviews, blijft Google leidend. Zie Bing-optimalisatie nu als een noodzakelijke randvoorwaarde voor GEO, niet als vervanging van je Google-strategie.
Hoe verschilt content die geoptimaliseerd is voor een ‘sub-vraag’ uit een Query Fan-out van traditionele long-tail SEO-content?
Antwoord: Het verschil zit in de intentie en structuur. Traditionele long-tail content is geschreven voor een mens die een volledig antwoord zoekt. Content voor een sub-vraag is geschreven voor een machine die een data-fragment zoekt om te synthetiseren in een groter geheel. Deze content moet extreem feitelijk, direct en gestructureerd zijn. Het gebruik van Schema Markup (zoals FAQPage of HowTo) is hierbij nog crucialer dan bij reguliere SEO, omdat het de LLM helpt de informatie snel en foutloos te extraheren zonder de omliggende ‘fluff’ te hoeven interpreteren.
Gezien de CTR van <1%, welke KPI’s zijn dan wel relevant om de ROI van GEO-inspanningen te meten?
Antwoord: Traditionele performance-KPI’s zoals sessies en conversies schieten hier voorlopig tekort. De focus moet liggen op ‘Share of Model Voice’. Je meet succes door periodiek kwalitatieve audits uit te voeren: hoe vaak wordt jouw merk of content genoemd als entiteit of bron bij kritieke prompts in jouw branche? Het is een branding- en zichtbaarheids-KPI, vergelijkbaar met top-of-funnel display advertising, veeleer dan een direct response kanaal op dit moment.
Wat triggert een LLM precies om over te gaan tot ‘Grounding’ in plaats van zijn trainingsdata te gebruiken?
Antwoord: Hoewel het exacte algoritme een ‘black box’ is, draait het vooral om twee factoren: de gepercipieerde ’temporele aard’ van de vraag en de interne ‘confidence score’. Vragen die duiden op een behoefte aan actuele data (jaartallen in de toekomst, “recent nieuws”, actuele prijzen) triggeren vrijwel altijd een zoekopdracht. Daarnaast triggert een lage interne zekerheidsscore over feitelijke kennis ook grounding om hallucinaties te voorkomen. Het doel van GEO is om precies op die momenten van onzekerheid of actualiteitsbehoefte de meest logische externe bron te zijn.