Ga naar inhoud

Hoe Claude Search bronnen selecteert om te citeren

9 min leestijd
Bart Waardenburg

Bart Waardenburg

AI Agent Readiness Expert & Oprichter

Claude's websearch heeft iets wat ChatGPT en Google AI Overviews niet hebben: het leunt bijna volledig op een enkel zoekbackend. Brave Search, met een 86,7% overlap tussen citaties en Brave's organische resultaten. Snap je die relatie, dan snap je hoe je geciteerd wordt door Claude.

Ik heb Anthropic's crawler-documentatie, API-specs, onderzoeken van derden en technische publicaties doorgespit om uit te zoeken hoe Claude z'n bronnen selecteert, en wat het anders maakt dan de rest.

De Brave Search-ruggengraat

In maart 2025 bevestigde TechCrunch dat Claude's websearch draait op Brave Search. Dat verandert nogal wat aan hoe je optimaliseert voor Claude-zichtbaarheid.

De BrightEdge-analyse zette er cijfers op: 86,7% van Claude's geciteerde resultaten overlapt met Brave's top niet-gesponsorde organische resultaten. Ter vergelijking, ChatGPT toont slechts 26,7% overlap met Bing's topresultaten. Claude vertrouwt z'n zoekbackend een stuk meer dan ChatGPT dat doet met Bing.

CLAUDE + BRAVE
0
CHATGPT + BING
0

Kort gezegd: goed scoren in Brave Search is goed scoren in Claude. Maar Brave's index heeft een drempel. Content moet bezocht zijn door minstens 20 unieke Brave-browsergebruikers met data-sharing ingeschakeld voordat het in aanmerking komt voor indexering. Dat geeft gevestigde domeinen met divers verkeer automatisch een voorsprong.

Drie crawlers, drie doelen

Anthropic gebruikt drie afzonderlijke crawlers , elk met een eigen doel. De documentatie is voor het laatst bijgewerkt op 20 februari 2026, toen de nieuwste crawler werd toegevoegd.

CLAUDE-SEARCHBOT

Indexeert en beoordeelt contentkwaliteit voor zoekresultaten. Blokkeren vermindert je zichtbaarheid en nauwkeurigheid in Claude-powered zoekopdrachten.

CLAUDEBOT

Crawlt content voor trainingsdata van AI-modellen. Kan onafhankelijk van search worden geblokkeerd zonder je zichtbaarheid te beïnvloeden.

CLAUDE-USER

Haalt pagina's op wanneer gebruikers Claude expliciet vragen een specifieke URL te lezen. Respecteert nog steeds robots.txt, in tegenstelling tot OpenAI's equivalent.

Het grote verschil met OpenAI: alle drie Anthropic's crawlers respecteren nog steeds robots.txt, inclusief Claude-User. OpenAI stopte in december 2025 met het respecteren van robots.txt voor hun ChatGPT-User bot. Anthropic houdt zich er gewoon aan. Ze ondersteunen ook de niet-standaard Crawl-delay-directive en proberen geen CAPTCHA's te omzeilen.

Zoals Search Engine Journal rapporteerde , geeft dit driecrawlersysteem site-eigenaren fijnmaziger controle dan welk ander AI-platform ook. Je kunt zoekindexering toestaan terwijl je training blokkeert, of gebruikersbrowsing toestaan terwijl je geautomatiseerd crawlen beperkt.

De aanbevolen robots.txt voor gedetailleerde Anthropic-controle:

robots.txt - Allow search and browsing, block training plain
# Allow Claude search indexing
User-agent: Claude-SearchBot
Allow: /

# Allow Claude user-initiated browsing
User-agent: Claude-User
Allow: /

# Block AI model training (optional)
User-agent: ClaudeBot
Disallow: /

Hoe Claude daadwerkelijk bronnen selecteert

Claude's bronselectie is een meerstappenproces, gedocumenteerd in Anthropic's API-documentatie :

  1. Beslissing om te zoeken: Claude beslist autonoom of zoeken nodig is op basis van drie criteria - actualiteit (heeft de vraag actuele informatie nodig?), specificiteit (hoe gericht is de vraag?), en intentie (wat is het onderliggende doel?)
  2. Zoekuitvoering: De Brave Search API retourneert de beste organische resultaten
  3. Contentevaluatie: Claude filtert en beoordeelt resultaten op basis van relevantie, duidelijkheid en extraheerbaarheid
  4. Iteratie: Deze cyclus kan tot tien keer herhaald worden in één gespreksbeurt, waarbij de zoekopdracht wordt verfijnd naarmate Claude meer leert

Interessant detail uit de Groundy-analyse : Claude geeft de voorkeur aan content die "beknopt, actueel en nauw aansluit bij de formulering en intentie van de gebruiker." Pagina's moeten passen bij conversationele zoekpatronen. Content in een natuurlijke vraag-en-antwoord-stijl presteert beter dan tekst vol met zoekwoorden. Past precies in de verschuiving van traditionele SEO naar AI Engine Optimization (AEO) , waar schrijven voor hoe mensen vragen stellen belangrijker is dan zoekwoorddichtheid.

Dynamic filtering: waarom schone HTML ertoe doet

In februari 2026 lanceerde Anthropic iets waar ik wel van opkeek: dynamic filtering . Claude kan nu Python-code schrijven en uitvoeren om ruwe HTML te verwerken voordat deze het contextvenster bereikt.

Concreet: Claude gooit actief het volgende weg:

  • Navigatiemenu's en zijbalken
  • Footercontent en standaardtekst
  • Advertenties en tracking-markup
  • Irrelevante metadata

De resultaten liegen er niet om:

ACCURACY BOOST
0
TOKEN SAVINGS
0

Dynamic filtering is momenteel alleen beschikbaar op Opus 4.6 en Sonnet 4.6 via de Claude API en Azure (niet Vertex AI), en vereist dat de code execution tool is ingeschakeld naast websearch.

Hoe Claude bronnen citeert

Claude gebruikt inline citaties met klikbare bronlinks. Vergelijkbaar met ChatGPT, maar anders dan Perplexity's voetnoot-aanpak. Elke claim afkomstig van het web bevat:

  • URL: De URL van de bronpagina
  • Titel: De titel van de bronpagina
  • Geciteerde tekst: Tot 150 tekens van de specifieke content die wordt geciteerd
  • Versleutelde index: Een referentie voor het behouden van citaties in gesprekken met meerdere beurten

Leuk detail uit de API-documentatie: citatiemetadata (cited_text, title, url) telt niet mee voor het input- of output-tokenverbruik. Dat scheelt als je applicaties bouwt met Claude's websearch.

Claude "citeert alleen wat het kan verifiëren" en vermijdt gehalluccineerde citaties. Kan het een bewering niet verifiëren aan de hand van zoekresultaten? Dan laat het de citatie weg of voegt het een voorbehoud toe. Het verzint geen plausibel ogende referenties.

De Citations API: een aparte functie

Even een onderscheid dat makkelijk over het hoofd te zien is. Claude's websearch-citaties (hierboven besproken) zijn iets anders dan de los verkrijgbare Citations API die in januari 2025 werd gelanceerd. Die API laat ontwikkelaars Claude's antwoorden gronden in door de gebruiker aangeleverde documenten (PDF's, platte tekst, aangepaste content) met precieze verwijzingen op tekenniveau.

Interne evaluaties laten zien dat de Citations API de recall-nauwkeurigheid met tot 15% verhoogt vergeleken met custom prompt-gebaseerde implementaties. Maar het is een developer tool voor aangeleverde documenten. Het heeft geen invloed op hoe je website ontdekt of geciteerd wordt in Claude's websearch.

RECALL ACCURACY INCREASE
0

Geen uitgeverslicentiedeals

OpenAI heeft formele licentiedeals met AP, Conde Nast, Financial Times, News Corp, The Atlantic, Springer en Washington Post. Anthropic? Geen aangekondigde uitgeverspartnerschappen.

Wat Anthropic wel heeft is een auteursrechtelijke schikking van $1,5 miljard (september 2025). De grootste in de Amerikaanse geschiedenis, goed voor zo'n 500.000 auteursrechtelijk beschermde werken. De schikking dekt alleen eerder gebruik (vóór 25 augustus 2025) en is uitdrukkelijk geen licentie voor toekomstig gebruik.

Voor website-eigenaren betekent dit: er is geen "voorkeurslijst van uitgevers" voor Claude-citaties. Elke site concurreert op gelijke voet via Brave Search-rankings en contentkwaliteit. Dat maakt de technische optimalisatie in dit artikel des te relevanter.

LEVEL PLAYING FIELD

No publisher licensing deals means every website competes on equal terms. Your visibility in Claude depends entirely on Brave Search rankings and content quality, not on corporate partnerships.

Hoe Claude zich verhoudt tot ChatGPT en Google

Dimensie Claude ChatGPT Google AI Overviews
Zoekbackend Brave Search Bing (+ Google voor betaald) Google Search
Backend-overlap 86,7% met Brave 26,7% met Bing Native integratie
Gebruikersbrowsing-bot Respecteert robots.txt Negeert robots.txt (sinds dec 2025) N.v.t.
Contentverwerking Dynamic filtering (verwijdert standaardtekst) Directe contentverwerking Volledige indexverwerking
Uitgeversdeals Geen AP, Conde Nast, FT, News Corp Diverse licentieovereenkomsten
Citatiestijl Inline klikbare links Inline links in tekst Bronkaarten met URL's
Crawl-delay ondersteuning Ja Niet gedocumenteerd Nee

Wat je vandaag kunt doen

Op basis van Claude's architectuur, dit zijn de dingen die het meeste verschil maken:

1. STA CLAUDE-SEARCHBOT TOE

Dit is de toegangspoort tot zichtbaarheid in Claude. Het blokkeren van deze bot vermindert je aanwezigheid in Claude's zoekantwoorden.

2. OPTIMALISEER VOOR BRAVE

Met 86,7% overlap is scoren in Brave Search in feite scoren in Claude. Zorg ervoor dat Brave je content kan indexeren.

3. SCHOON JE HTML OP

Claude's dynamic filtering verwijdert standaardtekst. Schone semantische HTML met een content-first structuur geeft je een voorsprong.

4. SCHRIJF CONVERSATIONEEL

Claude geeft de voorkeur aan content die aansluit bij conversationele zoekpatronen. Schrijf natuurlijk, niet vol met zoekwoorden.

  • Gebruik semantische HTML (<article>, <main>, <section>) om Claude's filtering te helpen je contentstructuur te begrijpen
  • Render je content server-side. Claude's crawlers kunnen geen client-side JavaScript uitvoeren
  • Houd content beknopt en actueel. Claude filtert op relevantie en actualiteit
  • Voeg gestructureerde data toe. Hoewel Claude op Brave leunt, verbetert gestructureerde data je Brave-rankings wat doorwerkt naar Claude. Platformbreed toont schema markup een +73% selectiepercentage in AI Overviews en sites met FAQPage-schema worden 8× vaker geciteerd door ChatGPT
  • Onderhoud een XML-sitemap. Helpt bij contentontdekking voor alle crawlers, inclusief Claude-SearchBot

Samenvatting

Van de drie grote AI-platformen is Claude's bronselectie het meest doorzichtig. 86,7% overlap met Brave Search. Geen mysterie over hoe je geciteerd wordt: scoor goed in Brave, sta Claude-SearchBot toe en schrijf schone, goed gestructureerde content die aansluit bij hoe mensen van nature vragen stellen.

De voordelen van optimaliseren voor Claude: Anthropic respecteert alle robots.txt-directieven (inclusief voor door gebruikers gestart browsen), biedt de meest fijnmazige crawlercontrole en heeft geen voorkeurslijst van uitgevers. Een gelijk speelveld waar contentkwaliteit en technische uitvoering de zichtbaarheid bepalen.

Voor het complete plaatje over alle AI-platformen, lees ook onze analyses van hoe ChatGPT bepaalt welke websites worden geciteerd en hoe Google AI Overviews bronnen selecteert . Voor bredere trends, zie de belangrijkste inzichten uit Vercel's 2026 AEO-rapport .

Bronnen

Klaar om te checken?

SCAN JE WEBSITE

Ontvang je AI-agentgereedheidscore met bruikbare aanbevelingen over 5 categorieën.

  • Gratis directe scan met lettercijfer
  • 5 categorieën, 47 checkpoints
  • Codevoorbeelden bij elke aanbeveling

GERELATEERDE ARTIKELEN

Lees verder over AI-agentgereedheid en weboptimalisatie.

Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML
9 min leestijd

Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML

Sentry-medeoprichter David Cramer laat zien hoe content negotiation — een 25 jaar oude HTTP-standaard — AI agents 80% tokens bespaart. We ontleden de implementatie: Accept-headers, markdown-levering, redirects voor beveiligde pagina's, en wat dit betekent voor elke website die zich voorbereidt op agent-verkeer.

ai-agents seo getting-started
Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen
9 min leestijd

Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen

Cloudflare lanceerde een /crawl-endpoint dat hele websites crawlt met één API-call — met als output HTML, Markdown of AI-geëxtraheerde JSON. We ontleden wat dit betekent voor AI agent readiness: waarom je robots.txt, sitemap, semantische HTML en server-side rendering nu belangrijker zijn dan ooit.

ai-agents seo getting-started
AI-Crawlers Negeren llms.txt — Maar AI-Agents Niet
9 min leestijd

AI-Crawlers Negeren llms.txt — Maar AI-Agents Niet

Dries Buytaerts data toont dat nul AI-crawlers llms.txt gebruiken. Maar hij mat het verkeerde. Crawlers scrapen voor trainingsdata — agents voltooien taken. We ontleden waarom het onderscheid crawler vs agent ertoe doet, welke coding agents llms.txt en content negotiation al gebruiken, en wat je vandaag moet implementeren.

ai-agents seo getting-started

ONTDEK MEER

De meeste websites scoren onder de 45. Ontdek waar jij staat.

RANGLIJST
BEKIJK HOE ANDEREN SCOREN

RANGLIJST

Bekijk AI-gereedheidsscores van gescande websites.
VERGELIJKEN
VERGELIJKEN

VERGELIJKEN

Vergelijk twee websites zij-aan-zij over alle 5 categorieën en 47 checkpoints.
OVER ONS
HOE WIJ METEN

OVER ONS

Lees meer over onze scoringsmethodologie met 5 categorieën.