Ga naar inhoud

JE WEBSITE IS ONZICHTBAAR VOOR AI-AGENTS

AI-crawlers scrapen voor trainingsdata. AI-agents voltooien taken voor gebruikers. Je site moet op beide voorbereid zijn. Wij meten precies wat zij zien.

DE VERSCHUIVING

ChatGPT, Perplexity, Google AI Overviews en autonome AI-agents veranderen hoe mensen het web ontdekken. De websites die winnen in AI-zoekresultaten zijn niet die met het beste design. Het zijn de websites die machineleesbaar zijn.

AI-BOTRICHTLIJNEN
0

GPTBot, ClaudeBot, Amazonbot, Google-Extended en 9 meer

CHECKPOINTS
0

Over 5 gewogen categorieën

TYPISCHE SCORE
0

De meeste websites belanden in de oranje zone

PROTOCOLGEREEDHEID
0

Vrijwel niemand implementeert agentprotocollen

WAT WE METEN

Vijf categorieën die alles dekken wat een AI-agent nodig heeft om je website te vinden, begrijpen en ermee te interacteren. Elk gewogen op basis van de impact op wat AI-agenten daadwerkelijk met je content doen.

30%

AI-CONTENTONTDEKKING

Als AI-systemen je content niet kunnen vinden en openen, maakt de rest niet uit. We controleren of je robots.txt de 13 belangrijkste AI-bots toelaat, of je een sitemap biedt die crawlers kunnen volgen, en of je llms.txt hebt — een gecureerd startpunt dat AI-agents zoals Claude Code en Cursor helpt je belangrijkste pagina's te vinden.

  • robots.txt
  • AI-crawlerrichtlijnen
  • XML Sitemap
  • llms.txt
  • Meta Robots
  • HTTP Bot-toegang
  • Contentversheid
20%

AI-ZOEKSIGNALEN

AI-gestuurde zoekmachines zoals ChatGPT, Perplexity en Google AI Overviews vertrouwen op gestructureerde data om je content te begrijpen. JSON-LD met Schema.org-vocabulaire vertelt AI precies wat je pagina voorstelt: product, artikel, organisatie of dienst. Wij valideren 17 waardevolle schematypen en controleren op correcte entiteitskoppeling.

  • JSON-LD
  • Schema.org-typen
  • Entity Linking
  • BreadcrumbList
  • Schemavalidatie
  • Organization Schema
  • FAQPage Schema
  • Auteursvermelding
20%

CONTENT & SEMANTIEK

AI-agents navigeren de accessibility tree, niet je visuele ontwerp. AI-crawlers parsen ruwe HTML zonder JavaScript. Wij valideren kopjeshiërarchie, semantische markup en detecteren JavaScript-only pagina's die voor beide onzichtbaar zijn.

  • SSR-detectie
  • Koppenstructuur
  • Semantische HTML
  • ARIA Landmarks
  • Alt-tekst
  • Taal
  • Linktekst
  • Vraagkoppen
15%

AGENTPROTOCOLLEN

WebMCP, A2A Agent Cards en MCP Discovery laten AI-agents direct communiceren met de functionaliteit van je site. Bijna geen enkele website implementeert deze nog.

  • WebMCP
  • A2A Agent Card
  • MCP Discovery
  • OpenAPI
  • agents.json
15%

BEVEILIGING & VERTROUWEN

Elk agentprotocol vereist HTTPS als basis. Beveiligingsheaders zoals HSTS, CSP en een strikt Referrer-Policy vormen de vertrouwenslaag die agents nodig hebben voordat ze met je site communiceren.

  • HTTPS
  • HSTS
  • CSP
  • X-Content-Type-Options
  • X-Frame-Options
  • CORS
  • Referrer-Policy

WIJ TESTEN WAT AI DAADWERKELIJK ZIET

Onze scanner haalt ruwe HTML op zonder JavaScript uit te voeren, precies zoals GPTBot, ClaudeBot en PerplexityBot je site ervaren.

ONBEWERKT HTML-PERSPECTIEF

Wij renderen geen JavaScript. AI-crawlers en agents ook niet. Tools die JavaScript renderen laten zien wat Google ziet, niet wat AI-systemen zien. Onze scanner leest precies wat GPTBot, ClaudeBot en coding agents zoals Claude Code lezen: ruwe HTML, geen Chromium.

ELKE AI-BOT, INDIVIDUEEL

We analyseren je robots.txt voor alle 13 belangrijke AI user agents — zowel crawlers (GPTBot, Google-Extended, Bytespider) als zoek-/assistentbots (ChatGPT-User, ClaudeBot, PerplexityBot). Elk heeft ander crawlgedrag en een ander doel.

OPKOMENDE PROTOCOLLEN

We controleren protocollen waarvan de meeste scanners niet weten dat ze bestaan: WebMCP declaratieve API's, Google's A2A Agent Cards, MCP-serverdetectie en agents.json. Dit zijn de interfaces die AI-agents zullen gebruiken om met je site te communiceren.

BRUIKBARE CODEFRAGMENTEN

Elk gefaald checkpoint bevat een geprioriteerde aanbeveling en kopieerbare code om het te verhelpen. Je rapport bevat per checkpoint geslaagd/gefaald resultaten, specifieke fixes en een radargrafiek van je vijf categoriescores.

ONTWIKKELTOOLS

Scan en fix vanuit je editor. Installeer de MCP-server om te scannen en AI-vaardigheden om te fixen.

SCANNEN
$ claude mcp add isagentready-mcp -- npx -y isagentready-mcp
FIXEN
$ /plugin marketplace add bartwaardenburg/isagentready-skills

HOE WIJ SCOREN

Meerdere checkpoints verspreid over 5 categorieën, die elk punten opleveren voor je totaalscore van 0-100. Transparant, gewogen en wetenschappelijk onderbouwd.

TYPISCH SITEPROFIEL

Gemiddelde scores van gescande websites

LETTERCIJFERS

A+ 97
95–100
A 87
80–94
B 75
70–79
C 55
40–69
D 30
20–39
F 10
0–19

CATEGORIEGEWICHTEN

Hoe elke categorie bijdraagt aan de totaalscore

GEBOUWD DOOR EEN PRACTITIONER

IsAgentReady bestaat omdat de standaarden snel evolueren en de meeste websites achterblijven.

Bart Waardenburg

Bart Waardenburg

AI Agent Readiness Expert - Den Haag, NL

Het web maakt een van de grootste verschuivingen door sinds mobiel. AI-agents gaan steeds vaker namens mensen het web op, en nieuwe standaarden als MCP, WebMCP en llms.txt herschrijven hoe dat werkt. Ik vind het oprecht fascinerend om me in die protocollen te verdiepen en uit te zoeken wat ze betekenen voor de websites die we bouwen. IsAgentReady is vanuit die nieuwsgierigheid ontstaan: om die verschuiving tastbaar en meetbaar te maken, zodat bedrijven kunnen zien waar ze staan en wat ze kunnen verbeteren.

GA DIEPER

Ontdek hoe ChatGPT, Google en Claude bepalen welke websites ze citeren in hun AI-gegenereerde antwoorden.

Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML
9 min leestijd

Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML

Sentry-medeoprichter David Cramer laat zien hoe content negotiation — een 25 jaar oude HTTP-standaard — AI agents 80% tokens bespaart. We ontleden de implementatie: Accept-headers, markdown-levering, redirects voor beveiligde pagina's, en wat dit betekent voor elke website die zich voorbereidt op agent-verkeer.

ai-agents seo getting-started
Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen
9 min leestijd

Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen

Cloudflare lanceerde een /crawl-endpoint dat hele websites crawlt met één API-call — met als output HTML, Markdown of AI-geëxtraheerde JSON. We ontleden wat dit betekent voor AI agent readiness: waarom je robots.txt, sitemap, semantische HTML en server-side rendering nu belangrijker zijn dan ooit.

ai-agents seo getting-started
AI-Crawlers Negeren llms.txt — Maar AI-Agents Niet
9 min leestijd

AI-Crawlers Negeren llms.txt — Maar AI-Agents Niet

Dries Buytaerts data toont dat nul AI-crawlers llms.txt gebruiken. Maar hij mat het verkeerde. Crawlers scrapen voor trainingsdata — agents voltooien taken. We ontleden waarom het onderscheid crawler vs agent ertoe doet, welke coding agents llms.txt en content negotiation al gebruiken, en wat je vandaag moet implementeren.

ai-agents seo getting-started

VEELGESTELDE VRAGEN

Veelgestelde vragen over AI-agentgereedheid, hoe we het meten en wat je kunt doen om je score te verbeteren.

IsAgentReady scant websites op 5 gewogen categorieën: AI Content Discovery (30%), AI Search Signals (20%), Content & Semantics (20%), Agent Protocols (15%) en Security & Trust (15%). Elke categorie evalueert specifieke checkpoints die bepalen hoe goed AI-agents je website kunnen vinden, begrijpen en ermee kunnen interacteren.

Elke categorie krijgt een score van 0-100 op basis van individuele checkpoints. De totaalscore is een gewogen gemiddelde van alle categorieën, omgezet naar een lettercijfer van F (0-19) tot A+ (95-100). Discovery weegt het zwaarst met 30%, want als AI-agents je content niet kunnen vinden, maakt de rest niet uit.

Ja, IsAgentReady is volledig gratis. Scan elke website en krijg direct resultaten met gedetailleerde scores, checkpoint-niveau geslaagd/gezakt-resultaten en concrete aanbevelingen met codefragmenten.

llms.txt is een plain-text bestand op /llms.txt dat een gecureerd startpunt biedt voor AI-agents. In tegenstelling tot crawlers die alles scrapen, halen agents zoals Claude Code en Cursor specifieke pagina's op om taken uit te voeren — llms.txt vertelt ze welke pagina's het belangrijkst zijn. Adoptie is nog onder de 10%, maar groeit snel in developer tooling.

WebMCP (Web Model Context Protocol) en A2A (Agent-to-Agent) laten AI-agents direct communiceren met de functionaliteit van je website, niet alleen de content lezen. WebMCP maakt declaratieve API's mogelijk via HTML-metatags, terwijl A2A Agent Cards de mogelijkheden van je site beschrijven in een machineleesbaar formaat. Bijna geen enkele website implementeert deze nog.

AI-crawlers (GPTBot, Google-Extended, Bytespider) scrapen het web op schaal voor trainingsdata — ze verwerken miljarden pagina's en gebruiken sitemaps, niet llms.txt. AI-agents (Claude Code, Cursor, ChatGPT Search) halen specifieke pagina's op om taken voor gebruikers uit te voeren — ze geven om tokenefficiëntie en gebruiken llms.txt, content negotiation en toolmanifesten. Beide lezen ruwe HTML zonder JavaScript, dus server-side rendering is belangrijk voor alle AI-systemen.

Begin met het onderdeel Snelle verbeteringen van je scan, dat de 3 wijzigingen toont met het hoogste puntenpotentieel. Veelvoorkomende snelle verbeteringen zijn het toevoegen van een robots.txt die AI-bots toestaat, het implementeren van JSON-LD gestructureerde data en het zorgen dat je pagina's server-side zinvolle HTML renderen. Elke aanbeveling bevat kopieer-en-plak codefragmenten.

Ja. Installeer de IsAgentReady MCP-server om websites direct te scannen vanuit Claude Code, Cursor, Codex CLI of elke MCP-compatibele editor. Installeer voor het oplossen van problemen onze open-source AI-agentvaardigheden - ze geven je codeeragent stapsgewijze playbooks voor alle 36 checkpoints. Samen vormen ze een scan-fix-verify loop zonder je editor te verlaten.

AI-gestuurde zoekmachines zoals ChatGPT, Perplexity en Google AI Overviews gebruiken gestructureerde data (JSON-LD met Schema.org-vocabulaire) om te begrijpen wat je pagina voorstelt - product, artikel, organisatie of dienst. Goede gestructureerde data vergroot de kans om geciteerd te worden in AI-gegenereerde antwoorden en samenvattingen.

ONTDEK MEER

De meeste websites scoren onder de 45. Ontdek waar jij staat.

SCAN NU
TEST JE SITE

SCAN NU

Voer je URL in en ontvang een gedetailleerd AI-gereedheidsrapport in minder dan een minuut. 5 categorieën, concrete aanbevelingen.
RANGLIJST
ZIE WIE ER LEIDT

RANGLIJST

Bekijk hoe topwebsites scoren over alle categorieën. Leer van de best voorbereide sites.
VERGELIJKEN
VERGELIJKEN

VERGELIJKEN

Vergelijk twee websites zij-aan-zij over alle 5 categorieën en 47 checkpoints.