JE WEBSITE IS ONZICHTBAAR VOOR AI-AGENTS
AI-crawlers scrapen voor trainingsdata. AI-agents voltooien taken voor gebruikers. Je site moet op beide voorbereid zijn. Wij meten precies wat zij zien.
DE VERSCHUIVING
ChatGPT, Perplexity, Google AI Overviews en autonome AI-agents veranderen hoe mensen het web ontdekken. De websites die winnen in AI-zoekresultaten zijn niet die met het beste design. Het zijn de websites die machineleesbaar zijn.
GPTBot, ClaudeBot, Amazonbot, Google-Extended en 9 meer
Over 5 gewogen categorieën
De meeste websites belanden in de oranje zone
Vrijwel niemand implementeert agentprotocollen
WAT WE METEN
Vijf categorieën die alles dekken wat een AI-agent nodig heeft om je website te vinden, begrijpen en ermee te interacteren. Elk gewogen op basis van de impact op wat AI-agenten daadwerkelijk met je content doen.
AI-CONTENTONTDEKKING
Als AI-systemen je content niet kunnen vinden en openen, maakt de rest niet uit. We controleren of je robots.txt de 13 belangrijkste AI-bots toelaat, of je een sitemap biedt die crawlers kunnen volgen, en of je llms.txt hebt — een gecureerd startpunt dat AI-agents zoals Claude Code en Cursor helpt je belangrijkste pagina's te vinden.
- robots.txt
- AI-crawlerrichtlijnen
- XML Sitemap
- llms.txt
- Meta Robots
- HTTP Bot-toegang
- Contentversheid
AI-ZOEKSIGNALEN
AI-gestuurde zoekmachines zoals ChatGPT, Perplexity en Google AI Overviews vertrouwen op gestructureerde data om je content te begrijpen. JSON-LD met Schema.org-vocabulaire vertelt AI precies wat je pagina voorstelt: product, artikel, organisatie of dienst. Wij valideren 17 waardevolle schematypen en controleren op correcte entiteitskoppeling.
- JSON-LD
- Schema.org-typen
- Entity Linking
- BreadcrumbList
- Schemavalidatie
- Organization Schema
- FAQPage Schema
- Auteursvermelding
CONTENT & SEMANTIEK
AI-agents navigeren de accessibility tree, niet je visuele ontwerp. AI-crawlers parsen ruwe HTML zonder JavaScript. Wij valideren kopjeshiërarchie, semantische markup en detecteren JavaScript-only pagina's die voor beide onzichtbaar zijn.
- SSR-detectie
- Koppenstructuur
- Semantische HTML
- ARIA Landmarks
- Alt-tekst
- Taal
- Linktekst
- Vraagkoppen
AGENTPROTOCOLLEN
WebMCP, A2A Agent Cards en MCP Discovery laten AI-agents direct communiceren met de functionaliteit van je site. Bijna geen enkele website implementeert deze nog.
- WebMCP
- A2A Agent Card
- MCP Discovery
- OpenAPI
- agents.json
BEVEILIGING & VERTROUWEN
Elk agentprotocol vereist HTTPS als basis. Beveiligingsheaders zoals HSTS, CSP en een strikt Referrer-Policy vormen de vertrouwenslaag die agents nodig hebben voordat ze met je site communiceren.
- HTTPS
- HSTS
- CSP
- X-Content-Type-Options
- X-Frame-Options
- CORS
- Referrer-Policy
WIJ TESTEN WAT AI DAADWERKELIJK ZIET
Onze scanner haalt ruwe HTML op zonder JavaScript uit te voeren, precies zoals GPTBot, ClaudeBot en PerplexityBot je site ervaren.
ONBEWERKT HTML-PERSPECTIEF
Wij renderen geen JavaScript. AI-crawlers en agents ook niet. Tools die JavaScript renderen laten zien wat Google ziet, niet wat AI-systemen zien. Onze scanner leest precies wat GPTBot, ClaudeBot en coding agents zoals Claude Code lezen: ruwe HTML, geen Chromium.
ELKE AI-BOT, INDIVIDUEEL
We analyseren je robots.txt voor alle 13 belangrijke AI user agents — zowel crawlers (GPTBot, Google-Extended, Bytespider) als zoek-/assistentbots (ChatGPT-User, ClaudeBot, PerplexityBot). Elk heeft ander crawlgedrag en een ander doel.
OPKOMENDE PROTOCOLLEN
We controleren protocollen waarvan de meeste scanners niet weten dat ze bestaan: WebMCP declaratieve API's, Google's A2A Agent Cards, MCP-serverdetectie en agents.json. Dit zijn de interfaces die AI-agents zullen gebruiken om met je site te communiceren.
BRUIKBARE CODEFRAGMENTEN
Elk gefaald checkpoint bevat een geprioriteerde aanbeveling en kopieerbare code om het te verhelpen. Je rapport bevat per checkpoint geslaagd/gefaald resultaten, specifieke fixes en een radargrafiek van je vijf categoriescores.
Scan en fix vanuit je editor. Installeer de MCP-server om te scannen en AI-vaardigheden om te fixen.
claude mcp add isagentready-mcp -- npx -y isagentready-mcp
/plugin marketplace add bartwaardenburg/isagentready-skills
HOE WIJ SCOREN
Meerdere checkpoints verspreid over 5 categorieën, die elk punten opleveren voor je totaalscore van 0-100. Transparant, gewogen en wetenschappelijk onderbouwd.
TYPISCH SITEPROFIEL
Gemiddelde scores van gescande websites
LETTERCIJFERS
CATEGORIEGEWICHTEN
Hoe elke categorie bijdraagt aan de totaalscore
GEBOUWD DOOR EEN PRACTITIONER
IsAgentReady bestaat omdat de standaarden snel evolueren en de meeste websites achterblijven.
Bart Waardenburg
AI Agent Readiness Expert - Den Haag, NL
Het web maakt een van de grootste verschuivingen door sinds mobiel. AI-agents gaan steeds vaker namens mensen het web op, en nieuwe standaarden als MCP, WebMCP en llms.txt herschrijven hoe dat werkt. Ik vind het oprecht fascinerend om me in die protocollen te verdiepen en uit te zoeken wat ze betekenen voor de websites die we bouwen. IsAgentReady is vanuit die nieuwsgierigheid ontstaan: om die verschuiving tastbaar en meetbaar te maken, zodat bedrijven kunnen zien waar ze staan en wat ze kunnen verbeteren.
GA DIEPER
Ontdek hoe ChatGPT, Google en Claude bepalen welke websites ze citeren in hun AI-gegenereerde antwoorden.
Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML
Sentry-medeoprichter David Cramer laat zien hoe content negotiation — een 25 jaar oude HTTP-standaard — AI agents 80% tokens bespaart. We ontleden de implementatie: Accept-headers, markdown-levering, redirects voor beveiligde pagina's, en wat dit betekent voor elke website die zich voorbereidt op agent-verkeer.
Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen
Cloudflare lanceerde een /crawl-endpoint dat hele websites crawlt met één API-call — met als output HTML, Markdown of AI-geëxtraheerde JSON. We ontleden wat dit betekent voor AI agent readiness: waarom je robots.txt, sitemap, semantische HTML en server-side rendering nu belangrijker zijn dan ooit.
AI-Crawlers Negeren llms.txt — Maar AI-Agents Niet
Dries Buytaerts data toont dat nul AI-crawlers llms.txt gebruiken. Maar hij mat het verkeerde. Crawlers scrapen voor trainingsdata — agents voltooien taken. We ontleden waarom het onderscheid crawler vs agent ertoe doet, welke coding agents llms.txt en content negotiation al gebruiken, en wat je vandaag moet implementeren.
VEELGESTELDE VRAGEN
Veelgestelde vragen over AI-agentgereedheid, hoe we het meten en wat je kunt doen om je score te verbeteren.
ONTDEK MEER
De meeste websites scoren onder de 45. Ontdek waar jij staat.