IS JOUW WEBSITE KLAAR VOOR AI-AGENTS?
AI-agents browsen niet, ze parsen. Wij scannen over 5 categorieën en laten je precies zien wat zij zien.
WAT WE CONTROLEREN
Vijf categorieën die alles dekken wat een AI-agent nodig heeft om je website te vinden, begrijpen en ermee te interacteren. Elk gewogen op basis van de impact in de praktijk.
AI-CONTENTONTDEKKING
Als AI-systemen je content niet kunnen vinden en openen, maakt de rest niet uit. We controleren robots.txt voor alle 13 grote AI-bots, sitemaps en llms.txt — een gecureerd startpunt voor AI-agents.
- robots.txt
- AI-crawlerrichtlijnen
- XML Sitemap
- llms.txt
- Meta Robots
- HTTP Bot-toegang
AI-ZOEKSIGNALEN
ChatGPT, Perplexity en Google AI Overviews vertrouwen op gestructureerde data. We valideren JSON-LD met Schema.org-vocabulaire over 17 waardevolle types en controleren entity linking.
- JSON-LD
- Schema.org-typen
- Entity Linking
- BreadcrumbList
- Schemavalidatie
- Organization Schema
CONTENT & SEMANTIEK
AI-agents navigeren de accessibility tree, niet je visuele ontwerp. Wij valideren kopjeshiërarchie, semantische markup en detecteren JavaScript-only pagina's die onzichtbaar zijn voor AI.
- SSR-detectie
- Koppenstructuur
- Semantische HTML
- ARIA Landmarks
- Alt-tekst
- Taal
- Linktekst
AGENTPROTOCOLLEN
WebMCP, A2A Agent Cards en MCP Discovery laten AI-agents direct communiceren met de functionaliteit van je site.
- WebMCP
- A2A Agent Card
- MCP Discovery
- OpenAPI
- agents.json
BEVEILIGING & VERTROUWEN
HTTPS is de basis. HSTS, CSP en strikte headers vormen de vertrouwenslaag die agents nodig hebben voordat ze met je site interacteren.
- HTTPS
- HSTS
- CSP
- X-Content-Type-Options
- X-Frame-Options
- CORS
- Referrer-Policy
HOE HET WERKT
Drie stappen om de AI-gereedheid van je website te begrijpen.
1. VOER JE URL IN
Voer je website-URL in en we beginnen automatisch met scannen over alle categorieën.
2. ONTVANG JE SCORE
Ontvang een gedetailleerde analyse over 5 categorieën met scores en lettercijfers.
3. ONDERNEEM ACTIE
Volg geprioriteerde aanbevelingen met kant-en-klare codefragmenten, of installeer AI-agentvaardigheden om problemen automatisch vanuit je editor op te lossen.
SCAN EN FIX VANUIT JE EDITOR
Installeer onze MCP-server om elke website te scannen vanuit je terminal. Combineer het met AI-agentvaardigheden om falende checks automatisch te herstellen.
- Scan elke website direct vanuit je terminal
- Herstel falende checks met AI-agentvaardigheden
- Scan opnieuw om verbeteringen te verifiëren
claude mcp add isagentready-mcp -- npx -y isagentready-mcp
/plugin marketplace add bartwaardenburg/isagentready-skills
VAN DE BLOG
Diepgaande artikelen over AI-agentprotocollen, citatiemechanismen en optimalisatiestrategieën.
Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML
Sentry-medeoprichter David Cramer laat zien hoe content negotiation — een 25 jaar oude HTTP-standaard — AI agents 80% tokens bespaart. We ontleden de implementatie: Accept-headers, markdown-levering, redirects voor beveiligde pagina's, en wat dit betekent voor elke website die zich voorbereidt op agent-verkeer.
Vercel's agent-browser: Waarom een CLI MCP Verslaat voor Browser Automation
Vercel's agent-browser behaalde 22.000 GitHub-sterren in twee maanden. Het is een CLI, geen MCP-server, en de data laat zien waarom: 94% minder tokens, 3,5x snellere uitvoering, 100% slagingspercentage. We ontleden hoe het werkt, waarom het de accessibility tree gebruikt, en wat de 'less is more'-bevinding betekent voor je website.
Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen
Cloudflare lanceerde een /crawl-endpoint dat hele websites crawlt met één API-call — met als output HTML, Markdown of AI-geëxtraheerde JSON. We ontleden wat dit betekent voor AI agent readiness: waarom je robots.txt, sitemap, semantische HTML en server-side rendering nu belangrijker zijn dan ooit.
TOPRANGLIJST
Bekijk hoe de best voorbereide websites scoren over alle categorieën.
ONTDEK MEER
De meeste websites scoren onder de 45. Ontdek waar jij staat.