Ga naar inhoud

Wat is AI Agent Readiness en waarom heeft je website het nodig

7 min leestijd
Bart Waardenburg

Bart Waardenburg

AI Agent Readiness Expert & Oprichter

AI-agents zijn er al. Niet als experiment, niet als concept, maar als software die nu al dagelijks websites bezoekt, content leest en er iets mee doet. ChatGPT , Claude , Perplexity en Google Gemini browsen op dit moment namens miljoenen gebruikers over het web. De vraag is niet meer of ze op je website terechtkomen, maar wat ze daar aantreffen als ze dat doen.

Wat zijn AI-agents?

AI-agents zijn software die zelfstandig over het web navigeert, content begrijpt en taken uitvoert. Waar een traditionele crawler simpelweg pagina's indexeert, kunnen AI-agents:

  • Content interpreteren in context en begrijpen waar een pagina over gaat
  • Instructies opvolgen van gebruikers, zoals "vind het beste hotel in Amsterdam onder de €150"
  • Acties uitvoeren zoals formulieren invullen, producten vergelijken of specifieke data extraheren
  • Meerdere stappen aan elkaar koppelen om complexe taken te voltooien

Stel iemand vraagt z'n AI-assistent "Wat doet IsAgentReady?". De agent bezoekt je site, leest je content en formuleert een antwoord. Is je site goed gestructureerd? Dan klopt dat antwoord. Zo niet, dan word je verkeerd neergezet. Of erger: volledig overgeslagen.

Waarom AI Agent Readiness ertoe doet

Traditionele SEO optimaliseert voor zoekmachine-crawlers en ranking-algoritmes. AI agent readiness gaat verder. Het zorgt ervoor dat je website machine-leesbaar, goed gestructureerd en bruikbaar is voor autonome agents die niet alleen indexeren, maar ook handelen.

ZICHTBAARHEID

Word geciteerd in AI-zoekresultaten van Perplexity, Google AI Overviews en ChatGPT.

NAUWKEURIGHEID

Schema.org-markup en duidelijke headings helpen agents je bedrijf correct te representeren.

TOEKOMSTBESTENDIG

Websites die zich vroeg aanpassen krijgen een concurrentievoordeel naarmate agent-verkeer groeit.

De vijf categorieën van AI Agent Readiness

Ik beoordeel websites op vijf gewogen categorieën. Een goed geoptimaliseerde site scoort ongeveer zo:

DISCOVERY
0
SEARCH
0
SEMANTICS
0
PROTOCOLS
0
SECURITY
0

1. AI Content Discovery (30%)

Kunnen AI-agents je content eigenlijk vinden? Dit checken we:

  • Of je robots.txt AI-crawlers toelaat
  • Of je een geldige XML-sitemap hebt
  • Of je een llms.txt-bestand aanbiedt voor AI-specifieke richtlijnen
  • Meta robot-directieven die agent-toegang mogelijk blokkeren

Een llms.txt-bestand is een van de snelste wins. Het geeft AI-agents een beknopt overzicht van je site:

llms.txt plain
# IsAgentReady - AI Agent Readiness Scanner

> IsAgentReady scans websites for AI agent readiness
> across 5 categories and provides actionable recommendations.

## Documentation
- API: https://isagentready.com/openapi.json

2. AI Search Signals (20%)

Biedt je content gestructureerde data die AI-agents kunnen verwerken? Ik controleer op:

  • JSON-LD gestructureerde data (Schema.org)
  • Relevante schematypen (Organization, Product, FAQPage, etc.)
  • BreadcrumbList voor navigatiecontext
  • Entity linking en schemavalidatie

Een minimaal JSON-LD-voorbeeld dat verrassend veel verschil maakt:

JSON-LD json
{
  "@context": "https://schema.org",
  "@type": "Organization",
  "name": "Your Company",
  "url": "https://yoursite.com",
  "description": "What your company does in one sentence."
}

3. Content & Semantics (20%)

Is je HTML semantisch en goed georganiseerd? Dit kijken we na:

  • Server-side rendering (SSR) zodat agents content kunnen lezen zonder JavaScript
  • Juiste heading-hiërarchie (h1 → h2 → h3)
  • Semantische HTML-elementen (<article>, <nav>, <main>)
  • ARIA-landmarks voor toegankelijkheid
  • Beschrijvende alt-teksten bij afbeeldingen

4. Agent Protocols (15%)

Spreekt je website de taal van agents? Dit is het meest experimentele deel, maar het groeit snel:

  • WebMCP - declaratieve tool-definities en manifestbestanden
  • A2A Agent Cards - Google's Agent-to-Agent protocol
  • MCP discovery - Model Context Protocol endpoints
  • OpenAPI specs - machine-leesbare API-documentatie
  • Formulierkwaliteit en dekking van interactieve oppervlakken

5. Security & Trust (15%)

Kunnen agents veilig met je website omgaan? Security is security, ongeacht of de bezoeker menselijk is:

  • HTTPS met geldig certificaat
  • HSTS (HTTP Strict Transport Security)
  • Content Security Policy headers
  • CORS-configuratie
  • Beveiligingspatronen voor tool-definities

De vijf categorieën dragen als volgt bij aan je totale score:

Hoe je je score verbetert

Je hoeft niet je hele site om te gooien. Begin met de dingen die het meeste verschil maken:

VOEG GESTRUCTUREERDE DATA TOE

JSON-LD met Schema.org-typen die relevant zijn voor je bedrijf is de belangrijkste verbetering die je kunt maken.

MAAK EEN LLMS.TXT

Een eenvoudig tekstbestand dat AI-agents vertelt waar je site over gaat. Kost 10 minuten.

ZORG VOOR SSR

Zorg ervoor dat je content in de HTML-bron staat en niet alleen via JavaScript wordt geladen.

FIX ROBOTS.TXT

Blokkeer niet per ongeluk AI-crawlers met te restrictieve regels.

Wat nu?

AI agent readiness is geen checkbox die je eenmalig aankruist. De standaarden bewegen nog. Protocollen als WebMCP en A2A zijn in volle ontwikkeling, en wat vandaag best practice is kan over zes maanden verouderd zijn.

Scan je website regelmatig en houd het blog in de gaten. Ik schrijf hier over nieuwe standaarden, implementatiegidsen en aanpassingen in de scoringsmethodologie zodra er iets verandert.

Klaar om te checken?

SCAN JE WEBSITE

Ontvang je AI-agentgereedheidscore met bruikbare aanbevelingen over 5 categorieën.

  • Gratis directe scan met lettercijfer
  • 5 categorieën, 47 checkpoints
  • Codevoorbeelden bij elke aanbeveling

GERELATEERDE ARTIKELEN

Lees verder over AI-agentgereedheid en weboptimalisatie.

Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML
9 min leestijd

Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML

Sentry-medeoprichter David Cramer laat zien hoe content negotiation — een 25 jaar oude HTTP-standaard — AI agents 80% tokens bespaart. We ontleden de implementatie: Accept-headers, markdown-levering, redirects voor beveiligde pagina's, en wat dit betekent voor elke website die zich voorbereidt op agent-verkeer.

ai-agents seo getting-started
Vercel's agent-browser: Waarom een CLI MCP Verslaat voor Browser Automation
10 min leestijd

Vercel's agent-browser: Waarom een CLI MCP Verslaat voor Browser Automation

Vercel's agent-browser behaalde 22.000 GitHub-sterren in twee maanden. Het is een CLI, geen MCP-server, en de data laat zien waarom: 94% minder tokens, 3,5x snellere uitvoering, 100% slagingspercentage. We ontleden hoe het werkt, waarom het de accessibility tree gebruikt, en wat de 'less is more'-bevinding betekent voor je website.

ai-agents web-standards accessibility
Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen
9 min leestijd

Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen

Cloudflare lanceerde een /crawl-endpoint dat hele websites crawlt met één API-call — met als output HTML, Markdown of AI-geëxtraheerde JSON. We ontleden wat dit betekent voor AI agent readiness: waarom je robots.txt, sitemap, semantische HTML en server-side rendering nu belangrijker zijn dan ooit.

ai-agents seo getting-started

ONTDEK MEER

De meeste websites scoren onder de 45. Ontdek waar jij staat.

RANGLIJST
BEKIJK HOE ANDEREN SCOREN

RANGLIJST

Bekijk AI-gereedheidsscores van gescande websites.
VERGELIJKEN
VERGELIJKEN

VERGELIJKEN

Vergelijk twee websites zij-aan-zij over alle 5 categorieën en 47 checkpoints.
OVER ONS
HOE WIJ METEN

OVER ONS

Lees meer over onze scoringsmethodologie met 5 categorieën.