BLOG
Artikelen over AI-agentgereedheid, webstandaarden en voorbereiding op autonome agenten.
Content Negotiation voor AI Agents: Waarom Sentry Markdown Serveert in Plaats van HTML
Sentry-medeoprichter David Cramer laat zien hoe content negotiation — een 25 jaar oude HTTP-standaard — AI agents 80% tokens bespaart. We ontleden de implementatie: Accept-headers, markdown-levering, redirects voor beveiligde pagina's, en wat dit betekent voor elke website die zich voorbereidt op agent-verkeer.
Vercel's agent-browser: Waarom een CLI MCP Verslaat voor Browser Automation
Vercel's agent-browser behaalde 22.000 GitHub-sterren in twee maanden. Het is een CLI, geen MCP-server, en de data laat zien waarom: 94% minder tokens, 3,5x snellere uitvoering, 100% slagingspercentage. We ontleden hoe het werkt, waarom het de accessibility tree gebruikt, en wat de 'less is more'-bevinding betekent voor je website.
Cloudflare /crawl-Endpoint: Eén API-Call om Elke Website te Crawlen
Cloudflare lanceerde een /crawl-endpoint dat hele websites crawlt met één API-call — met als output HTML, Markdown of AI-geëxtraheerde JSON. We ontleden wat dit betekent voor AI agent readiness: waarom je robots.txt, sitemap, semantische HTML en server-side rendering nu belangrijker zijn dan ooit.
Playwright: Van Testrunner naar AI Agent-Interface
Playwright haalde Cypress in, toen bracht Microsoft Playwright MCP uit — waarmee dezelfde tool de standaard browser-runtime voor AI agents werd. We ontleden waarom het data-testid vs getByRole debat nu bepaalt of agents je site kunnen gebruiken, het test-accessibility-agent vliegwiel, en wat dit betekent voor frontend-teams.
AI-Crawlers Negeren llms.txt — Maar AI-Agents Niet
Dries Buytaerts data toont dat nul AI-crawlers llms.txt gebruiken. Maar hij mat het verkeerde. Crawlers scrapen voor trainingsdata — agents voltooien taken. We ontleden waarom het onderscheid crawler vs agent ertoe doet, welke coding agents llms.txt en content negotiation al gebruiken, en wat je vandaag moet implementeren.
Anthropic's AI Exposure Index: Wat Echte Gebruiksdata Betekent voor je Website
Anthropic's nieuwe 'observed exposure'-metriek onthult een kloof van 61 punten tussen theoretische AI-capaciteit en daadwerkelijk gebruik. We ontleden de data — van 75% taakdekking voor programmeurs tot 14% wervingsvertraging voor jonge werknemers — en leggen uit waarom deze adoptiekloof een aftelling is voor AI-agentgereedheid van websites.
Build for Agents: Waarom CLI's het Nieuwe Distributiekanaal Zijn
Andrej Karpathy stelt dat CLI's interessant zijn omdat het 'legacy' technologie is — beproefd, gestandaardiseerd en universeel te parsen door AI-agents. We analyseren waarom CLI's, MCP-servers en machine-leesbare documentatie het primaire distributiekanaal voor software worden, en wat productteams nu moeten bouwen.
Hoe AI Agents je Website Zien: De Accessibility Tree Uitgelegd
AI agents zien je website niet zoals mensen. Ze navigeren via de accessibility tree — een door de browser gegenereerde structuur die oorspronkelijk voor schermlezers is gebouwd. We leggen uit hoe het werkt, welke AI-frameworks het gebruiken, en waarom toegankelijke websites beter presteren in het tijdperk van AI agents.
De Staat van AEO: Belangrijkste Inzichten uit Vercel's 2026 Rapport
Vercel's State of AEO rapport schetst de verschuiving van de aandachtseconomie naar de antwoordeconomie. We ontleden de belangrijkste statistieken, het platformlandschap, aanbevelingen voor contentarchitectuur, en wat het betekent voor de AI-zichtbaarheid van je website.
Wat is agents.json? AI Agent-mogelijkheden op je website adverteren
agents.json is de opkomende tegenhanger van robots.txt - een machine-leesbaar bestand dat AI-agents vertelt wat je website kan. We behandelen de Wildcard-specificatie, vergelijken het met A2A, MCP en OpenAPI, en laten stap voor stap zien hoe je het implementeert.
ONTDEK MEER
De meeste websites scoren onder de 45. Ontdek waar jij staat.