SEO in het AI-tijdperk: Optimaliseren voor LLMs en Antwoordmachines
Twintig jaar lang was het spel duidelijk. Schrijf content die overeenkomt met wat mensen in een zoekvak typen. Vergaar links van gezaghebbende sites. Zorg voor een solide technische basis. Rank hoog op een lijst van tien blauwe links. Genereer verkeer.
In 2025 is dat spel fundamenteel veranderd — en het is sneller veranderd dan enige vergelijkbare verschuiving in de geschiedenis van zoeken. Google's AI Overviews verschijnen nu boven de organische resultaten voor de meerderheid van informatieve zoekopdrachten. ChatGPT Search, Perplexity en Claude's browsingfuncties hebben een nieuwe generatie gebruikers geïntroduceerd die überhaupt geen lijst met links zien. Ze stellen een vraag, ontvangen een gesynthetiseerd antwoord met citaten, en nemen hun beslissing zonder te klikken.
Dit is niet het einde van SEO. Het is een diepgaande herdefiniëring van waarvoor SEO optimaliseert.
Het Nieuwe Zichtbaarheidsprobleem
In het traditionele zoekparadigma was je doel om te verschijnen in de top drie organische resultaten voor je doelzoekopdrachten. Verschijnen op positie één versus positie vijf had een meetbaar effect op de klikfrequentie, maar alle posities waren zichtbaar.
In het AI-overzichtparadigma zijn er twee toestanden: geciteerd of onzichtbaar. Als Google's AI een antwoord op een zoekopdracht synthetiseert en jouw content een van de twee of drie geciteerde bronnen is, ontvang je een zichtbare attributie — vaak met een miniatuurafbeelding en een directe link. Als jouw content niet geciteerd wordt, ben je onzichtbaar voor gebruikers wiens zoekopdrachten AI-overzichten activeren, wat een steeds groter aandeel van alle informatieve zoekopdrachten is.
De klikfrequentiegegevens vertellen een duidelijk verhaal: organisch verkeer naar informatieve content daalde gemiddeld 15-30% toen AI-overzichten werden geïmplementeerd, maar verkeer naar de specifiek geciteerde bronnen nam toe. De verdeling wordt meer winner-takes-all.
Begrijpen hoe je een geciteerde bron wordt — in plaats van een onzichtbare — is de centrale SEO-uitdaging van 2025.
Hoe LLMs Contentkwaliteit Evalueren
Grote taalmodellen evalueren contentkwaliteit niet op de manier waarop een menselijke redacteur dat doet, of zoals Google's historische rankingalgoritme (voornamelijk via linkssignalen). Ze evalueren content over meerdere dimensies tegelijk:
Feitelijke nauwkeurigheid en specificiteit: LLMs zijn getraind om content te verkiezen die specifieke, verifieerbare beweringen doet. Vage uitspraken ("performance is belangrijk voor conversie") zijn minder bruikbaar voor een LLM dan specifieke ("een verbetering van 100ms in laadtijd correleert met een stijging van 1% in conversie"). Hoe specifieker en citeerbaarder je beweringen, hoe waarschijnlijker het is dat je content in een gesynthetiseerd antwoord wordt opgenomen.
Structurele duidelijkheid: LLMs extraheren informatie het betrouwbaarst uit goed gestructureerde content. Duidelijke kopjes die het semantische onderwerp van hun sectie weerspiegelen. Korte, dichte alinea's die elk één punt adresseren. Genummerde lijsten voor sequentiële processen. Tabellen voor vergelijkende data.
Thematische volledigheid: Een stuk content moet het onderwerp diepgaand en volledig behandelen, niet slechts introduceren. Een blogpost van 300 woorden over Next.js-performance geeft een LLM niets bruikbaars om te citeren voor een complexe performancevraag. Een post van 2.500 woorden die LCP, INP, bundeloptimalisatie, renderingsstrategieën en beeldlevering behandelt, biedt de specificiteit die nodig is.
E-E-A-T: Experience, Expertise, Authoritativeness, Trustworthiness
Google's richtlijnen voor het evalueren van contentkwaliteit refereerden altijd aan E-A-T. In 2023 voegden ze een tweede "E" toe voor Experience. Dit onderscheid is belangrijk.
Een AI kan feitelijk nauwkeurige content schrijven over web performance. Wat het niet kan, is beschrijven hoe het er werkelijk uitziet wanneer een klant zijn Lighthouse-score van 34 naar 97 ziet gaan, wat de klant zei, welke specifieke technische beslissingen dat resultaat produceerden. First-person, ervaringsgerichte content van iemand die het werk daadwerkelijk heeft gedaan, is het hoogste beschikbare kwaliteitssignaal — en het is er een dat AI-gegenereerde content structureel niet kan repliceren.
Technische Basis: Wat Nog Steeds Werkt
Hoewel het zichtbaarheidsmodel verandert, zijn de technische fundamenten van SEO onveranderd. Deze zijn nog steeds vereist:
Semantische HTML en Gestructureerde Data
Schema.org-markup vertelt zoekmachines en LLMs expliciet welk type content een pagina bevat en wat elk element betekent. Voor een blogpost communiceert BlogPosting-schema de auteur, publicatiedatum, onderwerp en artikeltekst in een machine-leesbaar formaat dat AI-systemen vertrouwelijk kunnen parsen en citeren.
Voor een lokaal dienstverlenbedrijf als Ruberio bieden LocalBusiness en ProfessionalService-schema's de entiteitsinformatie (adres, telefoon, servicegebied, aangeboden diensten) die LLMs gebruiken bij het beantwoorden van vragen als "wie zijn de beste webdesignbureaus in Noord-Brabant?"
Paginasnelheid en Core Web Vitals
De correlatie tussen Core Web Vitals-scores en citatiepercentages van AI-overzichten is een opkomend onderzoeksgebied, maar de causale logica is gezond: Google's AI-systemen zijn gebouwd op Google's data, en Google's data heeft altijd snelle, goed-presterende pagina's bevoordeeld. Content die voorheen goed rankte voor snelheid zal begunstigd blijven.
Interne Linking en Thematische Clusters
Het concept van thematische clusters — je content organiseren in pillar-pagina's en ondersteunende artikelen, met systematische interne linking ertussenin — blijft zeer effectief in het LLM-tijdperk. Wanneer meerdere pagina's van jouw domein gerelateerde aspecten van een onderwerp behandelen met sterke interne linkverbindingen ertussen, herkennen zowel zoekcrawlers als LLMs het domein als een thematische autoriteit.
De Nieuwe Contentstrategie: Schrijven voor Mensen en Machines Tegelijk
Het oude SEO-advies — "schrijf voor mensen, niet voor zoekmachines" — heeft een update nodig. In 2025 zijn schrijven voor mensen en schrijven voor LLMs meer op één lijn dan ooit, maar met specifieke vereisten:
Beantwoord de vraag volledig. Voordat je aangrenzende onderwerpen behandelt, beantwoord je de kernvraag die door je artikeltitel wordt gesuggereerd zo specifiek en direct mogelijk, vroeg in het artikel. LLMs die je content samenvatten, zullen dit extraheren.
Gebruik de exacte taal van je publiek. Niet keyword-stuffing — semantische afstemming. Als jouw klanten vragen "hoe maak ik mijn website sneller", gebruik dan die taal. Dat is namelijk hoe de zoekopdracht aankomt.
Citeer je bronnen en data. Wanneer je een specifieke bewering doet (conversierate-correlatie, performancebenchmark, marktstatistiek), link dan naar de bron. Dit signaleert feitelijke nauwkeurigheid aan LLM-evaluatoren.
Publiceer consistent en diepgaand. Frequentie zonder diepgang is slechter dan infrequentie met diepgang. Één gezaghebbend artikel van 3.000 woorden per maand overtreft tien posts van 300 woorden in het LLM-tijdperk, omdat diepgang het primaire signaal van autoriteit is.
Wat We Bij Ruberio Bouwen
Onze contentstrategie is expliciet ontworpen voor het AI-tijdperk. Elk journaalartikel is gestructureerd met duidelijke H2- en H3-hiërarchieën die de semantische subonderwerpen van het stuk weerspiegelen. We bevatten specifieke data, citeren bronnen en schrijven vanuit directe ervaring. We implementeren BlogPosting en BreadcrumbList Schema.org-markup op elk artikel. We onderhouden sterke interne linking over onze content heen bij gerelateerde onderwerpen.
Het doel is eenvoudig: wanneer een potentiële klant een AI-assistent vraagt welk webbureau ze in Nederland moeten inhuren, of wat de beste aanpak is voor het bouwen van een hoogpresterende Next.js-site, willen we de geciteerde bron zijn.
Dat is de nieuwe definitie van ranken op nummer één. We optimaliseren er bewust voor.