Tärkeimmät otannat:
- Tekoälybottien asema hakukäyttäymisessä kasvaa.
- Verkkosivustojen tulisi huomioida ja ottaa käyttöön uudet optimointistrategiat.
- Jos haluat päästä tekoälyohjelmien lähteeksi, lähteistettävän sisällön tulee olla HTML-muotoista.
- Tulevaisuuden hakukoneoptimoinnissa on huomioitava tekoälybottien mahdollisuus vierailla sivustolla.
Elääkö sivustosi javasta? The Rise of the AI Crawler -tutkimus (MERJ & Vercel) osoittaa, että yksikään tärkeimmistä AI-sovelluksista vielä indeksoi JavaScriptiä googlebotin lailla.
Näihin crawlereihin lukeutuvat:
- OpenAI (OAI-SearchBot, ChatGPT-User, GPTBot)*
- Anthropic (ClaudeBot)*
- Meta (Meta-ExternalAgent)*
- ByteDance (Bytespider)
- Perplexity (PerplexityBot).
* Näiden tekoälysovellusten botit eivät suorita JavaScriptiä lainkaan.
Tutkimustieto osoittaa, että vaikka ChatGPT:n ja Clauden indeksoijat käyvät läpi JavaScript-tiedostoja (ChatGPT 11,50% ja Claude 23,84% pyynnöistä), ne eivät varsinaisesti suorita niitä.
Jos haluat päästä tekoälyohjelmien lähteeksi, lähteistettävän sisällön tulee olla HTML-muotoista.
AI-crawlerit eivät (vielä) voi lukea renderöityä sisältöä
AI-crawlerit eivät voi lukea renderöityä sisältöä, tulevaisuudessa tilanne voi toki muuttua: AI kehittyy kaiken aikaa, ja siksi toimenpiteet on tärkeä huomioda sivuston hakukoneoptimoinnissa.
(Alkuperäiseen HTML-vastaukseen sisältyvä sisältö, kuten JSON-tiedot tai viivästetyt React Server -komponentit, voidaan silti indeksoida, koska tekoälymallit osaavat tulkita muutakin kuin HTML-sisältöä.)
Millaista sisältöä – tai pikemminkin – millaista sisältömuotoa tekoälyn crawlerit sitten mielivät?
- ChatGPT priorisoi HTML-sisältöä (57,70% hauista).
- Claude keskittyy kuviin (35,17% kaikista hauista).
- Molemmat crawlerit käyttävät huomattavan paljon aikaa JavaScript-tiedostoihin (ChatGPT 11,50% ja Claude 23,84%), vaikka eivät suorita niitä.
Kun toimenpiteitä verrataan googlebotin toimintaan, Geminin ja perinteisen haun luvut jakautuvat seuraavasti:
- 31% HTML
- 29,34% JSON
- 20,77% teksti
- 15,25% JavaScript.
"Our research with Vercel highlights that AI crawlers, while rapidly scaling, continue to face significant challenges in handling JavaScript and efficiently crawling content. As the adoption of AI-driven web experiences continues to gather pace, brands must ensure that critical information is server-side rendered and that their sites remain well-optimized to sustain visibility in an increasingly diverse search landscape."
— Ryan Siddle, Managing Director of MERJ
Haluatko päästä tekoälyn lähteeksi?
- ChatGPT ja Claude eivät (vielä) lue JavaScriptiä, joten kaikki tärkeä sisältö on renderöitävä palvelimella; aseta palvelinpuolen renderöinti etusijalle kriittiselle sisällölle. Näihin sisältöihin lukeutuvat niin artikkelit, tuotetiedot, metatiedot, kategoriat kuin navigointirakenne. SSR, ISR ja SSG pitävät sisällön kaikkien indeksoijien saatavilla.
- Huolehdi, että sivuston HTML-sisältö on selkeää ja semanttista: sisäisen linkityksen tulee olla huolellisesti toteutettu.
- Huomioi renderöinti myös dynaamisissa elementeissä, kuten katselukertojen laskurissa, chatboteissa ja sosiaalisen median syötteissä.
- Vältä massiivista määrää 404-virheitä ja uudelleenohjauksia: noin 34% GPTBotin ja Clauden pyynnöistä johtaa 404-virheisiin, jotka johtuvat rikkonaisista sisällöistä tai huonosta URL-arkkitehtuurista.
- Pidä robots.txt-tiedosto sekä sivustokartat ajan tasalla.
Teknisen SEO:n ja sitä kautta sivuston indeksoitavuus muuttuvat vieläkin tärkeämmäksi.
Jos kaipaat apua sivustosi tarkistuksessa, auditoidaan se ja varmistetaan, että tekoälyvotit voivat indeksoida sivustosi sisällöt. Toimenpide on osa hakukokemuksen optimointia, SXO:ta eli Search Experience Optimizationia.
Lähteet
Tiedä ennen muita.
Datajournalismia ja näkökulmia algoritmimuutoksista AI-optimointiin. Tilaa SEO-uutiset kuukausikoosteena sähköpostiisi.