Tärkeimmät otannat:

  • Tekoälybottien asema hakukäyttäymisessä kasvaa.
  • Verkkosivustojen tulisi huomioida ja ottaa käyttöön uudet optimointistrategiat.
  • Jos haluat päästä tekoälyohjelmien lähteeksi, lähteistettävän sisällön tulee olla HTML-muotoista.
  • Tulevaisuuden hakukoneoptimoinnissa on huomioitava tekoälybottien mahdollisuus vierailla sivustolla.

Elääkö sivustosi javasta? The Rise of the AI Crawler -tutkimus (MERJ & Vercel) osoittaa, että yksikään tärkeimmistä AI-sovelluksista vielä indeksoi JavaScriptiä googlebotin lailla.

Näihin crawlereihin lukeutuvat:

  • OpenAI (OAI-SearchBot, ChatGPT-User, GPTBot)*
  • Anthropic (ClaudeBot)*
  • Meta (Meta-ExternalAgent)*
  • ByteDance (Bytespider)
  • Perplexity (PerplexityBot).

* Näiden tekoälysovellusten botit eivät suorita JavaScriptiä lainkaan.

Tutkimustieto osoittaa, että vaikka ChatGPT:n ja Clauden indeksoijat käyvät läpi JavaScript-tiedostoja (ChatGPT 11,50% ja Claude 23,84% pyynnöistä), ne eivät varsinaisesti suorita niitä.

Jos haluat päästä tekoälyohjelmien lähteeksi, lähteistettävän sisällön tulee olla HTML-muotoista.

Miten päästä AI-sovelluksen lähteeksi?

AI-crawlerit eivät (vielä) voi lukea renderöityä sisältöä

AI-crawlerit eivät voi lukea renderöityä sisältöä, tulevaisuudessa tilanne voi toki muuttua: AI kehittyy kaiken aikaa, ja siksi toimenpiteet on tärkeä huomioda sivuston hakukoneoptimoinnissa.

(Alkuperäiseen HTML-vastaukseen sisältyvä sisältö, kuten JSON-tiedot tai viivästetyt React Server -komponentit, voidaan silti indeksoida, koska tekoälymallit osaavat tulkita muutakin kuin HTML-sisältöä.)

Millaista sisältöä – tai pikemminkin – millaista sisältömuotoa tekoälyn crawlerit sitten mielivät?

  • ChatGPT priorisoi HTML-sisältöä (57,70% hauista).
  • Claude keskittyy kuviin (35,17% kaikista hauista).
  • Molemmat crawlerit käyttävät huomattavan paljon aikaa JavaScript-tiedostoihin (ChatGPT 11,50% ja Claude 23,84%), vaikka eivät suorita niitä.

Kun toimenpiteitä verrataan googlebotin toimintaan, Geminin ja perinteisen haun luvut jakautuvat seuraavasti:

  • 31% HTML
  • 29,34% JSON
  • 20,77% teksti
  • 15,25% JavaScript.

"Our research with Vercel highlights that AI crawlers, while rapidly scaling, continue to face significant challenges in handling JavaScript and efficiently crawling content. As the adoption of AI-driven web experiences continues to gather pace, brands must ensure that critical information is server-side rendered and that their sites remain well-optimized to sustain visibility in an increasingly diverse search landscape."

— Ryan Siddle, Managing Director of MERJ

Haluatko päästä tekoälyn lähteeksi?

  • ChatGPT ja Claude eivät (vielä) lue JavaScriptiä, joten kaikki tärkeä sisältö on renderöitävä palvelimella; aseta palvelinpuolen renderöinti etusijalle kriittiselle sisällölle. Näihin sisältöihin lukeutuvat niin artikkelit, tuotetiedot, metatiedot, kategoriat kuin navigointirakenne. SSR, ISR ja SSG pitävät sisällön kaikkien indeksoijien saatavilla.
  • Huolehdi, että sivuston HTML-sisältö on selkeää ja semanttista: sisäisen linkityksen tulee olla huolellisesti toteutettu.
  • Huomioi renderöinti myös dynaamisissa elementeissä, kuten katselukertojen laskurissa, chatboteissa ja sosiaalisen median syötteissä.
  • Vältä massiivista määrää 404-virheitä ja uudelleenohjauksia: noin 34% GPTBotin ja Clauden pyynnöistä johtaa 404-virheisiin, jotka johtuvat rikkonaisista sisällöistä tai huonosta URL-arkkitehtuurista.
  • Pidä robots.txt-tiedosto sekä sivustokartat ajan tasalla.

Teknisen SEO:n ja sitä kautta sivuston indeksoitavuus muuttuvat vieläkin tärkeämmäksi.

Jos kaipaat apua sivustosi tarkistuksessa, auditoidaan se ja varmistetaan, että tekoälyvotit voivat indeksoida sivustosi sisällöt. Toimenpide on osa hakukokemuksen optimointia, SXO:ta eli Search Experience Optimizationia.

Esimerkki tekoälyoptimoinnista eli AI-optimoinnista.

Lähteet