Die Unterschiede – KI Optimierung vs. SEO

Nicht nur in Suchmaschinen ranken, sondern auch kostenlosen Traffic von ChatGPT und Co. generieren.

Dies ist DAS Geschäftsziel vieler Unternehmen im Jahr 2025 und 2026. Worauf es ankommt, wenn eine KI deine Website bewertet ist in vielerlei Hinsicht nicht allzu anders als die altgedienten Rankingfaktoren von Google und Bing. Aber: Es gibt ein paar Unterschiede.

Wir von THE BIG C Agency haben in den vergangenen Wochen ein bisschen „Wissen“ aus der Szene-Presse und dem Flurfunk zum Thema „Wie optimiere ich meine Website für Künstliche Intelligenz“ zusammengefasst. Viele der Erkenntnisse basieren dabei auf Trial-and-Error-Herangehensweisen, sind nicht wirklich Wissen, sondern eher „gestützte Erfahrungen“ und sind möglicherweise nur temporäre Ansätze, da sich im KI-Space nachwievor noch sehr viel, sehr schnell entwickelt.

Inhalt

Fokus auf Semantik statt auf Mathematik

Javascript und SPA Nachteile bei KI-Optimierung

Konfiguratoren und Rechner werden bevorteilt

Empfehlungen durch Reproduktion

Reduzierung von Backlink-Wertigkeit

Location, Location, Location (Überindexierung)

Fokus auf Semantik statt auf Mathematik

Text ist und bleibt das wichtigste Element deiner Website. Haben deine Unterseiten kein Text, wirst du weder bei Google noch bei ChatGPT Traffic holen können. ABER: In den Augen von Large Language Models (LLMs) wird Sprache und Text wahrscheinlich in den kommenden Jahren noch einmal anders bewertet als es in Suchmaschinen-Evaluation der Fall war. So ist zu erwarten, dass KIs mehr wert auf Dinge legen können wie

  • Erfassung und Matching von Inhalten mit dem initialen User-Intent (Fragen, Bewertungen, etc.)
  • Logische Argumentation und Belege für getroffene Aussagen
  • Text-Stil und Fehlerhäufigkeit

als der Google-Algorithmus.

Semantische Analysen in der KI Optimierung

Bitte nicht missverstehen. Der Google Algorithmus ist in den vergangenen Jahren extrem gut in der Evaluation von Websites geworden. Allerdings bestehen die Basis-Aspekte der Dokumenten-Analyse im Kern immer noch stärker auf mathematischen Prinzipien als auf natürlichem Verständnis. Die Zeit von Keyword-Dichte-Optimierung liegt bereits 15 Jahre zurück und ständige Wiederholung von Keyphrases ist auch nicht mehr der wichtigste Motor guter Rankings. Allerdings ist der Vergleich von Dokumenten für Suchmaschinen noch immer etwas schematischer als durch LLMs.

Das heißt für die KI-Optimierung von Websites im Gegenzug:

  • Ein noch präziseres Bild vom Suchenden zu entwickeln, um darauf bei der Text-Erstellung einzugehen. Zum Beispiel durch die Beantwortung von Fragen und der Einführung einer Top-Liste auf der gleichen Seite.
  • Stärkere Beachtung von Nutzungskontexten und die Beschreibung dieser Kontexte. Beispiel: Kann ich ein Fahrrad gut in der Stadt fahren? Oder ist es auch gut im Gelände? Kann ich es vielleicht sogar auf dem Trail fahren? Unter welchen Umständen ist das der Fall? All diese Kontexte sollten in neuen Texten beschrieben werden, wenn in diesem Beispiel ein Fahrrad an den User bringen möchte.
  • Absicherung von Argumenten – Bei der Texterstellung sollte mehr Wert auf den Beleg von getätigten Aussagen gelegt werden. Es reicht womöglich in naher Zukunft nicht mehr zu behaupten, dass man das beste Produkt seiner Klasse anbietet. Argumentationsketten, die mit „weil“ oder „da“ beginnen, können dabei wichtige Argumentationsstränge einleiten, die Dinge wie Auszeichnungen, Preisvorteile oder Kundenbewertungen (aggregiert) beinhalten.
  • Flexiblerer Text-Stil könnte ein Vorzug der neuen KI-Evolution sein. Während Suchmaschinen teils sehr simple und robotische Sprache bevorzugen, können Autoren nun mit etwas Flair in Texten bestechen. Aber es ist auch schon zu beobachten, dass KI-Analysen Probleme bei zu tiefen Informationshierarchien haben. Das bedeutet im Umkehrschluss, dass auch Schachtelsätze und kleinteilige Absätze kontraproduktiv werden können.

Javascript und SPA Nachteile bei KI-Optimierung

Google und Bing haben fast 10 Jahre gebraucht, um das Thema „Javascript Rendering“ für Websites zu ermöglichen. Es ist zu erwarten, dass KIs das schneller hinbekommen. Aber zurzeit ist die exzessive Verwendung von Javascript bei der Seitenbereitstellung noch ein Risikofaktor für Traffic aus KI Chatfenstern. Wie wir darauf kommen?

  1. Verschiedene unserer Versuche ChatGPT und Copilot für die Extraktion von spezifischen Website-Inhalten zu verwenden, sind – vor allem bei Javascript Interaktionen – häufig ins Leere gelaufen. Auf Nachfrage nach den Ursachen führten die verschiedenen Modelle häufig an, dass bestimmte Elemente oder Informationen nicht angezeigt werden, obwohl sie beim Aufruf im Browser klar erkennbar sind.
  2. Large Language Processing und Learning sind teure, rechenintensive Aufgaben (wie am Financial Model von KI-Unternehmen und dem rapiden Zunahme der Datacenter Locations in USA zu erkennen ist). Da ist es nicht abwegig, dass zumindest gerade noch an aufwändigeren Features wie zusätzlichem Rendering bei der Website-Analyse gespart wird.
Chat GPT Einsicht in Deeplinks

Das bedeutet in der KI-Optimierung:

  • Bereitstellung von Fallback-HTML-Elementen für Kern-Inhalte von Websites (Texte, Referenzen, etc.)
  • Verzicht auf Single Page Applications (SPAs) für Content-Fokus Webseiten (Für Shops und App-ähnliche Anwendung ist eine Abwägung sicherlich wichtig)

Konfiguratoren und Rechner werden bevorteilt

In einem Chat-Interface einer KI ist es nicht nur wichtig, ob man als Website-Betreiber als relevant angesehen wird, sondern auch, ob ein User überhaupt auf die eigene Website ausgeleitet wird. LLMs nehmen nämlich auch gerne Informationen aus dem Web und präsentieren sie als eigene Antwort auf einen Prompt (zugegeben: Quellenangaben werden mittlerweile zum Standard). Da ist es spannend, dass erste Experimente in diesem Bereich zeigen, dass Websites, die Rechner und Konfiguratoren (z.B. PKV Rechner oder Store-Locator) beinhalten, häufiger verlinkt werden als Websites, die derartige Features nicht haben.

Dies scheint insofern logisch, da:

  1. Ein Chatfenster kann nur begrenzte interaktive Ergebnisse abbilden. Zwar können Folge-Infos abgefragt werden oder Annahmen getroffen werden, aber auch dies hat seine Grenzen.
  2. Multistep-Formulare fragen wichtige Inputs erst ab Seite 2 ab und zeigen Ergebnisse erst viel später an. Es wäre für eine KI nicht effizient oder möglich den gesamten Flow zu durchlaufen.
  3. KIs und Crawler haben nicht immer die Berechtigung oder Kompetenzen mit zugrundeliegenden Schnittstellen (Tarifierung, Berechnung, o.ä.) zu interagieren. Da ist notwendig, dass Nutzer ausgeleitet werden.

Entsprechend ist es in naher Zukunft wichtiger denn je, dass auf einer Website wertige Inhalte entstehen, die es wert sind Nutzer aus einem Chat auszuleiten.

(Es ist möglich, dass dieser Umstand sich mit der Verbreitung von Model Context Protokollen, MCP genannt, in der Zukunft ändert und dieser kleine Hack entfällt.)

Empfehlungen durch Reproduktion

Eine Besonderheit von KI-Antworten: Je nach Prompt kann es sein, dass die KI einfach den Text einer anderen Website reproduziert. Stellen wir uns einen Prompt vor wie:

Was sind gute Anbieter von Windows Laptops?

Hier kann es passieren, dass ChatGPT einfach die qualitätsgesicherten Inhalte eines Artikels wie „Die Top 10 Windows Laptop Marken in 2025“ reproduziert und eine Stichpunktliste aus den Überschriften des Top10 Artikels ausgibt. Wer in dieser Liste ist, hat auf jeden Fall gute Chancen ins relevant Set zu gelangen.

Hier ein Beispiel auf dem Bereich CRM Software.

Chat GPT Empfehlungen CRM Software

Der Unterschied zur Suchmaschinen Journey ist hier, dass sonst der Top 10 Artikel des Aggregators für die Suche gerankt hätte. Hier wäre es auch in der Oldschool-Suchwelt wichtig gewesen aufzutauchen. Allerdings fallen nun der Zwischenschritt und eine mögliche Affiliate-Provisionierung weg. In diesem Szenario ist es also wichtig, dass ein Produkt in den wichtigsten Web-Artikeln und Top-Listen zu finden ist (nicht anders als sonst auch). Allerdings zeigt es auch einen weiteren wichtigen Aspekt auf: Die Referenzierung! Was an der Referenzierung so wichtig ist, wird im nächsten Abschnitt erörtert.

Während in der sogenannte Backlink in der SEO-Welt der heilige Gral der Autorität ist, kann es sein, dass das HTML Element mit dem <a>-Tag in der KI-Welt deutlich weniger Beachtung findet! Wer jetzt aber denkt, dass Outreach für Platzierungen auf externen Websites der Geschichte angehört, der irrt gewaltig. Denn: Referenzen von externen Websites werden wichtiger denn je. Allerdings müssen sie nicht mehr verlinkt sein!

Durch den semantischen Fokus der LLMs wertet die KI nämlich Nennungen von Marken und anderen Websites etwas anders. Wenn der Kontext, in dem die Nennung stattfindet zum Prompt passt (und die nennende Website nicht kompletter Schrott ist), ist man nämlich auch ohne HTML-Verlinkung plötzlich relevant. Ob zurzeit auch eine ähnlich starke Autoritätsabstufung unter referenzierenden Websites wie in Suchmaschinen stattfindet, ist noch nicht absehbar. Aber es wäre zu vermuten, dass einschlägig bekannte Zeitungen und Verbraucherportale eine höhere Glaubwürdigkeit als die THE BIG C Agency Website genießen. In diesem Fall ist es aber besonders der Kontext, in dem die Nennung stattfindet, von Bedeutung.

Für das KI-Optimierung-Game bedeutet das:

  • Versuche deine Produkte / Marke in diversen einschlägigen Szenarien reviewen zu lassen (Top-Listen, Aggregatoren, Bewertungsportale, redaktionelle Reviews).
  • Nimm Angebote wie (lokale) Branchenverzeichnisse wahr, da es auch Prompts gibt, die erschöpfende Aussagen anfordern (z.B. „… alle Anbieter für Service X in Köln).
  • Lege Wert auf ein authentisches Referenzprofil (Wikipedia Eintrag, Profile in sozialen Netzwerken, auch Firmeneinträge bei Portalen wie North Data sind ggf. Teil des Relevant Sets)
  • Beachte bei allen Nennungen den Kontext, in dem sie stattfindet. Anbieter von Campingwagen sollten in Camping-Magazinen genannt werden. Klassischer Referenz-Spam wie früher Backlinks gespamt wurden, sollte in einer semantischen Auswertung noch schneller auffallen als in der Suchmaschinen-Welt.
Quellen Angaben Chat GPT

Location, Location, Location (Überindexierung)

Als vor ein paar Jahren ChatGPT in den Tech-Mainstream wanderte, wurde eine Geschichte aus dem Training des damaligen Models besonders bekannt: Und zwar soll OpenAI einen Großteil / überproportionalen Anteil der Trainingsdaten von der Plattform reddit gescraped haben und dem LLM zum Lernen bereitgestellt haben. Ob reddit nun die „Krone des Internets“ ist, ist sicherlich diskutabel. Aber es zeigt einen spannenden Umstand auf: LLMs weisen einen Bias auf! In diesem Fall auf Basis der verfügbaren Trainingsquellen. In der Optimierung wird dies auch als Überindexierung bezeichnet. Es werden von einer Quelle überproportional mehr Inhalte indexiert als von anderen.

Reddit als Training Quelle für LLMs

Als Website-Betreiber und / oder Marketer kann man sich dieses Phänomen zu Nutze machen: In dem man vor allem Erwähnung auf Plattformen findet, die verstärkt zum Training von LLMs verwendet werden.

Ob dies auch in Zukunft reddit sein wird, ist sehr fraglich, da das initiale Scraping eine Diskussion über Urheberrechte und Zweckentfremdung der reddit-Inhalte ausgelöst hat. Man kann aber festhalten: Ein guter Ruf in Inhalten hinter einer Paywall oder in geschlossenen Communities wird auch in der KI-Optimierung nicht viel Wert sein!