Google Bard, Google SGE, Google Gemini und jetzt kommen die Google AI Overviews.
„Overviews“ ist ein gutes Stichwort. Wer kennt sich denn da noch aus, wer hat da noch den Überblick?
Darüber ließe sich viel schreiben, aber wir widmen uns einer anderen Frage:
Wie verhindere ich, dass Google den Inhalt meiner Website für seine AI Overviews verwendet?
Schon mit ChatGPT haben wir das Problem, dass AI-Systeme gerne kostenlos die Inhalte unserer Websites für ihr eigenes Geschäftsmodell nutzen. Darum hatte ich im Artikel „Websites: Eigene Inhalte vor ChatGPT schützen“ schon einmal darüber geschrieben.
Das Thema wird uns noch lange beschäftigen.
Google AI Overviews werden in den USA bereits ausgerollt, aber nicht in Europa. Das bedeutet allerdings nicht, dass Google die Inhalte eurer Websites nicht schon längst alle eingelesen hat. Letztendlich ist es ja das, was wir wollen. Google soll uns möglichst weit oben in der Liste seiner Suchergebnisse anzeigen.
Hier ist eine animierte Grafik von Search Engine Land, auf der die AI Overviews zu sehen sind:
Die AI Overviews zeigen euch nun keine Suchergebnisse in Form von Internet-Links an, sondern versuchen, eure Frage mit AI-Techniken gleich direkt zu beantworten.
Das ist schön für den Suchenden, aber schlecht für unsere Website, weil die Suchenden mit großer Wahrscheinlichkeit ihre Frage gleich komplett beantwortet bekommen und deswegen gar nicht mehr auf eure Website hüpfen.
Wer lange genug nach unten scrollt, bekommt dann aber doch noch die traditionellen Suchergebnisse.
Ein Problem bei AI Antworten sind immer noch die so genannten „Halluzinationen“ der AI. Es werden Fakten erfunden, die nicht existieren. An diesem Thema wird natürlich hart gearbeitet. Verlässlicher sind aber die Textausschnitte (Snippets) aus den organischen Suchtreffern. Die enstehen nicht aus dem Nichts heraus, sondern wurden von jemandem geschrieben. Richtig sein müssen sie deswegen allerdings auch noch lange nicht.
Beim Gemini-ChatBot wird auf dieses Problem sogar hingewiesen:
„Gemini may display inaccurate info, including about people, so double-check its responses.“
Bei den AI Overviews passiert dies bisher nicht.
Wie bekomme ich meine Inhalte also nun aus den Google AI Overviews raus?
In aller Kürze: gar nicht!
Es sei denn, du nimmst die Website/Webseite komplett aus dem Suchindex.
Man kann übrigens auch als Suchender diese neue Funktion bisher nicht abstellen, wenn man sie nicht mag.
Google AI Overviews können manipuliert werden
Und damit wird es natürlich wieder spannend für Suchmaschinenoptimierer.
Viele Mechanismen, die Google bei der organischen Suche eingeführt hat, um eine hohe Qualität der Suchergebnisse zu gewährleisten, scheinen aktuell noch keine Auswirkungen auf die AI Overviews zu haben.
Füttert das Internet und damit Google also mit Texten in eurem Sinne, am besten auf Reddit.
Reddit hat nämlich im Februar 2024 einen Deal mit Google für angeblich 60 Mio USD/anno gemacht und stellt nun den gesamten Inhalt der Subreddits der Suchmaschine zur Verfügung.
Interessanterweise ist die Suchmaschinensichtbarkeit von Reddit seit diesem Deal sehr drastisch nach oben geschossen. Möglicherweise liegt das aber auch nur an dem steigenden Interesse für Reddit aufgrund des Deals mit Google.
Methoden, um deinen Inhalt aus Google AI Overviews herauszuhalten
NOSNIPPET Control
Hierzu gibt es eine kurze Studie von Glenn Gabe.
Eine Reihe von Einstellungen hat einen Einfluss darauf, wie Google mit den Daten einer Webseite umgeht und wie es sie darstellt. Das könnt ihr auf Spezifikationen für Robots-meta-Tag, data-nosnippet und X-Robots-Tag nachlesen.
Glenn Gabe hat ausprobiert, wie sie die AI Overviews bei Nutzung von „nosnippet“, „data-nosnippet“ und „max-nosnippet“ („preview controls“) verhalten.
Grundsätzlich lässt sich damit verhindern, dass der Inhalt in Google AI Overviews ausgegeben wird. Allerdings fehlt das Snippet dann auch in den organischen Suchergebnissen. Immerhin taucht die Seite überhaupt noch dort auf.
Nutzung der robots.txt-Datei
Die im Artikel „Websites: Eigene Inhalte vor ChatGPT schützen“ beschriebene Methode, den User-Agent „Google-Extended“ auszusperren, hilft nicht weiter. Dieser User-Agent hat nichts mit SGE oder AI Overviews zu tun.
Da hilft nur noch die brutale Methode, als User-Agent das Sternchen „*“ anzugeben.
User-agent: *
Disallow: /
Mehr Infos zur robots.txt findet ihr in meinem Artikel SEO-Tipp #7: die Datei robots.txt.
Nutzung von Meta-Tags
Wenn du Zugriff auf die Meta-Tags im HTML-Code deiner Webseiten hast, kannst du den Suchmaschinen empfehlen (denn daran halten müssen sie sich nicht), eine spezifische Seite nicht zu indexieren.
<meta name="robots" content="noindex, nofollow">
Bei den meisten Content Management Systemen lässt sich diese Einstellung konfigurieren. Manchmal muss dafür ein zusätzliches Plug-in installiert werden.
Nutzung von HTTP-Headern
Diese Anweisung wird vom Server an den Crawler gesendet.
Üblicherweise werden HTTP-Headers mit einem Plug-in oder direkt mit PHP-Code geändert.
Du kannst die Einträge auch in den Webserver-Konfigurationsdateien .htaccess
– oder httpd.conf
durchführen.
X-Robots-Tag: noindex, nofollow