9 Minuten
Etwas Merkwürdiges geschieht mit den Ampeln des Internets. Die Links sind noch da. Die Artikel werden weiterhin veröffentlicht. Trotzdem bleiben Millionen von Leserinnen und Lesern, die früher auf Tech‑News‑Seiten geklickt haben, einfach bei Google stehen.
Der Übeltäter scheint Googles KI‑Zusammenfassungen zu sein — jene ordentlichen, von Künstlicher Intelligenz erzeugten Überblicke, die jetzt ganz oben in vielen Suchergebnissen erscheinen. Anstatt neugierige Leserinnen und Leser zur Originalrecherche zu leiten, verdaut das System Dutzende von Artikeln, kondensiert die Informationen und liefert eine schnelle Antwort direkt auf der Ergebnisseite. Bequem für Nutzerinnen und Nutzer. Verheerend für Publisher.
Jahrelang fungierte Suchtraffic als wirtschaftliches Rückgrat des digitalen Journalismus. Eine Leserin sucht eine Frage, klickt einen Link, landet auf der Website einer Publikation, und Werbung oder Abos finanzieren die Berichterstattung. KI‑Zusammenfassungen stören diese Schleife still und heimlich, indem sie die Frage beantworten, bevor ein Klick überhaupt stattfindet.
Wenn Antworten Besuche ersetzen
Eine neue Analyse der SEO‑Firma Growtika legt nahe, dass der Wandel bereits dramatisch ist. Mithilfe von Ahrefs‑Daten verfolgte das Unternehmen den Google‑Suchtraffic zu zehn großen Technologie‑Publikationen zwischen Anfang 2024 und Anfang 2026.
Auf ihrem Höhepunkt erhielten diese Angebote gemeinsam etwa 112 Millionen monatliche Besuche aus US‑Google‑Suchen. Bis Januar 2026 war diese Zahl auf knapp unter 50 Millionen eingebrochen.
Die Verluste verteilten sich nicht gleichmäßig. Mashable verzeichnete den geringsten Rückgang, wobei „gering“ relativ ist — die Seite verlor dennoch rund 30 Prozent ihres Suchtraffics. Andere traf es wesentlich härter. Wired soll einen Rückgang von 62 Prozent erlebt haben. Publikationen wie How‑To Geek, The Verge und ZDNet verloren jeweils mehr als 85 Prozent ihrer Google‑getriebenen Besuche im Laufe des zweijährigen Zeitraums.
Ein Einzelfall sticht besonders hervor. Digital Trends, das im März 2024 noch rund 8,5 Millionen monatliche Klicks von Google anzog, soll bis Januar 2026 auf nur noch 264.861 gefallen sein. Das entspricht einem erstaunlichen Rückgang von 97 Prozent beim US‑Suchtraffic.
Anders ausgedrückt: Laut Growtikas Vergleich ziehen die vier am stärksten betroffenen Tech‑Seiten zusammen weniger monatlichen Traffic an als die einzelne Reddit‑Community r/ChatGPT.
Growtika achtet darauf, keine einzige Ursache zu behaupten. Traffic‑Muster im Internet sind notorisch komplex, und mehrere Kräfte verändern gleichzeitig, wie Menschen online Informationen entdecken.
Dennoch weist die Firma auf drei sich überlappende Verschiebungen hin: Erstens die Einführung der KI‑Zusammenfassungen selbst, die Mitte 2024 breit sichtbar wurden. Zweitens Änderungen im Google‑Ranking, die zunehmend Reddit‑Diskussionen und Forenbeiträge in hohe Positionen bringen. Und drittens die rasche Verbreitung eigenständiger KI‑Chatbots, bei denen Nutzerinnen Antworten suchen, ohne Google überhaupt zu nutzen.
Das Timing stimmt mit einem weiteren Schlüsselmoment überein. Mitte 2025 erweiterte Google die KI‑Zusammenfassungen auf einen deutlich größeren Satz von Suchanfragen. Bis Juli jenes Jahres erschien die Funktion in rund einem Viertel aller Suchanfragen — was die Anzahl der Fälle, in denen Nutzerinnen eine sofortige KI‑Kurzantwort anstelle einer Linkliste erhielten, dramatisch erhöhte.
Google bestreitet die Schlussfolgerungen. In einer Antwort auf die Analyse bezeichnete ein Unternehmenssprecher die Methodik als „grundlegend fehlerhaft“ und argumentierte, dass das untersuchte Datenset zu wenige Websites umfasse und normale saisonale Schwankungen im Traffic nicht berücksichtigt habe.
Das Unternehmen weist zudem darauf hin, dass das Publikum zunehmend Informationen in neuen Formaten konsumiert — von Podcasts bis hin zu Community‑Foren — anstatt ausschließlich traditionelle Artikel zu lesen.
Die übergeordnete Frage bleibt jedoch unbequem für die Medienbranche. Wenn Suchmaschinen Journalismus zusammenfassen, statt Leserinnen und Leser zu den Originalquellen zu schicken, beginnt das wirtschaftliche Modell zu wanken, das einen großen Teil des offenen Webs finanzierte.
KI‑Werkzeuge können Informationen schneller zugänglich machen, sie riskieren aber auch, die Verbindung zwischen denjenigen, die Wissen produzieren, und jenen, die sich darauf verlassen, zu kappen.
Und wenn diese Verbindung reißt, könnte sich das Internet langsam von einem Netz aus Quellen zu einem Feed aus Antworten wandeln — effizient, aufpoliert und zunehmend losgelöst von den Originalrecherchen, die diese Antworten erst ermöglichten.
Methodik und Reaktionen
Die präsentierten Zahlen basieren auf einem Vergleich über einen definierten Zeitraum und auf Daten von Drittanbieter‑SEO‑Tools wie Ahrefs. Solche Tools messen organischen Suchtraffic, Rankings und Backlink‑Profile, liefern jedoch Schätzungen, keine exakten Werte der Publisher‑Serverlogs. Daraus ergibt sich eine Unsicherheitsspanne, die in der Interpretation berücksichtigt werden muss.
Worauf sich die Analyse stützt
Growtikas Analyse aggregiert monatliche Schätzwerte und vergleicht Trends über 24 Monate. Indikatoren sind unter anderem:
- Geschätzte Klicks aus Google‑Suchergebnissen (organischer Traffic)
- Ranking‑Veränderungen für zentrale Keywords
- Veränderungen in der Sichtbarkeit (Visibility Score) der untersuchten Domains
Die Kombination dieser Metriken liefert Hinweise auf Beeinträchtigungen durch veränderte SERP‑Layouts (Search Engine Result Pages), etwa wenn KI‑Zusammenfassungen prominent erscheinen oder wenn Diskussionsforen höhere Positionen einnehmen.
Gegendarstellungen und Limitationen
Google wies darauf hin, dass einzelne Studien selten alle Variablen erfassen: algorithmische Updates, redaktionelle Entscheidungen, saisonale Lesemuster, Social‑Media‑Verweise und direkte Traffic‑Kanäle spielen ebenfalls eine Rolle. Zudem können Publisher ihre eigene Strategie verändert haben — etwa stärkere Betonung von Abonnements oder exklusive Inhalte — was die organische Reichweite verzerrt.
Ursachen im Detail
1. KI‑Zusammenfassungen als Interruptive Antwortquelle
Der Kernmechanismus ist einfach: Eine KI liest und aggregiert Inhalte, extrahiert Kernaussagen und präsentiert sie kompakt. Für viele Suchanfragen genügt das Ergebnis — Nutzerinnen erhalten eine schnelle, oft überzeugend präsentierte Antwort und müssen nicht mehr auf einen externen Artikel klicken. Für einfache Faktenabfragen oder schnelle Produktinformationen ist das angenehm. Für tiefere, originäre Recherchen ist es problematisch.
2. Ranking‑Verschiebungen und die Macht der Foren
Parallel dazu hat Google offenbar begonnen, Community‑Diskussionen höher zu werten. Reddit‑Posts oder lange Forenthreads enthalten oft aktuelle, praktische Informationen und persönliche Erfahrungsberichte, die Suchende schätzen. Wenn solche Inhalte Vorteile im Ranking erhalten, verschiebt sich der Traffic weg von traditionellen News‑Sites hin zu Plattformen, die selbst keine redaktionelle Produktion monetarisieren wie klassische Publisher.
3. Eigenständige Chatbots und Alternativen außerhalb von Google
Schließlich ziehen viele Nutzerinnen Antworten direkt aus Chatbots oder Assistenten, die entweder auf firmeneigenen Angeboten (z. B. ChatGPT, Bing Chat) oder in Apps integriert sind. Diese Abwanderung zu „Zero‑click‑Destinations“ schwächt das klassische Such‑Click‑Modell weiter.
Auswirkungen auf Journalismus und Geschäftsmodelle
Ökonomische Folgen für Publisher
Weniger Seitenaufrufe bedeuten geringere Anzeigenerlöse und erschweren die Skalierung digitaler Abonnementmodelle. Besonders betroffen sind jene Publikationen, die stark auf organischen Traffic angewiesen sind, um neue Leserinnen zu gewinnen oder die Inhalte in Werbeinventar zu monetarisieren.
Qualität und Nachvollziehbarkeit von Informationen
Wenn KI‑Zusammenfassungen Antworten liefern, ohne deutlich auf Quellen zu verweisen oder ohne den Kontext der Originalrecherche zu transportieren, leidet die Nachvollziehbarkeit. Journalistische Arbeit — Recherche, Quellenprüfung, Interviews — kann in der Darstellung von KI‑Outputs verschwimmen, wodurch die Publikationskette und die Attribution weniger sichtbar werden.
Risiko für investigative Recherche
Investigative Berichterstattung ist teuer und zeitaufwändig. Sie lebt davon, dass Reichweite und Monetarisierung die Kosten decken. Ein dauerhafter Rückgang organischer Zugriffe kann Mittel für tiefgehende Recherchen reduzieren und damit die Rolle des Journalismus als Kontrollinstanz schwächen.
Strategien für Verlage und Redaktionen
Angesichts dieser Herausforderungen prüfen Publisher mehrere Reaktionsoptionen. Es gibt keine einfache Lösung, aber eine Kombination aus technischen, redaktionellen und geschäftlichen Maßnahmen kann helfen, die Abhängigkeit vom reinen Suchtraffic zu reduzieren.
Suchmaschinenoptimierung neu denken
SEO bleibt wichtig, aber es geht zunehmend um Signale, die KI‑Zusammenfassungen überzeugen, auf die Originalquelle zu verweisen. Dazu zählen strukturierte Daten (Schema.org), klare Autorenkennzeichnung, E‑E‑A‑T‑Signale (Experience, Expertise, Authoritativeness, Trustworthiness) und die Auszeichnung von Originalrecherche als solche.
Content‑Strategien und Mehrwert
Publisher sollten noch stärker auf Inhalte setzen, die KI‑Zusammenfassungen schwer ersetzen: exklusive Interviews, Datenjournalismus mit Primärdaten, interaktive Visualisierungen, Analysen mit klarem redaktionellem Mehrwert und langfristige Recherchen. Solcher Mehrwert schafft Gründe zum direkten Besuch.
Monetarisierung diversifizieren
Neue Erlösquellen — Memberships, Events, Kooperationen mit Plattformen, Paid Newsletters und Native Advertising mit klarer Kennzeichnung — können die Abhängigkeit von organischem Google‑Traffic verringern. Auch das Ausspielen von Inhalten über eigene Apps oder Partnernetzwerke reduziert den Einfluss einzelner Suchergebnisseiten.
Rechtliche und regulatorische Überlegungen
Einige Verlage und Branchenverbände diskutieren rechtliche Schritte oder Verhandlungsmodelle mit Plattformbetreibern, um Vergütungen für die Nutzung journalistischer Inhalte zu sichern. Solche Initiativen sind jedoch kompliziert, dauern lange und hängen stark von nationalen Rechtsordnungen ab.
Technische Maßnahmen und SEO‑Taktiken
Strukturierte Daten und Attribution
Ein wirksamer technischer Hebel ist die konsequente Nutzung strukturierter Metadaten (Article, NewsArticle, Author) und klarer Quellenangaben, damit Such‑KI leichter erkennt, welche Seite die Originalquelle ist. Auch OpenGraph‑ und Twitter‑Card‑Tags unterstützen die korrekte Darstellung beim Teilen.
Optimierung für Long‑Form und Evergreen‑Inhalte
Längere, tiefgründige Inhalte mit regelmäßiger Aktualisierung können als Evergreen‑Assets dienen und langfristig Traffic stabilisieren. Zusätzlich helfen klare Inhaltsmarker (Zusammenfassungen, Kapitel, Quellenlinks) sowohl Leserinnen als auch Maschinenverständnis.
Schlussfolgerung
Die Verlagerung von Klicks zu unmittelbaren KI‑Antworten stellt die Ökonomie des offenen Webs auf die Probe. Google‑KI‑Zusammenfassungen und alternative Antwortformen bieten bequemen Mehrwert für Suchende — zugleich bedrohen sie die Einnahmequellen von Medienhäusern, die unabhängigen Journalismus finanzieren.
Die Herausforderung für Verlage besteht nun darin, ihren einzigartigen Wert sichtbar zu machen, technische Signale zu setzen, die Attribution zu erzwingen und gleichzeitig neue Geschäftsmodelle zu entwickeln. Für die Gesellschaft bleibt die Frage zentral: Wie sichern wir weiterhin die Finanzierung von sorgfältiger, überprüfbarer Recherche in einer Welt, die zunehmend auf sofortige Antworten setzt?
Die Diskussion betrifft SEO‑Strategien, Medienökonomie, regulatorische Optionen und technologische Entwicklungen gleichermaßen. Nur durch ein multiperspektivisches Vorgehen — redaktionell, technisch und politisch — lässt sich ein Gleichgewicht finden, das sowohl Nutzerinnen schnellen Zugang zu Antworten bietet als auch die Existenzgrundlage des Journalismus bewahrt.
Kommentar hinterlassen