Ich habe verstanden, was das bedeutet, als ich in-house bei einer der sichtbarsten Websites Deutschlands an einem Projekt gearbeitet habe, das auf dem Papier brillant klang: Programmatic SEO.

Die Idee war einfach. Für jede Kombination aus Marke, Modell, Farbe, Ausstattung und Feature wurde automatisch eine eigene Seite erzeugt. Millionen Kombinationen. Am Ende entstanden dutzende Millionen URLs.

Und tatsächlich funktionierte es – zumindest oberflächlich. Die Seiten brachten Traffic. Ein paar hunderttausend Besucher pro Monat.

Aber wenn man die Dimensionen einmal wirklich ausrechnete, wurde das Problem sichtbar: Bei 10 bis 50 Millionen erzeugten URLs hätte es Jahre gedauert, bis jede Seite überhaupt nur einmal besucht worden wäre.

Die Website war größer geworden, als das System dahinter verstehen konnte.

Google brauchte eine Weile. Aber irgendwann reagierte der Algorithmus genau so, wie man es erwarten würde: Der Sichtbarkeitsgraph fiel nicht langsam. Er brach ab.

Das war der Moment, in dem ich verstanden habe, dass große Websites nicht an einzelnen Fehlern scheitern. Sie scheitern daran, dass Systeme entstehen, die niemand mehr vollständig überblickt.

Für diesen Zustand gibt es einen Namen: SEO-Entropie.

Was SEO-Entropie ist – und was sie nicht ist

In der Physik beschreibt Entropie den Grad der Unordnung in einem System. Ohne aktive Energiezufuhr nimmt Unordnung nie ab – sie wächst. Genau dasselbe passiert in großen digitalen Systemen: Jede Übergabe, jeder Relaunch, jedes Release ohne Systemverständnis fügt ein kleines Stück Unordnung hinzu. Nicht als Fehler. Als Normalzustand.

SEO-Entropie beschreibt den schleichenden Verlust organischer Steuerbarkeit – nicht durch einzelne Fehler, sondern durch die kumulative Wirkung vieler kleiner, unkoordinierter Entscheidungen über Zeit. Sie entsteht nicht durch Inkompetenz. Sie entsteht durch Wachstum.

Und sie hat drei Eigenschaften, die sie besonders gefährlich machen: Sie ist unsichtbar – kein Dashboard zeigt sie direkt an. Sie ist selbstverstärkend – jede neue Maßnahme ohne Systemverständnis erhöht sie weiter. Und sie ist organisatorisch verankert – kein Tool löst sie, weil sie kein Tool-Problem ist.

„Google macht sichtbar, was Organisationen nicht kontrollieren.“

Was die Zahlen zeigen

Das klingt abstrakt – bis man die Daten sieht. Was Crawl-Log-Analysen großer Enterprise-Domains regelmäßig zeigen, ist ernüchternd. Die folgende Verteilung ist keine veröffentlichte Branchenstudie, sondern ein typisches Muster aus Enterprise-Logfiles, wie es in unkontrollierten E-Commerce-Setups immer wieder auftaucht. Ein typischer Googlebot-Log über sieben Tage:

Googlebot Requests — 7 Tage · Typische Enterprise E-Commerce-Domain
Filter-URLs
38%
Paginierung
21%
Interne Suche
12%
Produkte
17%
Kategorien
8%
Content
4%
Rot = Crawl-Waste (71%) · Grün = strategisch relevante Seiten (29%)

71 Prozent des Crawl-Budgets landet auf Seiten, die nie ranken sollen. Produkte, Kategorien und Content – die Seiten, die organische Sichtbarkeit erzeugen – bekommen zusammen weniger als 30 Prozent der Crawling-Kapazität. Das ist kein Ausreißer. Das ist der Normalzustand ungesteuerter Enterprise-Domains.

Für eine Führungskraft bedeutet das: Die Website investiert den Großteil ihrer organischen Kapazität in Seiten, die keinen wirtschaftlichen Beitrag leisten.

Google crawlt nicht, was wichtig ist. Google crawlt, was existiert.
Wer das System nicht steuert, überlässt die Priorisierung dem Algorithmus. Und der priorisiert nicht zugunsten deiner Geschäftsziele.
~40%
Der strategisch wichtigen URLs werden laut Botify pro Monat gecrawlt – auf unkontrollierten Enterprise-Domains
26%
Des Crawl-Budgets entfällt laut Botify auf Orphan Pages – Seiten ohne interne Verlinkung, die nie ranken werden
70–80%
Organischer Traffic verloren – HubSpot, 2024–2025, nach jahrelangem thematischem Wildwuchs ohne strukturelle Steuerung

Das HubSpot-Beispiel ist dabei besonders aufschlussreich – nicht weil es ein kleines Unternehmen ohne SEO-Ressourcen trifft, sondern weil es genau das Gegenteil ist. Ein Unternehmen, das jahrelang als Content-Marketing-Benchmark galt. Und trotzdem verlor es zwischen Ende 2024 und Frühjahr 2025 bis zu 80 Prozent seines organischen Traffics. Ein plausibler Erklärungsansatz ist die jahrelange Ausweitung auf thematisch schwach verbundene Inhalte, die beim Core Update systematisch an Wert verloren.

Botify beschreibt REI als Fall, in dem die indexierbare URL-Menge von rund 34 Millionen auf 300.000 reduziert wurde – mit deutlich verbesserter Crawl-Effizienz als direkte Folge. Keine Katastrophe. Kontrolle zurück.

Die drei Gesetze der SEO-Entropie

Wenn SEO-Entropie kein Zufall ist, sondern ein systemischer Zustand, folgt sie Mustern. Diese Muster lassen sich beschreiben – nicht als Checkliste, sondern als Prinzipien.

1
Entropie entsteht nicht durch Fehler. Sie entsteht durch Wachstum.
Produkt-Teams launchen Features. UX-Teams verändern Templates. Content-Teams publizieren Inhalte. Jede Entscheidung ist lokal sinnvoll – und erzeugt systemisch Unordnung. Es gibt keinen einzelnen Fehler, den man finden könnte. Es gibt Hunderte kleine, die in der Summe ein System erzeugen, das Google nicht mehr effizient versteht.
2
Entropie wächst schneller, als Organisationen Governance aufbauen.
Mit jeder neuen Kategorie, jedem neuen Feature, jedem neuen Marktplatz-Bereich wächst die Komplexität. Die Organisation reagiert mit mehr Prozessen, mehr Meetings, mehr Abstimmungsrunden. Aber mehr Prozesse ohne Ownership erhöhen Entropie – sie reduzieren sie nicht. Sie erzeugen das Gefühl von Kontrolle, während das System darunter weiter abbaut.
3
Entropie wird erst sichtbar, wenn operative Korrekturen nicht mehr reichen.
Es gibt keinen dramatischen Moment des Versagens. Die Sichtbarkeit flacht über 18 bis 24 Monate unmerklich ab – und bricht nach einem Core Update schlagartig ein. Aber der Einbruch ist nicht der Beginn des Problems. Google macht sichtbar, was die Organisation längst nicht mehr kontrolliert hat. Ab einem bestimmten Punkt hilft kein Quick Win mehr. Nur ein struktureller Eingriff.

Warum das kein technisches Problem ist

Hier liegt das größte Missverständnis in der Enterprise-SEO-Diskussion: SEO-Entropie wird als technisches Problem behandelt, weil ihre Symptome technisch sind. Tote Links, Duplicate Content, Crawl-Budget-Waste, fehlerhafte Canonicals. Alles lässt sich in einem Crawler-Report sehen. Also wird der Crawler beauftragt, der Report erstellt, die Tickets geschrieben.

Was dabei übersehen wird: Die Ursache ist keine der Maßnahmen auf der Ticket-Liste. Die Ursache ist die Organisation dahinter.

Ein konkretes Beispiel macht das deutlich. Faceted Navigation – Filterkombinationen im Shop – ist eines der häufigsten Entropie-Muster im E-Commerce. Welche technischen Hebel es gibt, um das zu kontrollieren – und in welcher Reihenfolge sie wirken – beschreibe ich in Technische Eingriffe gegen SEO-Entropie. Hier geht es zunächst um das Muster dahinter:

URLs – Faceted Navigation Explosion
/kategorie/sneaker
/kategorie/sneaker?groesse=42
/kategorie/sneaker?groesse=42&farbe=rot
/kategorie/sneaker?groesse=42&farbe=rot&marke=nike
/kategorie/sneaker?groesse=42&farbe=rot&marke=nike&sortierung=preis
/kategorie/sneaker?groesse=42&farbe=rot&marke=nike&sortierung=preis&seite=2

# Aus einer Produktkategorie werden ohne Steuerung
# schnell Tausende einzigartiger URLs im Google-Index.
# Keine davon wurde strategisch gebaut.
# Alle verbrauchen Crawl-Budget. Keine rankt.

Keine dieser URLs ist das Ergebnis einer bewussten SEO-Entscheidung. Sie sind das Nebenprodukt eines Systems ohne Kontrolle. Einer Entscheidung aus dem Produkt-Team – Filter sind gut für UX –, die niemand auf ihre SEO-Auswirkungen geprüft hat. Nicht aus Nachlässigkeit. Weil kein Prozess diese Frage gestellt hat. Und weil niemand in der Organisation die Verantwortung hatte, sie zu stellen.

Für das Management sieht das wie Produktwachstum aus. Für Google sieht es wie architektonische Unordnung aus.

Drei Muster zeigen sich dabei in fast jeder großen Organisation:

❌ Typischer Ist-Zustand
  • Seitentypen ohne benannten Owner – gebaut von Teams, die längst umstrukturiert wurden
  • SEO-Gates prüfen Einzelseiten, nicht Systemauswirkungen
  • Facets, Parameter, Paginierung unkontrolliert im Index
  • Entscheidungen werden verschoben, nicht getroffen
  • Prozesse erzeugen Verantwortungsgefühl ohne Verantwortlichkeit
✅ Nach strukturiertem Eingriff
  • Jeder Seitentyp hat einen benannten Owner mit Entscheidungsmandat
  • SEO-Impact-Checks vor jeder strukturellen Produktentscheidung
  • Crawl-Budget fokussiert auf wertschöpfende Seiten
  • Reduktion ist erlaubt – weniger Index kann mehr Sichtbarkeit bedeuten
  • Governance als Betriebszustand, nicht als Projekt

Das tiefste Muster hinter allen dreien ist dasselbe:

Das Ownership-Vakuum.

Seiten existieren, weil sie gebaut wurden – nicht weil jemand heute noch entschieden hätte, sie zu bauen. Kein Verantwortlicher, kein Mandat, keine Entscheidungsgrundlage. Und ohne Ownership keine Steuerung. Und ohne Steuerung: Entropie.

Was passiert, wenn niemand hinschaut

Das konsequenteste öffentliche Beispiel einer Entropie-Diagnose, das ich aus Deutschland kenne, kommt von Chefkoch. Hanns Kronenberg, Head of SEO bei Europas größter Food-Plattform, hat 2022 beschrieben, was passierte, nachdem sein Team ehrlich hingeschaut hatte: Fast 95 Prozent aller URLs wurden aus dem Index entfernt. Das Ergebnis war keine Katastrophe. Es war eine Sichtbarkeitssteigerung von rund 30 Prozent.

Was diese Zahl über den Ausgangszustand sagt: Über Jahre hatte niemand systematisch entschieden, welche Seiten bleiben sollen. Der Index war gewachsen, weil niemand ihn aktiv gesteuert hatte. Und er arbeitete gegen die Website – weil Google eine Domain als Ganzes bewertet. Google bewertet keine Seiten im luftleeren Raum. Schwache URL-Bestände verändern die Bewertung der Domain als Ganzes.

Eine Panda-Diät ist keine Lösung. Sie ist die Diagnose, die eine Lösung hätte verhindern können.
Was eine Panda-Diät ist – massives, strategisches De-Indexieren von schwachen Seiten – und wer entscheidet, was bleibt

Mit dem Helpful Content Update hat Google dieses Prinzip für die KI-Ära weiterentwickelt: Domänen, die systematisch schwache Inhalte produzieren, werden als Ganzes abgewertet – nicht nur einzelne Seiten. Das ist keine neue Regel. Es ist die konsequente Fortsetzung derselben Logik.

Das Entropie-Scoring-Modell

Die eigentliche Frage lautet nicht, was kaputt ist. Sondern ob eure Organisation die Website überhaupt noch steuern kann.

Das folgende Modell macht den Zustand eines Systems in fünf Dimensionen greifbar. Es ist kein Tool-Score – es ist ein Führungsinstrument: eine Sprache, um strukturelle Risiken sichtbar zu machen, bevor sie sich im Traffic materialisieren.

0–20
URL-Hygiene
Verhältnis indexierter zu indexierbaren URLs. Anteil verwaister Seiten. 404-Ketten. Canonical-Konflikte. Je größer die Differenz zwischen dem, was Google sieht, und dem, was relevant ist, desto höher der Entropie-Score. Kritisch ab: mehr als 50% indexierter URLs ohne organischen Wert.
0–20
Crawl-Effizienz
Anteil des Crawl-Budgets, der auf wertschöpfende Seiten entfällt. Crawl-Waste durch Parameter-URLs, Facettennavigation, unkontrollierte Paginierung. Kritisch ab: weniger als 40% des Crawl-Budgets auf strategisch relevanten Seiten.
0–20
Architektur-Konsistenz
Gibt es Seitentypen, die von keiner Übersichtsseite aus erreichbar sind? Hierarchie-Ebenen, die nur historisch gewachsen sind? Kritisch ab: Click-Depth über 4 für strategische Seiten, Orphan-Page-Anteil über 15%.
0–20
Ownership-Klarheit
Kann für jeden kritischen Seitentyp eine verantwortliche Person benannt werden? Gibt es dokumentierte Entscheidungswege für Indexierung, Löschung, Konsolidierung? Kritisch ab: mehr als 30% der Seitentypen ohne definierten Owner.
0–20
Veränderungsrate vs. Kontrollrate
Wie viele neue URLs entstehen pro Quartal – und wie viele davon werden bewusst gesteuert? Eine hohe Veränderungsrate bei niedriger Kontrollrate ist der stärkste Frühindikator für Entropie. Kritisch ab: mehr als 20% unkontrolliertes URL-Wachstum pro Quartal.
Score Zustand Was das bedeutet
0–30 Niedriges Risiko Das System ist unter Kontrolle. Entropie wird aktiv gesteuert.
31–60 Mittleres Risiko Einzelne Dimensionen zeigen Schwächen. Ohne Eingriff werden sie sich verstärken.
61–80 Hohes Risiko Das System befindet sich im schleichenden Verfall. Strukturelle Eingriffe sind notwendig.
81–100 Kritisch Der Kipp-Punkt ist erreicht oder überschritten. Quick Wins helfen nicht mehr.

Drei Fragen, die alles sagen

Die eigentliche Frage lautet nicht, was kaputt ist. Sondern ob eure Organisation die Website überhaupt noch steuern kann. Drei Fragen zeigen das schneller als jeder Crawler-Report.

Frage 1 · Systemgedächtnis
Welche Teile eurer Website würdet ihr heute nicht mehr bauen – und warum existieren sie trotzdem?
Wenn darauf keine klare Antwort kommt, gibt es ein Entropie-Problem. Jede große Website hat historische Bereiche, die niemand mehr aktiv pflegt – aber weiterhin Crawl-Budget verbrauchen und die Informationsarchitektur verwässern.
Frage 2 · Entscheidungskultur
Welche SEO-Entscheidung habt ihr im letzten Jahr bewusst nicht getroffen – und warum?
Wenn alles immer nur verschoben wurde, fehlt Steuerung. Eine reife Organisation trifft bewusste Entscheidungen – auch unbequeme. Sie löscht Seiten, konsolidiert Bereiche, sagt Nein zu Features. Wenn keine einzige solche Entscheidung im letzten Jahr gefallen ist, wächst die Entropie. Sicher.
Frage 3 · Ownership
Wer darf bei euch Nein sagen, wenn eine strukturell richtige SEO-Entscheidung dem kurzfristigen Business-Ziel widerspricht?
Wenn diese Person nicht existiert, gibt es keine Ownership. Ohne Ownership keine Steuerung. Ohne Steuerung: Entropie. Das ist keine Frage von SEO-Kompetenz. Es ist eine Frage von Organisationsdesign.

Diese drei Fragen sind kein Audit. Sie sind ein Spiegel. Wer alle drei klar beantworten kann, hat das System unter Kontrolle. Wer nicht, hat ein Problem – und dieses Problem heißt nicht SEO. Es heißt Organisationsdesign.

→ Zum Artikel

Fazit

SEO-Entropie klingt wie ein Fachbegriff. In Wirklichkeit beschreibt er etwas, das jede Führungskraft in einem größeren Unternehmen kennt – auch wenn sie keinen Namen dafür hatte. Das Gefühl, dass trotz Team, Budget und Prozessen irgendetwas nicht stimmt. Dass Rankings fallen, obwohl alle ihren Job machen. Dass nach jedem Google-Update Erklärungen kommen, aber keine Lösungen.

Der Grund ist nicht Google. Der Grund ist ein System, das schneller gewachsen ist als die Fähigkeit der Organisation, es zu verstehen und zu steuern. Die organische Sichtbarkeit einer Website ist kein Marketingkennwert. Sie ist ein Spiegel der Organisation dahinter.

Entropie ist kein Schicksal. Sie ist eine Entscheidung.
Jeden Tag, an dem niemand hinschaut, wächst sie.
Jeden Tag, an dem jemand die richtigen Fragen stellt, schrumpft sie.

Die Frage ist nicht, ob Entropie entsteht. Die Frage ist, wer sie stoppen darf.

→ Zum Beitrag → Zum Beitrag → Zum Beitrag