Die Frage nach WebP war nicht die eigentliche Frage
Es war keine strategische Frage. Kein Relaunch, kein großes Projekt. Ich wollte wissen, ob wir Bilder systematisch auf WebP umstellen können. Kleinere Dateien, bessere Ladezeiten, klarer SEO-Effekt. Also habe ich gefragt. Der Entwickler verwies auf das Plattform-Team. Das Plattform-Team auf den Media Service. Der Media Service auf das CMS. Das CMS-Team sagte: historisch gewachsen. Nach zwei Tagen Slack-Threads wusste ich mehr über interne Teamstrukturen als über WebP. Dann kam der Satz: „Das müsste man erstmal evaluieren, weil wir nicht genau wissen, wo das überall verwendet wird.“
Das war der Moment. Nicht weil niemand zuständig war. Jeder war zuständig – aber niemand durfte entscheiden.
SEO sieht es zuerst
SEO erkennt das Ownership-Vakuum zuerst. Nicht weil SEOs klüger wären als Product Manager oder Entwickler. Sondern weil Suchmaschinen Organisationsprobleme messbar machen. Jede Entscheidung, die eine Organisation nicht trifft, hinterlässt eine Spur – in der Crawl-Verteilung, in der Indexierungsstruktur, in den Seitentypen, die niemand gebaut hat und niemand löscht.
Das Problem großer Organisationen ist dabei selten völlige Verantwortungslosigkeit. Es ist verteilte Verantwortung ohne Entscheidungsmandat. Jeder ist informiert. Jeder ist beteiligt. Aber niemand ist befugt, eine Richtung zu setzen und die Konsequenz zu verantworten. Genau daraus entsteht das Ownership-Vakuum – und es ist strukturell, nicht persönlich.
Ich habe diesen Zustand von innen erlebt. Bei einer der sichtbarsten Websites Deutschlands, mit hunderten Millionen URLs und Millionen monatlicher Besucher. Und ich erlebe ihn heute von außen, in der Beratung großer Retail- und E-Commerce-Unternehmen. Das Muster ist erstaunlich konsistent – unabhängig von Branche, Teamgröße oder Budget.
Für diesen Zustand gibt es einen Begriff: SEO-Entropie. Der schleichende Verfall der organischen Leistungsfähigkeit einer Website – nicht durch einzelne Fehler, sondern durch die kumulative Wirkung vieler kleiner, unkoordinierter Entscheidungen im Zeitverlauf. Und ihr häufigster Auslöser ist selten die Technik. Es ist ein Ownership-Vakuum.
Der Fingerabdruck im Crawl
Eine Randbedingung vorab: Kleine Websites verzeihen Entropie. Googlebot crawlt bei 5.000 URLs sowieso alles – ein paar verwaiste Filterseiten fallen nicht ins Gewicht. Was hier beschrieben wird, gilt ab einer bestimmten Komplexitätsschwelle: Enterprise-Setups mit 100.000+ URLs, dynamischen Filtern, Faceted Navigation, programmatisch erzeugten Seitentypen. Ab dieser Schwelle erstickt Entropie systematisch. Darunter ist sie ein Schönheitsfehler.
In mehreren großen Plattform-Setups, die ich analysiert habe, lag der Anteil des Googlebot-Crawls auf Seitentypen ohne klaren Business-Owner oder ohne messbaren Wert wiederholt in einer Größenordnung von 30 bis 50 Prozent. Das ist keine präzise Studie – es ist eine Beobachtung aus der Praxis, die ich immer wieder in ähnlicher Form mache.
| Seitentyp | Typischer Crawl-Anteil | Ownership-Status |
|---|---|---|
| Transaktionale Seiten (Produkte, Kategorien) | 35–50 % | Meist klar |
| Navigations- und Systemseiten | 10–20 % | Oft geteilt |
| Filterkombinationen, Parameter-URLs | 10–20 % | Selten definiert |
| Pagination-Endlosketten, interne Suchseiten | 5–15 % | Niemand |
| Alte Kampagnen-Pages, historische Kategorievarianten | 5–10 % | Niemand – aber auch niemand löscht |
Der entscheidende Satz ist nicht in dieser Tabelle.
Diese Seiten wurden nicht gebaut. Sie entstanden.
Niemand hat sie gewollt. Niemand hat sie gestoppt. Das ist der Unterschied. Das ist Entropie.
In Logfiles sieht das selten dramatisch aus – sondern repetitiv. Googlebot crawlt dieselben Filterkombinationen erneut, läuft durch tiefe Pagination-Ketten ohne realen organischen Wert, ruft interne Suchseiten ab, die weder Nachfrage noch Produktwert besitzen, und investiert Requests in historische Kategorievarianten, die niemand mehr aktiv betreibt. Kein einzelner Fehler. Ein dauerhaft falscher Verteilungszustand. Und genau das macht das Ownership-Vakuum so tückisch: Es produziert kein sichtbares Ereignis. Es verschiebt langsam das Verhältnis zwischen dem Crawl-Budget, das eine Website benötigt, und dem, das sie tatsächlich nutzt.
Crawl-Waste bedeutet dabei nicht einfach „viel unwichtiger Crawl“. Es bedeutet, dass Requests systematisch in URL-Räume fließen, deren Existenz intern nicht mehr aktiv begründet wird. Die technischen Mechanismen zur Behebung existieren fast immer – noindex, canonical, robots directives, URL-Regeln. Das Problem ist selten die Abwesenheit eines Werkzeugs. Es ist die fehlende Entscheidung, es durchzusetzen. Und Entscheidungen setzen Ownership voraus.
Das ist kein Muster. Das ist ein Mechanismus.
Was ich beschreibe, ist keine Beobachtung, die ich in ein paar Projekten gemacht habe. Es ist ein geschlossener, selbstverstärkender Regelkreis, der sich ohne externen Eingriff nicht von selbst korrigiert.
Kein Owner bedeutet: keine Löschentscheidung. Keine Löschentscheidung bedeutet: die URL bleibt im System. Was im System bleibt, wird gecrawlt. Was gecrawlt wird, fragmentiert das Crawl-Budget. Was das Crawl-Budget fragmentiert, entzieht wichtigen Seiten Kapazität. Seiten, die Kapazität verlieren, verlieren Rankings. Wenn Rankings fallen, reagiert die Organisation taktisch: neue Inhalte, neue Optimierungen, neue Meetings. Aber kein Owner wird bestimmt. Der Regelkreis schließt sich.
Das „R+“ im Zentrum steht für reinforcing loop – verstärkender Regelkreis. Das ist Systemdynamik-Notation, keine Metapher. Ein verstärkender Regelkreis ist per Definition nicht selbstkorrigierend. Er braucht einen externen Eingriff. Und in diesem Fall ist der einzige Eingriff, der strukturell wirkt, derselbe, der am Anfang fehlt: jemand, der entscheiden darf – und die Konsequenz dafür verantwortet.
Das stärkste Gegenargument
Ein erfahrener CDO würde hier einhaken. Und er hätte recht damit.
Das Argument lautet in etwa so: „Ownership klingt gut. Aber zu starke Ownership zerstört Skalierbarkeit. Die Prozesse, die du kritisierst, existieren aus Gründen. Architektur-Änderungen haben kaskadierende Effekte. Ein einzelnes Team kann nicht alle Abhängigkeiten sehen. Was du als Ownership-Vakuum interpretierst, ist in vielen Fällen Risikomanagement.“
Das ist kein Strohmann. Es ist das präziseste Argument gegen diese These. Und in Teilen stimmt es: Viele SEO-Empfehlungen ignorieren technische Schulden, regulatorische Constraints, Produkt-Roadmaps, die aus guten Gründen existieren. Zentralisierte Ownership kann lokale Optimierungen blockieren, die global schaden. Das ist real.
Aber hier ist der entscheidende Unterschied: Risikomanagement ohne Ownership ist keine Risikovermeidung. Es ist Risikodelegation nach unten – bis das Risiko unsichtbar wird. Wenn niemand entscheiden darf, verschwindet das Risiko nicht. Es akkumuliert sich – in verwaisten URLs, wachsendem Crawl-Waste und einer Indexierungsstruktur, die niemand mehr vollständig kennt. Das ist kein gesichertes System. Es ist ein System, das seinen eigenen Zustand nicht mehr versteht.
Ownership bedeutet dabei nicht, dass eine einzelne Person alle Abhängigkeiten allein überschaut. Ownership heißt, dass am Ende trotzdem eine Entscheidung getroffen werden kann – statt dass Verantwortung im System verdunstet. Der Unterschied liegt nicht in der Zentralisierung. Er liegt darin, ob Nicht-Entscheidung eine bewusste Wahl ist oder der Standardzustand.
Aber warum ist Nicht-Entscheidung so oft der Standardzustand? Nicht aus Bequemlichkeit. Aus Anreizstruktur. In fast allen Organisationen wird der Launch neuer Features, Seiten und Produkte belohnt: mit Sichtbarkeit, mit Beförderungen, mit Applaus im All-Hands. Das Löschen von Altlasten, das Verhindern von Schrott, die stille Governance-Arbeit – das erscheint auf keinem Management-Dashboard. Growth wird gemessen. Cleanup wird ignoriert. Solange das so bleibt, ist das Ownership-Vakuum kein Versagen von Einzelpersonen. Es ist das rationale Ergebnis eines Anreizsystems, das Entropie strukturell belohnt.
Melvin Conway hat 1967 beobachtet, dass Organisationen Systeme entwerfen, die ihre eigenen Kommunikationsstrukturen abbilden. Conway’s Law – wie dieser Befund heute heißt – gilt für Software-Architektur. Er gilt aber genauso für URL-Architekturen. Die Indexierungsstruktur einer großen Website ist kein technisches Artefakt. Sie ist ein Spiegel des Organigramms: zersplittert, historisch gewachsen, ohne übergeordnete Instanz, die das Ganze verantwortet. SEO-Entropie ist Conway’s Law, angewendet auf Crawl-Verhalten.
Zehn Minuten. Ein Satz. Tausende URLs.
Ich habe auch das Gegenteil erlebt.
Es ging um automatisch generierte Aggregationsseiten. Der Vorschlag aus Produktperspektive: „Wir könnten diese Seiten für jede Kombination erzeugen.“ Klassischer Skalierungsgedanke. Mehr URLs, mehr Einstiegspunkte, mehr Reichweite. In der Logik, die die meisten großen Organisationen antreibt, klingt das vernünftig.
In diesem Fall gab es klare Ownership. Ein Director Product mit Entscheidungskompetenz war im Raum. Die Diskussion dauerte ungefähr zehn Minuten. Dann kam der Satz: „Wenn diese Seiten kein echtes Angebot oder keinen echten Use Case haben, bauen wir sie nicht.“
Das war alles. Keine Evaluation-Phase. Kein Stakeholder-Ping-Pong. Kein Ticket, das drei Sprints später irgendwo verschwunden ist. Tausende potenzieller URLs wurden nie gebaut. Das Crawl-Budget blieb auf den Seitentypen, die tatsächlich rankten. Die interne Linkstruktur blieb stabil. Der Effekt war nicht erst in Quartalen messbar – weil er im Vorhinein verhindert wurde. Das ist der Punkt.
Der Unterschied zu all den anderen Projekten war nicht Wissen. Es war nicht Kompetenz. Es war nicht Budget. Der Unterschied war: jemand durfte Nein sagen. Und tat es.
Genau das ist der entscheidende Mechanismus – nicht nur auf taktischer Ebene, sondern auch dort, wo es um ganze URL-Bestände geht. Was Hanns Kronenberg bei Chefkoch entschieden hat, folgt derselben Logik, nur in einer anderen Größenordnung. In meinem Artikel über die SEO-Panda-Diät habe ich beschrieben, wie Chefkoch fast 95 Prozent seiner URLs aus dem Google-Index entfernt hat und danach rund 30 Prozent mehr Sichtbarkeit gewann. Das war keine technische Entscheidung. Es war eine Ownership-Entscheidung: Wir wissen besser als Google, welche URLs wertvoll sind – und wir entscheiden das aktiv. Dieser Satz ist nur möglich, wenn jemand das Mandat hat, ihn zu sprechen – und zu verantworten. Kronenberg hatte beides.
Drei Fragen, die alles zeigen
Keine Handlungsempfehlungen. Kein Zehn-Punkte-Plan. Nur drei Fragen – die zeigen, ob das Problem in deiner Organisation existiert. Nicht irgendwann. Jetzt.
Diese Fragen sind kein Audit. Sie sind ein Spiegel. Sie zeigen nicht, was an einer Website kaputt ist. Sie zeigen, ob eine Organisation in der Lage ist, ihre eigene Website zu verstehen und aktiv zu steuern – oder ob sie ihr nur noch folgt.
Irgendwo in deiner Organisation läuft gerade eine Anfrage durch vier Teams. Vielleicht über Bildformate. Vielleicht über URL-Strukturen. Vielleicht über einen Seitentyp, den niemand mehr wirklich braucht. Die Anfrage wird weitergeleitet. Jedes Team ist zuständig. Niemand entscheidet. Und Googlebot kommt morgen wieder.