Warum das mein Lieblingsthema ist
Ich habe in meiner In-House-Zeit Hunderte Entscheidungen begleitet, was mit welchen Seiten passiert. Ich habe Stakeholder-Runden moderiert, in denen niemand sagen konnte, wem die fraglichen Seiten überhaupt gehören. Ich habe erlebt, wie Cleanup-Projekte an internen Abhängigkeiten gestorben sind, die niemand vor dem ersten Meeting kannte. Und ich habe beobachtet, wie genau dieselben Diskussionen – ob Seite X weg kann oder nicht – in unterschiedlichen Unternehmen zu beinahe identischen Mustern führen.
Deswegen ist die Panda-Diät eines meiner liebsten Themen. Nicht wegen der Technik. Sondern wegen dem, was sie über eine Organisation verrät.
Als ich 2022 den LinkedIn-Post von Hanns Kronenberg sah – „Die SEO Panda Diät läuft erfolgreich. Weniger ist mehr bei Google! Wir nähern uns dem Ziel von 99 % deindexierter Seiten“ – war meine erste Reaktion: endlich macht das jemand groß und öffentlich. Kronenberg ist Head of SEO bei Chefkoch, Europas größter Food-Plattform. Was er dort umgesetzt hat, ist das konsequenteste Beispiel einer Panda-Diät, das ich in Deutschland kenne. Und er hat in einem Podcast-Interview mit Fabian Jaeckert erklärt, warum: fast 95 % aller URLs aus dem Index – kombiniert mit einer gezielten Qualitätsverbesserung der verbliebenen Seiten. Das Ergebnis: rund 30 % mehr SEO-Sichtbarkeit.
— Hanns Kronenberg, Head of SEO bei Chefkoch · Podcast-Interview mit Fabian Jaeckert
Was die Panda-Diät ist – und was sie nicht ist
Der Begriff stammt aus der Zeit nach dem Google-Panda-Update, das im Februar 2011 ausgerollt wurde. Panda war Googles Reaktion auf eine Welle an inhaltsschwachen Seiten, die massenhaft für Long-Tail-Keywords gebaut wurden, ohne echten Mehrwert für Nutzer zu liefern. Die Reaktion der klugen Websites war nicht, mehr zu produzieren – sondern radikal weniger zu behalten.
Diese Denkweise ist heute relevanter denn je. Google hat Panda 2016 als festen Bestandteil des Core-Algorithmus bestätigt – statt wie zuvor als separater Refresh ausgerollt. Es gibt keinen isolierten „Panda-Score“ mehr, den man beobachten kann; das Prinzip ist Bestandteil dessen, wie Google Inhaltsqualität dauerhaft bewertet. Mit dem Helpful Content Update hat Google das für die KI-Ära weiterentwickelt: Domänen, die systematisch schwache Inhalte produzieren, werden als Ganzes abgewertet – nicht nur einzelne Seiten.
Die Panda-Diät ist kein taktischer Trick. Sie ist die konsequente Antwort auf ein systemisches Problem: Websites, die über Jahre gewachsen sind, haben Millionen Seiten angesammelt, von denen ein Großteil keinen messbaren Wert mehr liefert – weder für Nutzer noch für Google. Das zieht die Seiten nach unten, die eigentlich gut sind.
Seitenqualität ist mehr als organische Visits
Hier kommt der Punkt, der mir am wichtigsten ist – und der in vielen Cleanup-Projekten fehlt oder zu kurz greift: Ob eine Seite im Index bleiben soll, lässt sich nicht allein an organischen Visits festmachen.
Ich habe Seiten begleitet, die null organische Klicks in zwölf Monaten hatten – und trotzdem Bestandsschutz verdient haben. Weil sie in der Informationsarchitektur eine zentrale Rolle spielen: Nutzer, die über andere Kanäle auf die Website kommen, navigieren über diese Seiten weiter. Sie sind Verteiler. Hubs. Manchmal die letzte Seite vor einer Conversion. Diese Seiten zu löschen wäre ein Fehler. Auf noindex zu stellen – in vielen Fällen die richtige Entscheidung.
Die Frage ist nicht „Hat diese Seite Traffic?“ sondern: Welche Rolle spielt diese Seite im System?
| Szenario | Empfehlung | Begründung |
|---|---|---|
| Keine Visits, kein Potenzial, keine IA-Rolle | Löschen / Redirect | Keine Funktion mehr. Crawl-Budget-Waste. |
| Keine organischen Visits, aber Verteiler-Funktion in IA | Noindex | Intern nützlich, kein Google-Traffic nötig. Crawl-Budget schonen. |
| Schwache organische Visits, aber hohe Conversion-Rate | Noindex + verbessern | Nicht für Ranking, aber für Nutzer relevant. Qualität steigern, dann re-indexieren. |
| Traffic vorhanden, aber Bounce-Rate >85%, Verweildauer <10 Sek. | Überarbeiten oder Löschen | Schlechtes UX-Signal. Zieht andere Seiten nach unten. |
| Historische Seiten, Owner unbekannt | Eskalieren, dann entscheiden | Ohne Owner keine fundierte Entscheidung möglich. |
Das eigentliche Problem: Wer hat ein Steak dran?
In jedem Enterprise-Cleanup-Projekt stoße ich auf dasselbe Muster. Die technische Analyse ist oft in zwei Wochen fertig. Was dann folgt, kann Monate dauern: die Klärung, wem diese Seiten gehören.
Das meine ich nicht im juristischen Sinn. Ich meine: Wer trägt inhaltliche Verantwortung? Wer hat entschieden, dass diese Seite existiert? Wer kann entscheiden, dass sie verschwindet? Und wen muss man fragen, bevor man anfasst?
In großen Organisationen – und das sage ich aus eigener In-House-Erfahrung – ist die Antwort auf diese Fragen erschreckend häufig: niemand. Die Seiten wurden von Teams gebaut, die längst umstrukturiert wurden. Sie hängen an Systemen, die mehrere Abteilungen berühren. Jeder hat ein Steak an diesen Seiten (ja, bewusst mit e – Stakeholder halt) – aber wer dieses Steak serviert, weiß keiner. Dieses strukturelle Muster beschreibe ich als Ownership-Vakuum: Seiten ohne Verantwortliche, Entscheidungen ohne Mandat.
- Hunderttausende URLs, von denen 5–10 % organischen Traffic liefern
- Owner für die meisten Seitentypen unklar oder veraltet
- Crawl-Budget zu 40–70 % auf nicht-wertschöpfenden Seiten
- Keine Entscheidungslogik, was weg kann
- Historische Seiten als „berühren wir nicht“-Tabu
- Schlanker Index mit klar definierten Seitentypen
- Jeder Seitentyp hat einen benannten Owner
- Crawl-Budget fokussiert auf wertschöpfende Seiten
- Noindex-Logik für intern relevante, aber organisch schwache Seiten
- Stabilere Rankings, weniger Rauschen durch Update-Zyklen
2026: Das Problem ist identisch geblieben
Ich höre manchmal den Einwand: Panda ist von 2011, das ist Geschichte. Meine Antwort: Das Prinzip ist nicht Geschichte. Die Technologie hat sich verändert – das Problem nicht.
Auch 2026 sehe ich in großen Unternehmen denselben Zustand: Keine einheitliche Organisation, die klar definiert, welche Stakeholder an welchen Seitentypen beteiligt sind. Historisch erstellte Seiten, die niemand anfasst – aus Angst vor Abhängigkeiten, aus Respekt vor dem Aufwand, aus schlichtem Nicht-Wissen, was daran hängt. Und ein Google-Index, der als dumper Spiegel dieses Zustands funktioniert: er nimmt auf, was reinkommt, und bewertet es als Ganzes.
Das ist keine Frage von Team-Größe oder Budget. Es ist eine Frage von Governance. Und Governance ist in den meisten SEO-Projekten die blinde Seite.
Panda war immer ein UX-Signal – kein SEO-Trick
Was viele vergessen: Google hat Panda nicht gebaut, indem es Links oder Wörter gezählt hat. Google hat Quality Rater befragt. Echte Menschen, die echte Fragen beantworten sollten: Würdest du dieser Seite vertrauen? Würdest du sie weiterempfehlen? Würdest du hier kaufen oder dich anmelden?
Das sind keine SEO-Fragen. Das sind Produktfragen. UX-Fragen. Vertrauensfragen. Und genau das ist der Kern: Eine Panda-Diät, die nur auf organische Visits schaut, führt zu falschen Entscheidungen. Was zählt, ist die Nutzererfahrung – und ob eine Seite einen echten Beitrag für den Menschen leistet, der sie aufruft.
Bounce Rate, Engagement Time, Return-to-SERP-Rate – das sind keine bestätigten Google-Rankingfaktoren, aber sie sind praktische Proxy-Signale, die aus Nutzersicht zeigen, ob eine Seite die Suchintention erfüllt hat. Und Google hat über Quality Rater, Nutzerstudien und eigene Systeme immer wieder signalisiert, dass genau diese Art von Nutzerzufriedenheit das ist, was bewertet wird. Kein Structured-Data-Markup rettet eine Seite, auf der der Nutzer nach drei Sekunden wieder weg ist.
Die Kernfrage ist: Würde ein Nutzer, der diese Seite aufruft, sagen: „Das war genau das, was ich gesucht habe“?
Entscheidungslogik strukturieren: ein Beispiel
In Projekten, die ich begleite, arbeiten wir mit einer datengetriebenen Entscheidungsmatrix. Das Grundprinzip – vereinfacht als Pseudo-Python – sieht so aus:
# Panda-Diät Entscheidungslogik
def panda_decision(page):
clicks = page["organic_clicks_12m"]
potential = page["keyword_potential"] # True/False
ia_role = page["ia_role"] # "hub", "support", "none"
conversion = page["conversion_rate"] # 0.0–1.0
ux_score = page["ux_engagement"] # 0.0–1.0 (Verweildauer, Scroll, etc.)
has_owner = page["owner_defined"] # True/False
if not has_owner:
return "⚠️ ESKALIEREN – kein Owner definiert, keine Entscheidung möglich"
# Seiten mit echter Nutzerfunktion: noindex, nicht löschen
if ia_role in ["hub", "support"] or conversion > 0.04:
if clicks < 20 and not potential:
return "🚫 NOINDEX – intern relevant, kein organischer Wert"
return "✅ BEHALTEN – strategisch relevant"
# Schlechte UX trotz Traffic: überarbeiten oder raus
if clicks > 100 and ux_score < 0.2:
return "🛠️ ÜBERARBEITEN – Traffic, aber schlechte UX-Signale"
# Keine Funktion mehr: weg
if clicks == 0 and not potential and ia_role == "none":
return "🗑️ LÖSCHEN oder REDIRECT"
return "🔍 MANUELL PRÜFEN"
Die Diät ist kein Projekt – sie ist ein Betriebszustand
Das ist der Punkt, den ich nach vielen Projekten am stärksten betonen würde: Eine einmalige Panda-Diät löst das Problem für sechs bis zwölf Monate. Danach ist der Index wieder gewachsen – wenn sich die Organisation nicht verändert hat.
Was wirklich zählt, ist die Frage: Wer entscheidet fortan, bevor eine neue Seite live geht, ob sie in den Index gehört? Gibt es eine Stelle im Unternehmen, die dieses Mandat hat? Gibt es eine Logik, die nicht bei jedem neuen Seitentyp neu diskutiert werden muss?
Ohne das ist jede Diät temporär. Mit dem ist sie Struktur.
Weiterführende Quellen
Die beiden Hauptquellen dieses Artikels – Kronenbergs LinkedIn-Post und das Podcast-Interview mit Fabian Jaeckert – sind oben im Text direkt verlinkt. Darüber hinaus:
- → Google – Creating helpful, reliable, people-first content – Googles eigene Dokumentation zu den Qualitätsprinzipien hinter Panda und Helpful Content Update.
- → Google Search Quality Rater Guidelines (PDF) – Das Dokument, auf dem Googles Qualitätsverständnis aufbaut. Wer verstehen will, wie Panda dachte, liest hier nach.
Fazit
Die Panda-Diät klingt wie ein SEO-Hebel. In Wirklichkeit ist sie ein Spiegel. Wer nicht sagen kann, welche Seiten warum existieren – wer keine Antwort auf die Frage hat, welche Stakeholder welche Entscheidung treffen dürfen –, der hat kein Index-Problem. Der hat ein Governance-Problem.
Und das löst kein Tool. Kein Crawler. Keine Noindex-Direktive. Das löst eine Organisation, die bereit ist, ehrlich hinzuschauen. 2011 war das neu. 2026 ist es immer noch selten.
Wer trägt inhaltliche Verantwortung für eine Seite? Warum große Organisationen systematisch keine Antwort auf diese Frage haben – und was das für SEO, Governance und Cleanup-Projekte bedeutet.
→ Zum Beitrag