Warum Googles kleine Änderung große Folgen für Marketing, SEO und KI hat
Google hat still und leise eine Änderung vorgenommen, die auf den ersten Blick technisch wirkt – aber in Wahrheit weitreichende Konsequenzen für Marketing, SEO und datenbasierte Entscheidungen hat. Der URL-Parameter num=100, mit dem sich bislang bis zu 100 Suchergebnisse pro Anfrage abrufen ließen, funktioniert nicht mehr.
Was zunächst wie eine unscheinbare Anpassung aussieht, entpuppt sich bei näherem Hinsehen als ein massiver Einschnitt in die Datenfreiheit des offenen Webs.
Was hat sich technisch verändert?
Bisher konnten SEO-Tools, Entwickler und KI-Systeme den Google-Suchindex analysieren, indem sie über &num=100 pro Abfrage gleich 100 Ergebnisse erhielten. Damit ließen sich Suchergebnisse effizient und umfassend auswerten – beispielsweise um:
- Keyword-Rankings über viele Seiten hinweg zu erfassen,
- Veränderungen im Suchverhalten zu erkennen,
- und maschinelle Modelle (z. B. für KI-Training oder Contentanalyse) mit großen Datenmengen zu füttern.
Seit Herbst 2025 liefert Google jedoch nur noch 10 Ergebnisse pro Anfrage – der Parameter wird ignoriert. Wer also weiterhin 100 Ergebnisse möchte, muss zehnmal so viele Anfragen stellen.
Das klingt banal, bedeutet aber in der Praxis:
- deutlich längere Laufzeiten für Tools,
- höhere Kosten für Infrastruktur und API-Zugriffe,
- und eingeschränkte historische Vergleichbarkeit.
Gerade kleinere SEO-Anbieter und Datenanalysten geraten dadurch unter Druck: Die Zahl der Abfragen steigt, die Kosten explodieren – während Google seine Schnittstellen immer stärker kontrolliert.
Warum das Marketing das betrifft
Man könnte meinen: „Na gut, dann sehen wir eben nur noch die Top-10-Ergebnisse.“
Doch genau hier liegt das Problem.
Diese technische Limitierung verändert, wie wir Suchdaten interpretieren. Denn:
- Rankings jenseits der Top 20 fallen oft aus Tools und Reports heraus.
- Langfristige Keywordtrends werden verzerrt oder brechen ab.
- Sichtbarkeitsindizes vieler Tools verlieren ihre Aussagekraft.
Das betrifft alle, die strategisch mit SEO- oder Contentdaten arbeiten:
- Marketing-Teams, die Kampagnen-Performance messen,
- Unternehmen, die auf datenbasierte Content-Strategien setzen,
- Agenturen, die Rankingveränderungen für Kunden belegen müssen.
Kurz gesagt: Ein kleiner Parameter schneidet die Sicht auf die Suchrealität drastisch zusammen.
Ein Puzzleteil in Googles größerer Strategie?
Wer genauer hinsieht, erkennt ein Muster.
In den letzten Jahren hat Google sukzessive:
- Datenquellen reduziert oder hinter APIs verborgen,
- KI-generierte Suchergebnisse (SGE) priorisiert,
- und so die Transparenz für unabhängige Akteure eingeschränkt.
Mit dem Wegfall von num=100 wird dieses Bild nun noch klarer:
Google kontrolliert zunehmend, wer welche Daten wie sehen darf.
Natürlich kann man argumentieren, dass dies eine Schutzmaßnahme gegen Scraping und Datenmissbrauch sei – und ja, das spielt sicher eine Rolle. Aber gleichzeitig stärkt es Googles Position als Gatekeeper der „digitalen Wahrheit“. Denn wer die Datenhoheit besitzt, bestimmt, welche Narrative sichtbar sind – und welche im digitalen Schatten verschwinden.
Auswirkungen auf KI und datengetriebene Systeme
Auch Künstliche Intelligenz ist betroffen.
Viele KI-Anbieter (darunter OpenAI, Mistral & Co.) haben SERP-Daten als Signalquellen für Trainings oder Modelle genutzt – etwa um Themenrelevanz, Contentqualität oder Nutzerintentionen zu bewerten.
Weniger Datenzugriff bedeutet:
- KI-Modelle werden selektiver trainiert,
- Bias und Monopolisierung der Datenquellen nehmen zu,
- Innovationen werden gebremst, weil unabhängige Analysen schwieriger werden.
Langfristig kann das die Qualität und Vielfalt maschineller Antworten beeinflussen.
Denn: Wenn die Trainingsdaten kontrolliert sind, werden auch die Antworten kontrollierbarer.
Was Marketer jetzt tun sollten
- Rankingdaten neu kalibrieren:
Alte Reports sind nicht mehr direkt vergleichbar. Passe Benchmarks an die neue Datenbasis an. - Auf Klicks statt Impressionen achten:
Die reine Sichtbarkeit in Suchergebnissen wird ungenauer – echte Interaktion zählt mehr. - Toolanbieter prüfen:
Viele Tools (z. B. Ahrefs, Sistrix, Semrush) müssen ihre Systeme umstellen. Prüfe, wie sie mit der Änderung umgehen. - Alternative Datenquellen einbeziehen:
Nutze Plattformen wie Bing Webmaster Tools oder eigene SERP-Crawls über APIs – dort ist der Zugriff teils noch flexibler. - Wissensvorsprung aufbauen:
In Zeiten eingeschränkter Daten wird strategisches Denken wichtiger als reine Datentiefe. Content mit echter Nutzerrelevanz gewinnt.
Fazit: Zwischen Kontrolle und Verantwortung
Der Wegfall von num=100 ist mehr als eine technische Randnotiz. Er steht symbolisch für eine Entwicklung, in der Kontrolle zunehmend Transparenz ersetzt. Für das Marketing bedeutet das: Wir müssen umdenken. Weg von der Illusion vollständiger Datenhoheit – hin zu strategischer Interpretation, Kreativität und Diversifizierung der Quellen. Denn eines bleibt sicher: Wer heute Daten kontrolliert, kontrolliert die Wahrnehmung. Und wer sie kritisch hinterfragt, kontrolliert die Zukunft.
