Skip to main content

Von Nerds für Nerds: Was wir von der Tech SEO Summit 2025 mitgenommen haben

2. Mai 2025


Was ist die Tech SEO Summit?

Die Tech SEO Summit ist eine Fachkonferenz, die sich ganz den technischen Aspekten der Suchmaschinenoptimierung widmet. Sie bietet einen Tag voller Vorträge, praxisorientierter Sessions und den Austausch mit anderen SEO-Profis. Ein Highlight der Veranstaltung ist die „Top-Tech-Tipp“-Competition, bei der innovative Ansätze und kreative Lösungen im technischen SEO vorgestellt werden. Themen wie Crawl-Budget, JavaScript-Rendering und Logfile-Analysen stehen dabei im Fokus und machen die Konferenz zu einem wichtigen Treffpunkt für alle, die sich mit den tiefergehenden Herausforderungen und Möglichkeiten im SEO-Bereich beschäftigen.

Hinter der Tech SEO Summit stehen Tobias Schwarz, Gerd Riesselmann und Sören Bendig, die zusammen auf über 70 Jahre Erfahrung in den Bereichen SEO, Technologie und digitales Marketing zurückblicken. Als Gründer der Software Audisto bringen sie nicht nur fundiertes Fachwissen mit, sondern auch die Leidenschaft, SEOs dabei zu unterstützen, Websites effizienter und nutzerfreundlicher zu gestalten.

tech-seo-summit-2025

Die Tech SEO Summit ist nicht nur eine Konferenz, sondern ein Ort, an dem technisches SEO im Detail beleuchtet wird. Teilnehmer:innen profitieren von neuen Impulsen, einem starken Netzwerk und praktischen Erkenntnissen, die sie direkt in ihre Arbeit einfließen lassen können.

Vorträge zu technischem SEO auf höchstem Niveau: die Speaker und ihre Themen der diesjährigen Konferenz

Die Tech SEO Summit 2025 überzeugte mit einer beeindruckenden Auswahl an Speakern. Mark Williams-Cook erklärte Googles Algorithmen auf innovative Weise, während Martin Splitt von Google praktische Tipps zur JavaScript-Optimierung gab. Gus Pelogia zeigte, wie man effektive A/B-Tests für große Websites durchführt, und Roxana Stingu präsentierte clevere Automatisierungsstrategien. Dan Taylor erklärte den Umgang mit komplexen Crawling-Problemen, und Pascal Landau tauchte tief in die Welt organischer Produktlisten ein. Die Vorträge boten wertvolle Insights und machten die Summit zu einem Highlight für technische SEOs!

Mark Williams-Cook: Conceptual models, video games, and Google exploits

Der Vortrag von Mark Williams-Cook bot faszinierende Einblicke in die Mechanismen hinter Googles Algorithmen und wie sie in der Realität abweichen können.

Mark verglich SEO mit seinen Erfahrungen mit Videospielen von früher. Du lernst zunächst alle Grundlagen des „Spiels“, kennst es in und auswendig und denkst, dass du alles kannst, alles weißt, es mit jedem aufnehmen kannst und besser sein wirst. Da du das Handbuch von vorne bis hinten auswendig kannst.

Doch versuchst du, dich online mit anderen zu messen, merkst du schnell, dass deine Gegner online anders spielen, als es das Spiel vorgesehen hat. Viele deiner Gegner wenden 90% der Spielmechaniken, die das Spiel bietet, gar nicht an und trotzdem schaffen sie es dich zu schlagen.

mark-williams-cook-conceptual-models-video-games-and-google-exploits

Und SEO funktioniert genauso: Obwohl du deine Seite nach den Best Practices optimierst und alles richtig machst, was dir Suchmaschinen wie Google vorgeben, schaffst du es manchmal nicht an deinen Wettbewerbern vorbeizukommen. Nicht alle Wettbewerber befolgen die Best Practices – und ab und zu funktioniert es trotzdem und sie erzielen bessere Rankings als du.

Was kannst du da machen? Du suchst Hilfe und Tipps in der Community. Aber die SEO-Community ist fragmentiert. Es gibt mehrere Meinungen und auch Falschinformationen. Das macht es schwierig, vertrauenswürdige Informationen zu finden. Die Frage „Wem kann ich glauben?“ kommt auf.

Googles Ziele und Ranking-Realität

Das gesetzte Ziel für Videospielentwickler ist es eine gute Spielerfahrung für die Spielenden zu schaffen. Sie sollen den größten Spaß ihres Lebens mit dem Spiel haben. Auf der anderen Seite möchten die Entwickler aber auch so viel Geld wie möglich mit dem Spiel verdienen. Also werden Teile des Spiels rausgezogen und über Microtransactions, DLC (Downloadable Content) und Spielerweiterungen verkauft. Daher liegt das Ziel des Spaßes für die Nutzenden irgendwo dazwischen.

Um diese Analogie auf SEO zu übertragen, zeigt Mark, dass Googles Ziel einerseits ist, die besten und hilfreichsten SERPs bereit zu stellen– andererseits möchte Google aber auch möglichst viel Geld verdienen.

Daher kann man davon ausgehen, dass die SERPs irgendwo zwischen super hilfreich und unnütz angesiedelt sind.

Mit Hilfe von Updates versucht Google ständig die Qualität der SERPs zu optimieren.

Exploiting Google

Wenn Regeln und Strategien in einem Videospiel festgelegt werden, verwenden häufig viele Spielende die gleichen Strategien und es entsteht eine sogenannte Meta (Best Practices, wie das Spiel gespielt wird).

Jedoch nutzen einige die Meta aus und entwickeln eigene Spielweisen, um sich so einen Vorteil gegenüber den anderen zu verschaffen und an die Spitze der Bestenliste zu gelangen.

Das geschieht auch im SEO. Mit der Einführung und dem Durchbruch von ChatGPT und Co. wurde massiv Content erstellt und in kurzer Zeit konnten diese KI-Seiten übermäßig hohen Traffic erzielen. Google musste also mit dem Helpful Content Update dagegen steuern. Anschließend konnte beobachtet werden, dass Seiten mit hohen SEO-Metriken und niedrigen Markenwerten abgestraft wurden.Google behauptet zwar „Wir ranken Seiten, nicht Websites“ – doch Beispiele wie die vom Vatikan auf Position 1 rankende Seite für“CBD Gummies“ zeigen das Gegenteil.

Seitenqualität

Mark hat herausgestellt, dass Google einen sogenannten Site Quality Score verwendet, um die Seitenqualität zu bestimmen. Die Einstufung der site_quality folgt einer Normalverteilung mit dem Peak für den Bereich einer site_quality von >0.6 – 0.7. Webseiten mit einer site_quality <0.4 sind so bspw. gar nicht für bestimmte SERP-Features qualifiziert.

Mark hat untersucht, ob die site_quality direkten Einfluss auf das Domain-Rating und den Traffic hat. Das konnte er jedoch nicht feststellen, die Ratings sind quer verteilt und es gibt keine klare Verbindung zwischen einem guten Domain Rating und einer hohe site_quality. So haben bspw. die Subdomains von Amazon eine höhere site_quality als amazon.com selbst. Das zeigt, dass die site_quality eher ein Hinweis darauf gibt, dass Nutzende eine bestimmte Seite besuchen möchten.

Martin Splitt: JavaScript Performance Optimization Primer

Der Vortrag von Martin Splitt bot eine umfassende Anleitung zur Optimierung der JavaScript-Performance und zeigte, wie sich unnötige Verzögerungen und Ressourcenverschwendung vermeiden lassen. Martin erklärte praxisnah, wie man JavaScript effizient einsetzt und welche Tools dabei helfen.

Alte Gewohnheiten oder historisch gewachsene Übernahmen führen oft dazu, dass JavaScript für unnötige Elemente genutzt wird. JavaScript ist jedoch ressourcenintensiv: Es blockiert das HTML-Parsing und benötigt CPU-Zeit für Download, Kompilierung und Ausführung.

martin-splitt-javascript-performance-optimization-primer

Damit das Laden des HTMLs nicht durch JavaScript unterbrochen wird, gibt es zwei Varianten wie JavaScript optimiert werden kann.

  • Async: Lädt JavaScript parallel zum HTML herunter. Nach dem Laden wird das JavaScript ausgeführt und blockiert HTML kurzzeitig. Diese Variante sollte nur verwendet werden, wenn das JavaScript für die Darstellung des Contents nötig ist.
  • Defer: Lädt das JavaScript parallel zum HTML herunter und wird erst nach dem vollständigen HTML-Parsing ausgeführt.

Code optimieren:

Martin stellte zusätzlich noch Optionen vor wie man den Code des JavaScripts optimieren kann

  • Minifizieren des Codes: Hier werden unnötige oder redundante Daten entfernt, ohne dass die Verarbeitung des Codes beeinträchtigt wird. Dazu zählen u.a. Entfernung von Codekommentare und -formatierungen und ungenutzter Code. Verwendung kürzerer Variablen und Funktionsnamen. Das reduziert die Parsing-Zeit um ~10 %.
  • Komprimieren des Codes: Das Verringert die Dateigröße, die übertragen werden muss und somit die Ladezeit, die es benötigt das JavaScript runterzuladen. Zusätzlich kann ein Caching des JavaScripts zusätzlich die Ladezeit reduzieren.
  • Code-Splitting: Hier wird das JavaScript in kleine Pakete geteilt und es wird nur das geladen, was tatsächlich zu dem jeweiligen Zeitpunkt benötigt wird.

Darüber hinaus gibt er folgende Tipps zur Javascript Optimierung:

  • Vermeide Layout-Thrashing (häufiges Neuberechnen von Elementgrößen). Überwache das Rendering beweglicher Elemente, um unnötiges Repainting zu vermeiden.
  • Debounce und Throttle: Reduziert teure Operationen durch Verzögerung nach Nutzereingaben.
  • Web Worker: Verlagert rechenintensive Aufgaben, sollte jedoch nicht für Content verwendet werden.
  • Scheduler Yield: Optimiert die Aufgabenverteilung für längere Prozesse.

Martins Fazit ist: „So wenig JavaScript wie möglich“ ist der Schlüssel zu besserer Performance.

Gus Pelogia: How to run SEO A/B testing for large websites

Der Vortrag von Gus Pelogia bot eine praxisnahe Einführung in die Durchführung effektiver SEO-A/B-Tests, um datenbasierte Entscheidungen zu treffen. Gus zeigte, wie man Hypothesen entwickelt, Test- und Kontrollgruppen erstellt und die Ergebnisse analysiert.

Er betonte zunächst die Grundlagen des SEO-A/B-Testing: Wie bei allen A/B-Tests ist es nötig einen Vergleich von einer Kontrollgruppe (keine Änderungen) mit einer Testgruppe (mit Änderungen) vorzunehmen.Man sollte bei der Auswahl dieser Gruppen darauf achten, dass es ähnliche Seitentypen (z. B. Blog-Artikel, Produkte) mit vergleichbarem Traffic- und Nutzerverhalten sind.

Ergebnisse seiner SEO A/B Tests:

  • Verlinkung aus der Navigation: Getestet wurde, ob eine Seite, die bereits im Footer verlinkt wird, einen SEO-Push erhält, wenn sie zusätzlich in der Hauptnavigation verlinkt wird. Ergebnis war, dass es keinen SEO-Effekt hatte.
  • Interne Verlinkung zwischen Produkten: Getestet wurde, ob eine Erhöhung der internen Links zwischen Produkten zu einem erhöhtem Traffic und mehr Conversions führt. Ergebnis war, dass es tatsächlich zu mehr Klicks und auch mehr Conversions geführt hat.
  • Content Gating: Getestet wurde, ob Content hinter Nutzer-Logins zu verbergen zu einer höheren Anzahl an Nutzerregistrierung führt. Und ob es einen negativen Impact auf die SEO-Performance haben kann. Das Ergebnis war, dass der Traffic zurückgegangen ist, sich die Login-Rate jedoch erhöht hat.

Um den Einstieg ins SEO A/B-Testing zu vereinfachen können zunächst einfache Test erstellt werden, die sich mit den gängigen SEO-„Truths“ beschäftigen:

  • Seitentitel Optimierungen und Variationen
  • Anzahl, Positionierung von Interne Verlinkungen
  • Strukturierte Daten optimieren und Variationen
  • Verschiedene Ankertexte für interne Links ausprobieren.

Gus betonte, dass A/B-Tests eine klare Zielsetzung und sorgfältige Analyse erfordern, um nicht nur SEO-Ergebnisse, sondern auch die Unternehmensziele zu optimieren.

Roxana Stingu: Workflow automation for the productively lazy

Der Vortrag von Roxana Stingu zeigte, wie Automatisierung zur Effizienzsteigerung genutzt werden kann, um repetitive Aufgaben zu minimieren und „produktive Faulheit“ in eine Stärke zu verwandeln. Sie stellte praktische Ansätze und Tools vor, die sowohl für SEO-Profis als auch für andere Bereiche anwendbar sind.

Das Grundprinzip: „Laziness + ambition = automation“ – clevere Automatisierungen machen Prozesse einfacher und effizienter.

Die Automatisierungsleiter:

Die Komplexität von Automatisierungen lässt sich auf einer Leiter darstellen, beginnend mit der manuellen Durchführung der Prozesse („Manual Madness“), bis hin zu eigenständigen Prozessen die sich selbst überwachen und Probleme eigenständig beheben.

  • Manuelle Prozesse („Manual Madness“)
  • Einzelne Skripte (bspw. Excel VBAs)
  • Komplexe Workflows (bspw. Workflows in Knime)
  • Monitoring (Automation monitoren sich selbst und senden Alerts wenn etwas nicht funktioniert)
  • Selbstreparierende Systeme (Automationen überwachen sich selbst und beheben auftretende Fehler selbst)

Wichtige Tools und Ansätze:

  • Trigger: Automatisierungen starten basierend auf definierten Auslösern.
  • Tools: Make, Zapier, n8n, Google App Scripts (mit integrierten und installierbaren Triggern), GitHub Actions (ermöglicht 20 Jobs mit jeweils 6 Stunden Laufzeit)
  • APIs: Verwendung öffentlicher APIs wie github.com/public-apis/public-apis.

Ergebnisse und Überwachung:

Automatisierungen können Daten aus verschiedenen Quellen (z. B. SEO-Performance, Keyword-Daten, Nutzerverhalten) verarbeiten und Ergebnisse in Tabellen oder Alerts (z. B. per E-Mail) ausgeben.

Fehler-Alerts sollten am besten die wichtigsten Fragen beantworten:

  • Was ist fehlgeschlagen?
  • Wo ist es fehlgeschlagen?
  • Warum ist es fehlgeschlagen?
  • Wann ist es fehlgeschlagen?

Die Zukunft der Automatisierung liegt laut Roxana im Einsatz von Agentic AIs für selbstgesteuertes Lernen, strategische Planung und kontextuelles Verständnis.

Roxanas Vortrag inspirierte dazu, Automatisierung als Werkzeug zu nutzen, um Zeit zu sparen, Fehler zu reduzieren und sich auf strategisch wichtige Aufgaben zu konzentrieren. Am Ende gab Roxana den Tipp „If you can visualize it, you can build it”.

Dan Taylor: What to do if Google doesn’t stop crawling?

Der Vortrag von Dan Taylor beleuchtete die Herausforderungen, die entstehen, wenn Google versehentlich auf sensible Website-Bereiche zugreift und Milliarden von URLs crawlt. Anhand eines realen Beispiels zeigte Dan, welche Auswirkungen dies auf Indexierung und Crawling haben kann und wie man solche Probleme behebt.

Herausforderungen durch unkontrolliertes Crawling:

  • Google erhielt versehentlich Zugang zu mehreren Umgebungen: Production-, Test- und Staging-Umgebungen.
  • Durch technische Fehler auf den Test- und Staging-Umgebungen wurden lange Parameterketten, mit bis zu 64 Parameter, erstellt, die an den URLs angehangen wurden.
  • Dadurch konnte Google über 1 Milliarden URLs finden, die nun nach und nach gecrawlt werden sollten. Dan gab eine optimistische Prognose, dass Google knapp 600 Jahre bräuchte, bis alle URLs einmal gecrawlt wären.
  • Auf der anderen Seite steht das Problem, dass die relevanten Seiten der Production-Umgebung nicht mehr gecrawlt wurden.
  • Dan erwähnte den Artikel von Alexis Rylko, dass URLs, die seit 130 Tagen nicht mehr gecrawlt wurden aus dem Index genommen werden. Das hatte zur Folge, dass die relevanten URLs nun nicht mehr indexiert wurden und von den ursprünglichen ca. 9.000 URLs nur noch eine Handvoll URLs indexiert waren.

Analyse und Erkenntnisse:

Logfile-Analysen zeigten, wie Google die Umgebungen entdeckte und welche Faktoren das Crawling begünstigten. Die Testumgebung war Google bereits bekannt, was den Zugriff erleichterte.

Lösungsansätze:

Nach der Identifizierung des Problems und Bemerkens, dass Google die URLs aus Testing- und Staging-Umgebung nun in den Index aufgenommen hat, probierte Dan verschiedene Möglichkeiten aus, diese URLs aus dem Index zu bekommen und Google wieder dazu zu bringen, die relvanten URLs zu crawlen.

Das gestaltete sich schwieriger als gedacht, da die beiden anderen Umgebungen auf der gleichen Domain lagen wie die Production-Umgebung. Wodurch nun die relevanten live-URLs in der Crawling-Schlange weit nach hinten rutschen.

Nach verschiedenen Maßnahmen, bspw. Statuscode 404 für die Staging- und Testing-Umgebungs-URLs und dem Kampf, die live URLs crawlen zu lassen, hat Dan mittlerweile erste Erfolge messen können, wodurch die Seiten wieder indexiert werden und der Traffic wieder ansteigt.

Dan betonte, wie wichtig es ist, technische Schwachstellen zu minimieren und präventive Maßnahmen zu ergreifen, um das Crawling-Verhalten von Google besser zu steuern und Schäden zu vermeiden.

Pascal Landau: Demystifying Organic Product Grids

Der Vortrag von Pascal bot spannende Einblicke in die Funktionsweise von Googles Organic Product Grids (OPG) und zeigte, wie Händler ihre Performance besser verstehen und analysieren können. Pascal deckte dabei einige überraschende Details auf und gab praktische Tipps zur Analyse.

Herausforderungen bei der Analyse von Organic Product Grids:

  • Die Daten in der Google Search Console (GSC) sind nicht vollständig vertrauenswürdig, da sie sich auf anonyme Suchanfragen stützen und nicht nur organische Produktklicks erfassen.
  • Google Analytics 4 (GA4) zeigt die gleichen Parameter für OPGs wie für organische Suchergebnisse, was die Unterscheidung erschwert.
  • Die Performance-Daten im Google Merchant Center (GMC) werden „überreportet“. Hier werden nicht nur die organischen Klicks reportet, sondern deutlich mehr.
  • Eine gute Performance in OPGs bedeutet nicht unbedingt, dass eine gute Strategie dahintersteht – der zunehmende Einsatz von OPGs durch Google kann automatisch zu mehr Traffic führen.

Organic Product Grids verstehen

Im Rahmen seiner Analyse konnte Pascal verschiedene Arten von IDs identifizieren, die Google verwendet, um die Anzeigen und Verkäufer festzulegen.

  • mid / mid
    • Machine Identifier: wird im Knowledge Graph verwendet, um Produkte zu identifizieren
  • gid / gpcid
    • Global Product Cluster ID (gpcid): Child-Element für eine Produktlinie (z.B. iPhone) – Sie spielt eine zentrale Rolle in OPGs und kann durch die Analyse von SERPs und die Extraktion von Produktlisten identifiziert werden.
    • Produkte werden ohne bestimmte Attribute ausgestattet
    • SKU identifier
  • cid / catalogid
    • Shopping Katalog Identifier
    • Produkte Kataloge definieren Produkte mit bestimmten Attributen (z.B. Größe, Farbe)
  • iid / imageDocid
    • Vermutung auf eine interne Bild ID
  • oid / headlineOfferDocid
    • Identifiziert das Angebot eines bestimmten Verkäufers

Praktischer Tipp: Definiere relevante Produkte und baue einen Custom Scraper, um SERPs zu durchsuchen und OPGs sowie Angebotslisten zu extrahieren. Die Daten speicherst du dir in einem SEO-Datawarehouse wie Google BigQuery ab und visualisierst sie, bspw. mit dem Google Lookerstudio. Am Ende kannst du dir die Ergebnisse gezielt nach Produkten und Marken filtern, um aussagekräftige Daten zu erhalten.

Ausblick in die Zukunft

Es muss geprüft werden, ob Global Product Cluster ID (gpcid) und Machine Identifiers (mid) den Produkten zugewiesen sind. Sollten diese IDs nicht vergeben sein, kann es sein, dass die Produkte nie in den Organic Product Grids angezeigt werden.

Weiterhin sollte abgeglichen werden, ob die von Google gewählte Klassifikation mit der eigenen Produktklassifikation übereinstimmt. Wenn diese abweichen, können dadurch die Performance der Produkte beeinträchtigt werden.

Der Wunschgedanke wäre die Entwicklung eines “Product Health Reports” zur Bewertung der Produktqualität.

Fazit der Tech SEO Summit 2025

Die Tech SEO Summit 2025 war ein voller Erfolg und bot eine perfekte Mischung aus tiefgehendem Fachwissen, praxisnahen Ansätzen und spannenden Diskussionen.

Besonders beeindruckend war der Fokus auf die technische Tiefe: Die Vorträge setzten fundiertes Wissen voraus und richteten sich klar an erfahrene SEOs. Einsteiger:innen könnten sich von der Komplexität der Themen schnell überfordert fühlen, doch genau das macht die Summit so einzigartig – sie bietet eine Plattform für echte Experten, die sich auf höchstem Niveau austauschen möchten.

Für alle, die sich für die neuesten Entwicklungen in der Welt des technischen SEO interessieren, ist die Tech SEO Summit ein absolutes Muss. Wir freuen uns schon jetzt auf die nächste Ausgabe und darauf, welche spannenden Themen und Experten uns dort erwarten werden!

Artikel teilen

Jan Schulze

Weitere Artikel


You found us - now let us help you to be found!

Jetzt Kontaktformular ausfüllen.
Wir melden uns bei Ihnen so schnell wie möglich zurück.


Quadrate und Foto von lächelnder Mitarbeiterin
Quadrate und Foto von lächelnder Mitarbeiterin