Louis Renard besuchte erneut den SEO-Day in Köln, auf den er sich schon sehr freute, nachdem er bereits 2023 daran teilgenommen hatte. Die Vielfalt an Vorträgen und die neuesten Einblicke in die Welt der Suchmaschinenoptimierung versprachen spannende Erkenntnisse und wertvolle Inspirationen.

SEO-Day 2025 – der Recap von Louis Renard

Louis Renard beim SEO-Day 2025 in Köln
zur Anfrage
9:00: KI-Einsatz im Offpage-Alltag – Patricia Unfried
Bei meinem ersten Vortrag gab Patricia Unfried einen umfassenden Überblick über den Einsatz von KI-Tools im Offpage-Alltag. Sie stellte verschiedene Tools vor, die in unterschiedlichen Bereichen Anwendung finden.
Ich lernte, dass „Napkin“ genutzt werden kann, um Grafiken zu erstellen. Ein weiteres Tool namens „Copilot“ hilft bei der Erstellung von Mailvorlagen und ist besonders vorteilhaft, da es sich nicht mehr stark an englische Vorlagen anlehnt. Für Recherchezwecke sei ChatGPT sehr nützlich, weil es aktuelle Quellen einbindet.
Ebenfalls erklärte Patricia, dass „Dall-E“ zur Bildgenerierung eingesetzt wird und dass englische Prompts oftmals bessere Ergebnisse liefern; alternativ könne man diese übersetzen lassen. Die Ergebnisse seien sehr gut.
Im Bereich Texterstellung ist es sinnvoll, KI für Texterweiterungen, Umschreibungen und Übersetzungen zu nutzen. Allerdings verwenden die Texte oft ähnliche Formulierungen, wie zum Beispiel ein immer gleich aufgebautes Fazit. Hier empfahl sie die Nutzung von Custom GPT, um Beispiele zu definieren, was gut ist und was nicht.
Zum Abschluss wurden verschiedene SEO-Tools vorgestellt, darunter der „KI Content Helper“, „Semrush“, „Teams Maestro“ (ähnlich wie Fireflies), „Gamma“ für Präsentationen mit KI, „NotebookLM“ und „Perplexity“.


9:45: GEO: Das ist wichtig in der KI-SEO Welt – Eico Schweins
Im nächsten Vortrag gab es für mich bzw. unsere Agentur ehrlicherweise wenig Neues – vieles in der KI-SEO Welt bleibt beim Alten. Eico Schweins gab einen Überblick darüber, wie stark KI derzeit genutzt wird und erklärte, dass Google etwas an Stärke verliert, was zu weniger Impressionen führt.
Der Speaker erläuterte, dass perspektivisch weniger Traffic zu erwarten ist als zuvor. Es ist wichtig, nicht auf Trainingsdaten wie Allgemeinwissen zu optimieren, sondern auf RAG-Daten, die aktuelle Informationen, Nachrichten, komplexe Anforderungen und Produkte enthalten. Zudem betonte er, dass die Eingabe in KI-Systemen über Prompts erfolgt und nicht mehr über Keywords. Die Suche wird zunehmend durch Konversationen ersetzt.
Ich lernte, dass eine technisch saubere Seite erforderlich ist, die gut indexiert werden kann, mobil optimiert ist und über HTTPS läuft. Wichtig ist auch, bei der Formulierung von Inhalten den Schwerpunkt auf die Beantwortung von Fragen zu legen, ohne zu überladen. Backlinks sind weiterhin wichtig, unabhängig davon, ob sie follow oder no-follow sind. Zudem sollten interaktive Elemente und Infografiken eingebunden werden.
10:40: SEO Empeddings – technische SEO – Sebastian Erhofer
Ich erfuhr von Sebastian Erhofer, dass beim Thema SEO-Embeddings Keywords als Vektoren betrachtet werden, wobei Ähnlichkeit und Nähe von Keywords eine Rolle spielen. Ein wichtiger Aspekt ist der Similarity Score, mit dem die Ähnlichkeit gemessen wird.
Der Speaker erklärte, dass bei der Arbeit mit Texten die Tokenlänge beachtet werden sollte. Längere Texte sollten überlappend aufgeteilt werden, um bessere Ergebnisse und präzisere Vektoren beim Inhaltsvergleich zu erzielen.
Er empfahl den Einsatz von Python, was seine persönliche Präferenz widerspiegelt. Das Ziel von Embeddings sei es, Keyword-Cluster zu erstellen und diese zu visualisieren, beispielsweise durch Dendrogramme oder PCA-Analysen. Vektor-Textanalysen helfen dabei, Inhalte im Vergleich zu Wettbewerbern zu analysieren.
Besonders interessant fand ich das Relaunch URL-Mapping Python Script von Daniel Levy, das die drei besten Matches pro URL identifiziert, im Gegensatz zu nur einem bei traditionellen Methoden. Er betonte auch die Bedeutung interner Verlinkungen, um passende Zielseiten anhand von Vektor-Keywords zu finden.


11:15: Google AI vs. SEO – Redner von Sistrix – Johannes Beus
Nun besuchte ich den Vortrag von Johannes Beus von Sistrix. Das Thema war extrem gut besucht – man merkte deutlich, dass das Spannungsfeld zwischen künstlicher Intelligenz und Suchmaschinenoptimierung viele bewegt.
Der Speaker nahm der aktuellen KI-Fokussierung bewusst etwas den Wind aus den Segeln. Er betonte, dass Google trotz aller Veränderungen weiterhin eine sehr starke Position habe. Zwar nehme die Marktdominanz von Google laut manchen Auswertungen leicht ab, doch zeigten andere Tools, dass Google weiterhin extrem stark sei und der Einfluss von KI auf die klassische Websuche bislang begrenzt bleibe.
Ich erfuhr, dass nur etwa 22 % der Antworten von ChatGPT tatsächlich eine Websuche auslösen. Rund 24 % der Nutzungen von ChatGPT seien wirklich relevante Informations- oder Produktsuchen – also etwa Vergleiche oder Kaufentscheidungen. Insgesamt ersetze ChatGPT laut Beus derzeit nur 4-9 % der Google-Suchen, sei damit aber immerhin schon die zweitgrößte „Suchmaschine“ nach Google.
Trotzdem ist Google in nahezu allen Bereichen noch klar führend – sowohl bei Large Language Models (LLMs) als auch bei Backends und Distribution. Besonders die eigene KI, Google Gemini, zeige, dass Google technologisch weiterhin stark sei. Beus erwähnte, dass etwa 20 % aller Keywords in Deutschland bereits eine KI-Ausspielung beinhalten. Google pushe den sogenannten AI-Mode massiv.
Ein wichtiger Unterschied zu ChatGPT sei, dass Google im AI-Mode immer seine Quellen anzeigt, während ChatGPT dies nur gelegentlich tue. Außerdem präsentiere Google die Ergebnisse meist in Listenform oder mit Überschriften, wodurch sie strukturierter wirkten. Die Verlinkung innerhalb der KI-Antworten erfolge jedoch oft recht willkürlich – größtenteils würden große Marken genannt, und es erscheinen mehrere Quellen gleichzeitig. Durch das neue Quellen-Icon werde aber insgesamt mehr Vielfalt sichtbar.
Ich fand interessant, dass Google zunehmend auch nicht deutsche Inhalte übersetzt und als Quellen nutzt. Dadurch entsteht mehr Wettbewerb, vor allem durch englischsprachige Seiten, die ins Deutsche übertragen werden.
Beus schloss mit der Einschätzung, dass künftig Klicks nicht mehr die wichtigste Metrik sein werden. Stattdessen gewinnen die Quellennennung und der Kontext, in dem Inhalte erscheinen, an Bedeutung.


11:50: SEO – interne Verlinkung – Laura Piccolomo
Ich bekam leider nur etwa die Hälfte des Vortrags von Laura Piccolomo zum Thema interne Verlinkung mit, da der vorherige Vortrag deutlich überzogen hatte. Dennoch erhielt ich einige interessante und praxisnahe Einblicke.
Laura betonte, wie wichtig es sei, zunächst einen klaren Fokus zu definieren und relevante Quellen zu bündeln. Nur so könne eine saubere interne Struktur entstehen, die sowohl Nutzern als auch Suchmaschinen zugutekommt.
Ein zentraler Punkt war der effiziente Umgang mit dem Crawling-Budget. Sie empfahl, regelmäßig die Sistrix-Verzeichnisse zu prüfen, Google Analytics 4-Daten (GA4) zu analysieren und Tools wie Screaming Frog (SF) zu nutzen. Dabei solle man insbesondere auf technische Aspekte achten – etwa auf Indexierung, Sitemap-Struktur, Canonical-Tags, Weiterleitungsketten sowie die Crawltiefe, die nicht mehr als drei Ebenen betragen sollte. Außerdem sei es wichtig, verwaiste Seiten zu identifizieren und wieder sinnvoll einzubinden.
Bei der Umsetzung von Optimierungen riet sie, zunächst die Basics zu beheben – also die technischen und strukturellen Punkte, die sie zuvor genannt hatte. Danach könne man gezielt Content-Cluster aufbauen, also thematisch zusammenhängende Inhalte, die untereinander sinnvoll verlinkt sind. Wichtig sei zudem, von den Hauptseiten auf die Hauptkategorien zu verlinken und dabei sprechende Ankertexte zu verwenden, die den Inhalt der Zielseite klar widerspiegeln.
Für das Monitoring der Maßnahmen empfahl Laura, Looker Studio zur Visualisierung der Daten zu nutzen sowie GA4 und den Google Tag Manager (GTM) einzusetzen, um eigene Events zur Auswertung anzulegen. So könne man den Erfolg interner Verlinkungsstrategien langfristig nachvollziehen und gezielt weiter optimieren.


13:45: Sichtbarkeit durch KI verändert – Thomas Weber
Der Vortrag sprach viele verschiedene Themen an, ohne einen klaren Fokus zu setzen. Es wurde darauf hingewiesen, dass die Daten der Search Console oft schwer zu interpretieren sind. Im Bereich Marketing für SEO wurden zahlreiche Buzzwords genannt, die teilweise inhaltsleer erschienen.
Der Speaker erklärte, dass der Traffic durch Large Language Models (LLM) nur etwa 0,1-0,2 % ausmacht. Daher sei es weiterhin von größter Priorität, das zu tun, was Google als wichtig erachtet. Informationsinhalte verlieren an Bedeutung, während LLM-Crawling viele Messungen für wenig Zugriffe bietet.
Ich lernte, dass Tools für die Messung von LLM ungenau sein können, viel kosten und die Kontrolle abgeben. Die LLM-Crawler seien rückständig, da sie Techniken wie Backlinks oder weißen Text auf weißem Grund verwenden, ähnlich wie SEO vor über zehn Jahren.
Organische Rankings sind nach wie vor sinnvoll und unterstützen LLM. Strukturierte Daten sind ebenfalls von Bedeutung. Backlinks haben wieder an Aktualität gewonnen, wobei jede Erwähnung relevant ist, unabhängig davon, ob sie follow oder nofollow ist. Zitate, wie „blog quotes“, sollten im nicht sichtbaren Bereich ausgebaut werden.
Für die Zukunft stellte sich die Frage, ob Websites in Zukunft überhaupt noch notwendig seien, wenn sich Nutzer zunehmend direkt in KI-Tools bewegen. Gleichzeitig sah er einen klaren Gegentrend in „Human first“ – also in einer stärkeren Fokussierung auf echte Menschen, persönliche Inhalte und Authentizität.
Er ging außerdem davon aus, dass die Preise steigen werden – sowohl für die Nutzung von KI-Tools selbst als auch durch die zunehmende Monetarisierung von KI-Inhalten, die künftig stärker in den Fokus rücken werde.


14:20: Linkbuilding – Auswirkungen durch KI – Rainer Naranjo
Rainer Naranjo las sein Vortrag über die Auswirkungen von KI auf das Linkbuilding eher monoton vor. Er betonte die Bedeutung von Mustererkennung und kontextuellen Zusammenhängen beim Linkbuilding.
Der Speaker erklärte, dass Links in relevanten Texten sehr wertvoll sind und der Kontext entscheidend ist – Qualität geht vor Quantität. Er wiederholte mehrfach, dass gute SEO zu gutem GEO führt.
Ich lernte, dass KI unnatürliches Linkverhalten erkennt und nur die besten Links bestehen bleiben. Natürliche Linkprofile werden daher immer wichtiger. Bewertungsplattformen, wie Reddit, sind sehr relevant, und es ist wichtig, eine gute Reputation aufzubauen, etwa durch Autorenaktivitäten.
Er hob hervor, dass genaue Fragen und Prompts beantwortet werden sollten und dass kurze, gezielte Antworten effektiver sind als lange Texte. Transaktionale Prompts stehen im Fokus.
Der Aufbau von Links sei sehr aufwendig, weshalb er empfahl, eher eine Backlink-Agentur zu nutzen.
15:00: SEO KI – Best Practice für LLMs – Dominik Wojcik
Der Vortrag von Dominik Wojcik konzentrierte sich auf die Best Practices für LLMs, insbesondere auf die Nutzung und Erstellung von Prompts. Er arbeitet intensiv mit verschiedenen Modellen parallel und entwickelt eigene Auswertungstools, was auf sein tiefes Wissen im Bereich hinweist. Dominik Wojcik gab eine Übersicht über verschiedene Tools und betonte die zunehmende Bedeutung spezialisierter Chatbots, von denen es etwa 250 Modelle gibt.
Der Speaker erklärte, dass Google mit seinem Gemini-Modell stark aufholt, vornehmlich in Bereichen wie Bild und Video, und oft die besten Ergebnisse liefert. Er hob hervor, dass sich LLMs in Preis und Leistung stark unterscheiden, weshalb es wichtig ist, sie ausgiebig zu testen.


Ich lernte, dass Claude gut für Texte geeignet ist, während ChatGPT schnell und kostengünstig ist. Es sei entscheidend, die Einstellungen auf Toolebene zu verstehen und anzupassen. Die Nutzung der Batch API kann Kosten sparen, da die Bearbeitung erfolgt, wenn freie Ressourcen verfügbar sind, auch wenn nicht alle Tools diese Möglichkeit bieten.
Günstige Modelle sollten genutzt und die Prompts entsprechend angepasst werden. Wojcik empfahl die Nutzung von Promptframeworks und betonte, dass Prompts nicht zu lang sein sollten, sondern durch Promptsplitting optimiert werden sollten.
Er wies darauf hin, dass 50 % der KI-Antworten Fehler enthalten, weshalb ein gründlicher Faktencheck-Prozess unerlässlich ist. Er selbst nutzt hierfür bis zu 50 automatisierte Anfragen pro Text. Ein zusätzlicher Tipp war, dass der Like-Button in ChatGPT Einfluss auf die Ausspielung hat.
15:40: E-Commerce SEO – Vanessa Wurster
Ich erfuhr von Vanessa Wurster, dass der Fokus bei der E-Commerce SEO darauf liegt, Maßnahmen am Unternehmensziel auszurichten, wobei der Gewinn stets im Mittelpunkt steht. Sie betonte, dass verschiedene Seitentypen wie Blogs, Kategorien und Produktseiten unterschiedliche Anzeigen erfordern, was berücksichtigt werden muss.
Der Speaker erklärte, dass Blog- und Magazininhalte zwar nett, aber nicht direkt gewinnbringend sind. Dennoch bleibt er relevant, auch wenn es durch KI zu merklichen Verlusten bei informativen Keywords kommt, die nicht wirklich aufzuhalten sind.
Ich lernte, dass Inhalte für KI-Anzeigen weiterhin wichtig sind und Plattformen je nach Zielgruppe beachtet werden sollten, wobei TikTok oder Amazon möglicherweise effektiver sind. Nutzerfreundliche Inhalte sollten erstellt werden, ähnlich wie bei SEO-Inhalten, ohne übermäßige Textwüsten.
Für Kategorieseiten sind Keywords, Content, interne Verlinkung, strukturierte Daten, Paginierung und Filter von Bedeutung. Sie empfahl, die USA als Vorbild für SERP-Ergebnisse zu nutzen, um zu sehen, wie es möglicherweise bald bei uns aussehen könnte.
Für Produktseiten sind umfassende Produktdaten entscheidend. Alles, was möglich ist, sollte angegeben werden, einschließlich strukturierter Daten, relevanter Produktbilder, Produktbeschreibungen, Bewertungen und Varianten.


16:15: Indexierungsprobleme am Praxisbeispiel – Anke Probst
Anke Probst sagte, dass sie bei crossworldsolver arbeitet, einem Unternehmen, das zahlreiche Domains betreibt. Ihr Vortrag behandelte Indexierungsprobleme bei Seiten mit automatisiert erstelltem Inhalt. Solche Seiten haben den Nachteil, dass sie oft keine frischen Ergebnisse bieten, dünnen Content aufweisen, mit Werbung überladen sind, viel Konkurrenz haben, keine starke Marke besitzen und zu viele URLs aufweisen.
Die Rednerin erklärte, dass Google zunehmend solche Inhalte aussortiert, was das Problem eher verstärkt. Als Lösung empfahl sie, die Freshness der Seiten zu verbessern und sie über Atom-Feed bei Google mit WebSub einzureichen. Obwohl diese Methode alt ist, funktioniert sie nachweislich. Es ist wichtig, die Seiten in irgendeiner Form anzupassen und nicht identische Seiten einzureichen, da Google dies bemerkt.
Ein weiteres Mittel ist die Erstellung eines neuen Sitemap-Setups. Die Neueinreichung neuer Sitemaps hat bereits positive Ergebnisse gebracht.
Fazit zum SEO-Day 2025 in Köln
Der SEO-Day in Köln bot mir viele interessante Vorträge und spannende Einblicke. Ich konnte einiges Neues mitnehmen und gleichzeitig mein bestehendes Wissen vertiefen. Insgesamt hat es sich gelohnt, hinzufahren, da mir viele wertvolle Impulse für die Zukunft gegeben wurden.
Haben Sie Interesse an der SE-Optimierung Ihrer Webseite oder Ihres Online-Shops? Dann melden Sie sich bei den Experten von WEBneo und vereinbaren Sie ein unverbindliches Erstgespräch!

Wobei dürfen unsere Experten Sie unterstützen?


