Onpage SEO im Griff: Alerting und Monitoring für SEOs
-
Upload
get-traction-gmbh -
Category
Business
-
view
691 -
download
1
Transcript of Onpage SEO im Griff: Alerting und Monitoring für SEOs
Onpage SEO im Griff: Alerting und Monitoring für SEOs
Stefan Keil Online Marketing Tag - Webinar 31.05.2017
About me
Stefan Keil Werdegang
• 2008- 2011 Information Science and Engineering, B.Eng. (Schwerpunkt Bibliothekswesen)
• 2011-2014 Informationswissenschaften, M.Sc.
• 2012-2015 Werksstudent/Mitarbeiter Deutsches Institut für Internationale Pädagogische Forschung (Informationswissenschaftliche Forschung & am Ende was mit „Monitoring, Webanalyse und SEO“)
• 2015- 2017 /takevalue - Consultant
• 2017 get:traction Senior Consultant & Partner
• 2017 Lehrbeauftragter für SEO an der Hochschule Darmstadt
Lust auf…
• …Daten
• …Prozesse
• …Struktur (Informationsarchitektur)
• …Standards
OptimalZu wenig standardisiert –erhöher Briefingsaufwand
Zu sehr standardisiert – zu hoher Wartungs-, Änderungs- und Erstellungsbedarf
Onpage-Alerts und –MonitoringWarum?
Being happy because our last deployment went perfectly!
Tools und Reports optimal einsetzen
Ich: auf dem Weg zu Arbeit ohne eine Ahnung was mich erwartet vs. wissend, dass ich zuerst weiß, wenn etwas schief läuft
Alerting:
Frühwarnsystem
Monitoring:
Entwicklungen
frühzeitig Erkennen
Das richtige Werkzeug……. zur richtigen Zeit und für den richtigen Zweck
Alerts
MonitoringReporting
Impa
ct
Berichtszeit-punkt
sofortspäter
niedrig
hoch
Alerts: IT-Maintenance-Daten vs. Daten zum Nutzerverhalten
Traffic-Beobachtung via WebanalyseIT – Maintenance (Crawls)
• Indexierungs- und Crawlinganweisungen
• Optimierungen der Informationsarchitektur
• Traffic-Einbrüche
• Umsatzausfall
• Aufrufe 404-Fehlerseiten
• …Mehr?
z.B.
https://www.zedwoo.de/google-analytics-alerts/
https://www.gandke.de/blog/google-analytics-alerts/
http://www.termfrequenz.de/podcast/beyond-pageviews-
podcast/bp-2-1-google-analytics-alerts/
Alerts: Möglichst granular und qualitativZu aggregierte Betrachtung ergibt nur Last
0
2,000
4,000
6,000
8,000
10,000
12,000
14,000
16,000
KW 12 KW 13 KW 14 KW 15 KW 16 KW 17
Entwicklung Seiten mit noindex-Anweisung
+ 40% !
+ 15% !
Defizite:
- Stark Aggregiert
- Domainebene
- Kein Drilldown (in GSC)
- Weiter Weg um den Fehler zu finden
1.4k seite n oder so :O
Grundoptimierung muss vorhanden sein
Und noch eine Anmerkung…
Copyright: taviphoto
Erst nach der Segmentierung klärt sich die Sicht…
Segmente nach SeitentypenKontrolle durch granulares Setup
Der Kern einer erfolgreichen Beobachtung.
Stark aggregierte Daten lassen keine Analyse zu.
Nicht:
Sondern:
Segmentierung
0
5
April Mai Juni Juli
SEO-Traffic
0
50
April Mai Juni Juli
SEO-Traffic
Startseite Kategorie Produktdetailseite
Segmentierung einer WebseiteBeispiel Publisher/Verlagswesen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Paginierung Filter SEO spezifische Dokumente
Robots.txt Index-Sitemap Sitemaps News-Sitemap
(Seitenweite) Parameter
Usertracking Aktionstracking
Partner
Kurz-URLs
Partnerangebote
(auf Hauptdomain)
Bugs & weiteres
410
301 404
Wiederholung
Seitentypen?
Canonicals
Auswahl der zu überwachenden SeitenBeispiel Publisher/Verlagswesen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Je die 2-3 organisch
Traffic- oder
Konversionsstärksten
URLs
Ziel:
- Muster-, bzw. templatebasierte Fehler frühzeitig erkennen
- Stichproben ausreichend
Segmentierung einer WebseiteBeispiel Publisher/Verlagswesen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Paginierung Filter SEO spezifische Dokumente
Robots.txt Index-Sitemap Sitemaps News-Sitemap
(Seitenweite) Parameter
Usertracking Aktionstracking
Partner
Kurz-URLs
Partnerangebote
(auf Hauptdomain)
Bugs & weiteres
410
301 404
Wiederholung
Seitentypen?
Canonicals
Ca. 11 Seitentypen
+
8 Paginierungen
+
2 Filterfacetten
= 21 Seiten
N=2 (wenn
mehrere
vorhanden)
41 Seiten
Segmentierung einer WebseiteMobile Varianten auf eigenen Hosts nicht vergessen…
Desktop mobile AMP
41 Seiten + +41 Seiten Ca. 40 Seiten (ohne
Suche)
Ca. 122 Seiten
SEO-Relevante Merkmale Indexierung und Crawling + durchgeführte IA-Optimierungen sicherstellen
Indexierung und Crawling
Informations-architektur
sonstige
Statuscode
robots-meta
Canonical
alternate
Linkboxen (div)
Titel
Description
Breadcrumbs
h1
h2
schema.org
WebPage
Tracking
Social Media
relatedLinks
breadcrumb
mainEntityOfPage
(NewsArticle)
headline
date
…
SEO-Relevante Merkmale Indexierung und Crawling + durchgeführte IA-Optimierungen sicherstellen
Indexierung und Crawling
Informations-architektur
sonstige
Statuscode
robots-meta
Canonical
alternate
Linkboxen (div)
Titel
Description
Breadcrumbs
h1
h2
schema.org
WebPage
Tracking
Social Media
relatedLinks
breadcrumb
mainEntityOfPage
(NewsArticle)
headline
date
…
Dokumentieren und Fixieren!
Alerts via URL-MonitorTägliche Prüfung der Fixierten Merkmale pro URL
Alerts via URL-Monitor: IT-SEO MaintenancePrüfung der robots.txt & Sitemap
Regelmäßige Überwachung der robots.txt sowie der vorhandenen Sitemap(s)
Prüfung auf Änderungen bzw. die Erreichbarkeit
Fragen:
Wurden Einträge in der robots.txt geändert (sind neue Einträge hinzugekommen, vorhandene geändert/ gelöscht worden)?
Sind die robots.txt und die Sitemap(s) erreichbar (Status 200)?
Beschreibung
Alerts via testomato: IT-SEO MaintenanceGruppen mit Regeln
Alerts via testomato: IT-SEO MaintenanceGruppen mit Regeln für CMS/Templates
Mehr zum SEO-Alerting mit testomato finden Sie hier:
https://www.gettraction.de/blog/seo-alerting-mit-
testomato/
Erfahrungen und WorkflowGrenzwerte Ausloten und zentrale vs. dezentrale Organisation
Alerts müssen
anschlagen, wenn es
brennt.
Alerts in der IT-MaintenanceIch kann nur das prüfen, was ich auch kenne…
…eine Ahnung wie granular (Beispiel Publisher) man beobachten sollte.
…allgemeine SEO-Faktoren, deren Überwachung (nach Optimierung) sinnvoll ist.
…einfache Mittel um diese Dinge regelmäßig zu prüfen.
…keinerlei Ahnung was auf meiner Seite passiert, was ich nicht explizit weiß und festgelegt habe!
Bis hier hin haben wir…
Monitoring:
Entwicklungen
frühzeitig Erkennen
Copyright: tashatuvango
Alerts: Möglichst Granular und QualitativZu aggregierte Betrachtung ergibt nur Last
0
2,000
4,000
6,000
8,000
10,000
12,000
14,000
16,000
KW 12 KW 13 KW 14 KW 15 KW 16 KW 17
Entwicklung Seiten mit noindex-Anweisung
+ 40% !
+ 15% !
Defizite:
- Stark Aggregiert
- Domainebene
- Kein Drilldown (in GSC)
- Weiter Weg um den Fehler zu finden
Wenig geeignet für einen Alert,
allerdings (fast) gut für ein
Monitoring!
Datenquellen: Google Search ConsoleDaten speichern bevor sie verschwinden
Tägliches abholen und speichern
der Daten!
GSC Setup: VerzeichnisverifikationGranulare Verifizierung für mehr Daten und mehr Kontrolle!
Protokollversionen (http/https)
Hosts (www.)
Verzeichnisse
Ein bis zwei Ebenen – je nach Anzahl der Seiten
Alle Varianten bedenken!
GSC: relevante DatenIT-Hygiene Daten aus der Search Console Speichern und Monitoren
Web/SmartphoneLinks insgesamt
HTML-Verbesserungen
Doppelte Descriptions
Doppelte Titles
Fehlende Titles
Irrelevante Titles
Kurze Descriptions
Lange Descriptions
Kurze Titles
Lange Titles
Indexierungsstatus
Links zu Ihrer Webseite
Mobile Nutzerfreundlichkeit
Sitemaps
Strukturierte Daten
Insgesamt Indexiert
Von robots.txt blockiert
Seite mit Problemen
Elemente
Elemente mit Fehlern
Bilder eingereicht
Bilder indexiert
Mobile eingereicht
Mobile indexiert
News eingereicht
Video indexiert
News indexiert
Videos eingereicht
Web indexiert
Web eingereicht
Crawlerrors
notFound
notFollowed
authpermission
Server-Error
soft404
other
flashContent
manyToOneRedirect
Suchanalyse
Monitoring: Search Console – BeispieleRegelmäßige Betrachtung von Fehlerdaten auf allen Ebenen
domain.de
/verzeichnis1
/verzeichnis2
/verzeichnis3
/verzeichnis4
+n
Ein Prozess zur wöchentlichen Datenerhebung incl. Reporting an die zuständigen Personen erhöht die Stabilität der Plattform und verkürzt die
Reaktionszeit bei großen Fehlern auf ein Minimum.
Im obigen Beispiel war nur ein Teilbereich der Website für den massiven Anstieg der Fehler verantwortlich. Die Ursachensuche konnte so direkt
eingegrenzt und somit beschleunigt werden
Monitoring: Search Console – BeispieleRegelmäßige Betrachtung von Fehlerdaten auf allen Ebenen
Initiale Aufwände rentieren ab dem Zeitpunkt, wenn ein Fehler auftritt. Verkürzte Fehlersuche und schnelle Reaktionszeit helfen finanziellen
Schaden zu vermeiden.
domain.de
/verzeichnis1
/verzeichnis2
/verzeichnis3
/verzeichnis4
+n
Monitoring: Search Console – BeispieleTop 20 Phrasen nach Klicks der letzten Woche
Credits für das folgende Analyseframework
… frisst am liebsten Rohdaten
… zerlegt, speichert und demoliert alles mit R und Knime
…. hört am liebsten den Satzteil „… kann man das nicht mal eben schnell…“
Meisteranalyst!
Patrick Lürwer
/in/patrickluerwer/
@netzstreuner
Workflow der Crawl-Auswertung
Screaming Frog
CrawlingDatenaufbereitung &
Auswertung
R / R Studio
Report
Alle Links mit Merkmalen wie Status Code, Content Type, Title etc.
Alle Verlinkungen der Webpages untereinander
Export
Erstellung des Monitoring-ReportsLiterate Programming: Code und Beschreibung in einer renderbaren Datei
R Markdown
Export-Formate
ein Klick
IT-SEO-Monitoring: StandardslidesWie hat sich die Indexierbarkeit via meta-Robots entwickelt?
IT-SEO-Monitoring: StandardslidesWie hat sich die Indexierbarkeit via meta-Robots pro Verzeichnis entwickelt?
VZ-1 VZ-2 VZ-3
IT-SEO-Monitoring: StandardslidesWie hat sich die Indexierbarkeit via meta-Robots pro Verzeichnis entwickelt?
VZ-1 VZ-2 VZ-3
IT-SEO-Monitoring: StandardslidesWie hat sich die Indexierbarkeit via meta-Robots pro Verzeichnis entwickelt?
VZ-1 VZ-2 VZ-3
IT-SEO-Monitoring: StandardslidesWie ist die Entwicklung der Canonical-Referenzierungen?
IT-SEO-Monitoring: StandardslidesWie ist der Status der Fremdreferenzierungen?
Welchen Status Code weisen die URLs auf, auf die fremdreferenziert
wird?
IT-SEO-Monitoring: StandardslidesWenn die Fremdreferenzierung 200 ist, stimmt das Meta-Robots-Tag überein?
Stimmten die Meta-Robots der
fremdreferenzierndenund referenzierten Seite
überein?
IT-SEO-Monitoring: StandardslidesMoooooooooooooooooooment!
Me: Wait – it‘s like the onpage.org dashboard. Ok, but let him do his talk…
Me to me: no, tell him NOW!
Tabellarische Darstellung der ÄnderungenBei welchen Seiten hat sich der Meta-Robots geändert?
Interne Tabelle zum Abgleich der Meta-
Robots-Veränderung
Seite indexierbar
?
Veränderung zum vorherigen Crawl?
Bei welchen Seiten hat sich der Meta-Robots geändert?Detaillierte Auszüge bei hohen Schwankungen der letzten Crawldaten
Bei wie vielen URLs haben sich die Meta Robots zwischen den Crawls verändert?
Um welche URLs handelt
es sich?
Indexierbarkeit
Welche Seiten sind neu?Schnelle Übersicht zum Überfliegen
2
373
158
5 1
173
VZ-1 VZ-2 VZ-3
Reporting & MonitoringQualitätssicherung im 3-Stufiges System
Alerting Monitoring Reporting
• Proaktives Warnsystem
• Systemweite Fehler vor einem Impact erkennen.
• Wöchentliche Betrachtung aller Fehlerberichte der Google Search Console
• Überführung in Tickets
• Wöchentliches Crawling, identifizieren von Fehlern und ableiten von Handlungen
• Wöchentliches Reporting mit Kurzübersicht zu SERP Leistung, Sichtbarkeit, Traffic und Website-Fehlern.
• Monatlicher Report zu Acquisition-, Engagement-und Transactioninformationen inkl. Ausführlicher Kommentierung.
Täglic
h
Wöchentlic
h
Monatlic
hSEO-Maintenance SEO-Erfolgsmessung
Reporting & MonitoringMögliche Tools für ein erfolgreiches Framework (Auswahl!)
Alerting Monitoring Reporting
+
Alles Griff?
Danke für die Aufmerksamkeit!
/stefan.keil
/profile/Stefan_Keil29
@stefankeil_iw
www.gettraction.de
FB: https://www.facebook.com/gettraction.de/
Twitter: https://twitter.com/gettraction_om
Mail: [email protected]
Bildnachweise
Folie 5: ©bigstockphoto.com/joegough
Folie 6: ©bigstockphoto.com/tashatuvango
Folie 11: ©bigstockphoto/rorem
Folie 10: ©bigstockphoto.com/Stock Photo
Folie 24: ©bigstockphoto.com/digitalista
Folie 25: ©bigstockphoto.com/tashatuvango