Onpage SEO mit Prozessen und Strukturen effizient organisieren

  • View
    59

  • Download
    1

Embed Size (px)

Transcript

  • Onpage SEO mit Prozessen und Strukturen effizient

    organisieren

    Stefan Keil 17.11.2017

  • info@gettraction.de

    Standort Berlin

    Wielandstrae 9, 12159 Berlin

    030 / 85 75 74 67 berlin@gettraction.de

    Standort Frankfurt

    Myliusstrae 14, 60323 Frankfurt a.M.

    frankfurt@gettraction.de

  • SEO-Prozesse: viele kleine Teilttigkeiten

    Auslser/Trigger

    Verantwortlicher

    Ergebnis / Manahme

    Ereignis: Worst-Case ist

    Performanceverlust, im

    besten Fall, nur eine E-Mail

    vs.

    turnus: regelmige

    Betrachung und ggf.

    Analyse

    Immer ein SEO:

    Technisch, Redaktion,

    Anpassungen an:

    - Content

    - IT

    - Informationsarchitektur

    Tools und Werkzeug

    Checklisten, Crawler, Tools,

    Dokumentationen

  • Der SEO-Prozess im groben berblick

    IT-SEOInformations-

    architektur

    Zielgruppe und Angebote

    Nachfragesituation

    (Keyword-Analyse)

    Wettbewerbsanalyse (Wer

    wird gefunden? Was wird

    angeboten?

    Angebotsdefinition

    Domain & URL

    Management

    Website Architecture

    (Duplicate Content)

    Geschwindigkeit /

    Ladezeit

    HTML-Optimierung

    IT-Flexibilitt

    Feeds & Sitemaps

    Strukturierte Daten

    (schema.org)

    Mobile Optimierung

    Aufbau

    nachfrageorientierte

    Informationsarchitektur

    Place of Information

    Information Scent

    Siloing

    Verlinkungsziele pro

    Seitentyp

    Inhaltliche Erschlieung

    und Vernetzung

    Visualisierung &

    Funktionale Wireframes

    Redaktionsplanung

    SEO im

    Redaktionsprozess

    Bestandsoptimierung und

    Content Maintenance

    Ausbau und Pflege vs.

    Neuerstellung

    Cornerstone-Inhalte und

    Republishing

    Zieldefinition Outreach

    Content Planung &

    Erstellung

    Bedeutung von Links

    Optimierung bestehender

    Linkprofile

    Identifikation von

    Linkopportunitten

    Social Media Optimization

    Linkbaits

    Controlling

    und Forecast

    Suchanfragen (offene

    Potenziale? Erreicht der

    Nutzer die Seiten am

    richtigen Ort?)

    Webanalyse (Quanitative

    Betrachtung, Trafficqualitt,

    Nutzerverhalten)

    IT-Hygiene (Crawlen der

    Seite, IT-Fehler finden und

    beheben)

    Content-

    planung & -

    erstellung

  • Prozessthemen im Onpage-SEO

    Onpage-SEO

    Prozesse

    Weiterleitungen

    Weiterleitungs-ketten

    404 / 410 / soft-404

    Doppelte Titles und

    Descriptions

    Aktualisierung der

    Inhalte

    Anpassung an das

    Suchverhalten

    Depublizieren und

    Lschen

    Ausrichtung Titles und

    Description

    Anpassung h1

    Erfassung Suchmuster

    und Facetten

    Alerting-System

    Regelmiges

    Monitoring

    IT

    Content

    IT-SEOInformations-

    architekturContent

    Alerting &

    Monitoring

  • You know all the tasks and your priorities suck.

  • Kontext der Themen betrachten

    Wann sollte meine IT mir Sorgen bereiten?

  • Jedes Projekt ist anders Relevanz und Impact nach Case

    Ca. 5.000 Seiten

    Shop- und Content-

    Bereich

    Wordpress und

    Magento

    Kurze Wege (3

    Mann Online

    Abteilung)

    Entwicklung und

    Update nach Bedarf

    Ca. 800.000 Seiten

    50-150 Artikel pro

    Tag

    Hoher

    Abstimmungsbedarf

    zwischen IT

    Marketing und

    Redaktion

    2 Wochen Sprints:

    SEO ein kleiner

    Stakeholder von

    vielen

    Ca. 100.000 Seiten

    Shop- und Content

    eng vermischt

    Filialist: Hohe

    Abstimmung

    zwischen online und

    offline

    Online Marketing

    intern IT extern

    3 Wochen Sprints:

    SEO ein kleiner

    Stakeholder von

    vielen

    Mittelstand Retailer Publisher

    Ca. 1.500.000 Seiten

    Verzeichnisse oder

    Kleinanzeigen

    UGC Anzeigen oder

    Detailseiten und fixe

    Kategorie

    Hohe Abstimmung

    zwischen IT und

    Marketing

    externe Texter fr

    SEO

    2 Wochen Sprints

    Index-Riese

  • Jedes Setup birgt eigene

    Risiken groe und

    komplexe Systeme mit

    verteiltem Arbeiten sind

    z.B. fehleranflliger

    Wo liegen die Wachstumshebel und Risiken?

    Wie hufig sollte ich den

    Prozess anstoen?

    Jeder Prozess behandelt

    hier ein Problem oder eine

    Chance wie gro sind die

    Auswirkungen wenn es

    eintritt?

    Risiko Auswirkung Monitoring / Frequenz

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Auslser / Trigger:

    Ereignis vs. Turnus

    Relevanz

  • 1.4k seite n oder so :O

    Grundoptimierung muss vorhanden sein

    Und noch eine Anmerkung

  • IT-SEO

    Prozesse zur

    Sicherung der

    Basis

  • Ziel: Nutzbarkeit und Crawlbarkeit erhalten!

    Nutzung und NutzbarkeitCrawling und Crawlbudget

    Taking crawl rate and crawl demand

    together we define crawl budget as the

    number of URLs Googlebot can and wants to

    crawl.

    Crawl rate limit:

    limits the maximum fetching rate for

    a given site

    Crawl demand:

    if there's no demand from indexing,

    there will be low activity from

    Googlebot.

    Einstiege auf Fehlerseite

    Intern verlinkte Fehlerseiten

    Verzgerungen im Laden der Seite durch

    (interne) Weiterleitungen und

    Weiterleitungsketten

    Einstieg auf Seitenfragmenten (keine weitere

    Aktion durchfhrbar)

    Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html

  • Kritische Stolpersteine in der Crawlability

    We found that the low-value-add URLs fall

    into these categories, in order of significance:

    Faceted navigation and session identifiers

    On-site duplicate content

    Soft error pages

    Hacked pages

    Infinite spaces and proxies

    Low quality and spam content

    Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html

    Soft 404

    Status 200, index, follow

  • Nutzern ermglichen, meine Seite sinnvoll zu nutzen

    Mobile to Responsive Umzug

    m.domain.de

    45 ms

    www.domain.de/

    page?id=12

    81 ms

    www.domain.de/

    sprechende-url

    166 ms

    302 301

    81 ms (28%) unntige Ladezeit

  • klassische IT-Fehler interne und externe Fehlersichten

    Tools (intern) Tools (extern)

    Weiterleitungen

    Fehlerseiten

    Doppelte

    Metaangaben

    Doppelte H1

    Und viele mehr

    Alles was crawlt.

    Achtung: Problemseiten

    mssen intern Verlinkt sein!

    Und andere

    Webanalyse-Tools

  • Redirect(-ketten) identifizieren und abbauen

    Crawlbudget schonen

    Ladezeit (vor allem mobil) nicht unntig

    erhhen

    Warum?

    1. Regelmige Crawls durchfhren

    2. Redirects identifizieren

    a. Priorisierung nach Hufigkeit der

    internen Verlinkung

    b. Templatebasierte Verlinkungen

    (Seitenweit u..) zuerst!

    3. Automatische Verlinkungen

    korrigieren lassen

    4. Redaktionelle Fehler korrigieren

    und Redakteure sensibilisieren!

    Redirect Chains mit dem Screaming Frog

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus

  • Fehlerseiten (404, soft 404, 410) identifizieren und abbauen

    Schlechte Nutzererfahrung

    Konversionskiller

    Crawlbudget besonders bei internen Fehlern

    stark beansprucht

    Seitenhygiene

    Warum?Intern verlinkt Externe Meldung

    Google Analytics /

    Webanalyse

    Google Search Console

    Crawler

    Google Analytics /

    Webanalyse

    Google Search Console

    1. Monitoring (GSC) / Regelmige

    Crawls durchfhren

    2. Fehlerseiten identifizieren

    a. Priorisierung nach Hufigkeit der

    internen Verlinkung

    b. Templatebasierte Verlinkungen

    (Seitenweit u..) zuerst!

    3. Automatische Verlinkungen

    korrigieren lassen

    4. Redaktionelle Fehler korrigieren

    und Redakteure sensibilisieren!

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus oder Event

  • Fehlerseiten (404, soft 404, 410) identifizieren und abbauen

    Ab einer gewissen Fehlermenge ist die

    Fehleranalyse und Fehlersichtung nur noch

    sehr schwer mglich.

    Detailliertes Monitoring (Verzeichnisebene)

    der Fehler laut GSC hilft fr einen groben

    berblick.

    Relevanz beachten:

    4.000 Fehler als stabiles Grundniveau

    200 neue Fehler

    Fehleranalyse mit schlechter Sicht aufwndig

    Wirkung gering

    Warten bis erffnete Tickets bearbeitet wurden

  • Nicht jeder 404er ist schlecht!

    Die echten Fehler finden

    Seiten lschen ist erlaubt. Wobei bei einer

    dauerhaften Lschung der Statuscode 410

    vorzuziehen ist.

    Gelschte Inhalte sollten aber nicht mehr verlinkt

    sein.

    Arbeitsschritte:

    Angeblichen 4XXer prfen, ob er auch 4XX ist

    4XXer klicken um Pop-Up der verlinkten Seiten

    zu bekommen

    Prfen, ob die verlinken Seiten noch erreichbar

    sind

    Prfen, ob die Verlinkung noch vorhanden ist

    ToDos:

    Intern: Links entfernen oder auf neues Ziel

    setzen

    Extern: Wenn guter Link, Zielseite weiterleiten

  • Nicht jeder 404er ist schlecht!

    Die echten Fehler f