In dieser Sendung des SEOHouse widmen wir uns den eher sperrigen Themen der Mehrsprachigkeit, sowie der Steuerung des Crawl- und Indexbudgets im IT-SEO. Dafür haben wir uns mit Tobias Schwarz von Audisto, dem Experten zum Thema in die Show geholt. Und er hat für Euch auch ein extrem gutes Gewinnspiel mitgebracht. Dazu aber später mehr!

SEOHouse Housekeeping

 (ab: 02:45 Min.)

  • Danke für Eure Rückmeldungen zur Frage wie wir mit dem Monatsrückblick umgehen sollen. Eure Meinungen waren eindeutig, der Rückblick bleibt!
  • Danke an Thomas Wagner für den Hinweis auf TuneIn, wir sind dort jetzt ebenfalls mit Termfrequenz vertreten. Ihr könnt uns jetzt auf dem Amazon Echo hören: http://tunein.com/radio/Termfrequenz—Online-Marketing-Podcasts-p958459/

SEO Rückblick

 (ab: 04:07 Min.)

Crawlbudget, Indexbudget und Mehrsprachigkeit – SEOHouse Fokusthema

 (ab: 33:07 Min.)

  • Strukturoptimierung
    • Segmentierung von Seiten
    • Mathematische Berechnungen auf dem Linkgraph
    • Segmentierung
  • Mehrsprachige Seiten
    • Hreflang
    • Was man bei der Implementierung und Prüfung verbocken kann
    • Wie es zu tonnenweisen Fehlern in der Searchconsole kommen kann und warum das halb so schlimm ist
    • Wie man es richtig macht
    • Was man alles speichern muss und welche Datenmengen das sind
    • Was wir unterwegs cooles gebaut haben

Mehr dazu bei Audisto:

SEO-Konferenzausblick

 (ab: 01:22:46 Min.)

SEO-Jobs

 (ab: 01:27:38 Min.)

Das SEO-Gewinnspiel für Profis mit echten Problemen!

 (ab: 01:29:38 Min.)
Tobias stellt einen Account von Audisto für 2 Millionen URLs zur Verfügung. Und der Hammer, er wird die Ergebnisse des Crawls mit Euch eine Stunde besprechen! Und glaubt mir, jedes Gespräch mit Tobias lohnt sich. Weshalb wir dieses Paket nicht verlosen. Vielmehr könnt Ihr Euch bewerben!

Schildert uns hier in den Kommentaren, welches Problem Euch beschäftigt und warum Ihr wirklich dringend eine Analyse mit einer zweite Meinung benötigt. Tobias wird dann den auswählen, dem er am besten helfen kann.

Wer als Inhouse-SEO seinen Arbeitgeber nicht öffentlich nennen kann, kann hier gerne mit einer privaten eMail kommentieren. Wichtig ist, dass wir Euch über die Mail erreichen können. Und natürlich müssen wir anhand Eurer Beschreibung Euer Problem verstehen können.

Bewerbungen bis einschließlich dem 25.02.2017 werden berücksichtigt.

Somit sind wir am Ende der Sendung angelangt. Wir hoffen, Euch hat es wieder Spaß gemacht uns zu lauschen und wir freuen uns über Kommentare, Kritik und natürlich Bewertungen auf iTunes:

 

 

The following two tabs change content below.

SEO House

Das SEOHouse wird Euch präsentiert von Jens Fauldrath und Markus Walter. Wir freuen uns auf Eure Kommentare, Anregungen und Themenvorschläge. Für direkte Fragen könnt Ihr uns per Mail an die seohouse@termfrequenz.de erreichen. Vergesst nicht, uns bei iTunes zu bewerten & abonnieren.

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Pflichfelder sind mit * markiert

14 Kommentare zu “Crawlbudget, Indexbudget und Mehrsprachigkeit im SEO – SEOHouse78

Trackbacks & Pingbacks

Kommentare

  1. Patrick Feb 12, 2017

    Sehr gutes Thema und ein sehr informativer Podcast :)

    Das Thema beschäftigt uns im Moment ziemlich stark. Wir sind zwar kein Shop mit Millionen Seiten, aber laut Search Frog Crawling schwanken wir zwischen 500.000 und 400.000 Seiten. Je nach aktivem Angebot.

    Ich habe drei Fragen konkret zum Crawling-/Indexbudget:

    1. Ist es problematisch, eine low-index-Strategie zu fahren? Wir haben mit einem Shop in etwa 400.000 Seiten und nur etwa 4000 Seiten auf robots index. Ist das ein problematisches Signal? Wir machen das, 1. weil wir bei PDPs (Produkt Detailpages) noch nicht die Möglichkeit haben sie automatisch zu indizieren. 2. wollen wir die meisten PDPs nicht im index haben, weil sie problematische Staple Seiten (PDPs mit Variationen aber verschiedenen URLs) sind, die faktisch duplicate Content erzeugen bzw. kein Suchvolumen haben. 3. Gibt es auch einige Kategorien, die sich kannibalisieren. Leider möchten andere Stakeholder diese Kategorien nicht auflösen.

    2. Können Tracking Parameter ein Problem für das Crawlbudget darstellen? Wir haben auf fast allen Seiten Parameter fürs Tracking. Intern gibt es die Meinung, dass Tracking über Parameter schneller und effektiver ist, als über Pixel. Die Canonicals sind in der Regel (bis auf ein paar Problemseiten) korrekt und wir haben sie auch bei GSC angegeben.

    3. Wir sehen im Crawlreport, dass 30% alle Events post Requests sind (es geht hierbei meist um nachgeladene verwandte Produkte). Hilft es, diese einfach durch die robots.txt auf disallow zu stellen oder ist das egal?

    Zu Audisto: Gibt es hier auch gute User/Video Guides. Ich will das Tool mal testen, aber mich vorher einfach sehr genau über alle Optionen informieren.

    Gruß
    Patrick

    • @Patrick:

      1.) Nur sehr wenige Seiten zu indexieren ist eigentlich immer verschenktes Potential. Du wirst einen Haufen Relevanz auf Seiten binden, die wegen noindex nicht auf den Traffickanal SEO einzahlen. Durch den Abbau dieser Seiten kannst du die verbleibenden Seiten stärken. Alternativ könntest du die Seiten für SEO nutzbar machen und dann auch auf index stellen. In welchem Umfang da aktuell Potential verschenkt wird kann man durchaus ausrechnen und mit einer Logfile-Analyse könnte man auch mal nachschauen wie sich Google hier verhält.

      2.) Tracking Parameter sind ein großes Problem für Suchmaschinen. Sie sind oft nicht als solche zu erkennen und werden daher trotzdem gecrawlt. Das bindet Ressourcen die dann nicht für das Crawling anderer Seiten zur Verfügung stehen. Google kann mit einigen Parametern gut umgehen. Dazu zählen insbesondere die Utm-Parameter. Den Faktor Tracking-Parameter hätte Google im Blog Post durchaus auch noch erwähnen sollen.

      3.) Wenn Google in dem Maßstab Post-Requests ausführt, dann gehe ich davon aus, dass die Nachgeladenen Inhalte aktuell dem Seiteninhalt zugerechnet werden. Ich wäre hier sehr vorsichtig mit einer Sperrung, da dies mitunter große Auswirkungen auf den Inhalt der Seiten und auch auf die interne Verlinkung haben kann. Ohne sich dies genauer anzuschauen ist eine Bewertung hier schwierig. Generell kann ich aber nur abraten auf Lösungen zu setzen die Javascript erfordern. In diversen Logfileanalysen haben wir gesehen, dass es oft massive Probleme mit nachgeladenen Inhalten gibt.

      bzgl Audisto: Unser Service hört nicht bei den Daten auf. Wir bieten durchaus auch Consulting an und unterstützen unsere Kunden mit Analysen und Wissenstransfer. Darüber hinaus haben wir umfangreiche Artikel und Hilfetexte. Videos haben wir aktuell nicht.

    • Jens Fauldrath Feb 14, 2017

      Was Tobi sagt, er war schneller :-) Bewerbe Dich doch für das Crawlingpaket von Tobi, wird Dir helfen!

    • Patrick Feb 14, 2017

      pat

    • Jens Fauldrath Feb 14, 2017

      ?

    • Patrick Feb 15, 2017

      Ups mein ganzer Text war weg…

      Erstmal Danke Tobias.

      Zu 1) Wir arbeiten daran, sehr viel mehr Seiten sinnvoll zu indexieren. Dafür müssen aber noch einige Dinge vorbereitet werden. Was meinst du genau mit „Potential berechnen“?

      Zu 2) Im Moment tracken wir mit Parametern nach den URLs und zwar bei fast jeder URL (auch manchmal mit mehreren Tracking Parametern). Es gibt Probleme mit Kannibalisierung für Tracking + blanke URLs. Allerdings will unser Team keine Tracking Pixel wegen JS (Argumente: Page Load, JS Blocking durch Extensions).

      Zu 3) Wir monitoren gerade das disallow der post Requests. Bisher ist relativ wenig passiert. Werden es aber wohl wieder rausnehmen.

      Ich schaue mal was mein Budget hergibt und hoffe, dass wir nächste Woche bei Audisto zuschlagen können. Es gäbe einige interessante Fragestellungen.

      @Jens:

      – Ich wollte noch Feedback zum Aufbau des Podcast geben: Ich bin großer Fan. Finde es aber auch immer gut, wenn ihr eine Folie zu dem Pod habt, weil ihr ab und an kollegial in euer Gespräch versunken seid. Ihr wisst dann sehr genau worüber ihr sprecht, als Zuhörer muss ich aber öfter zurückspulen und nochmal reinhören. Ein stringenterer Mittelteil würde hier helfen.

      – Noch ein thematisches Feedback: Ich habe mir in letzter Zeit ein paar Sachen von Casey Winter (Pinterest) bezüglich Growth Teams angehört/durchgelesen. Auf den ersten Blick wirken diese Ansätze integrativer als eure Perspektive. Wobei ich gerade euer Verständnis als Inhouse nachvollziehen kann und mich hier sehr gut aufgehoben finde. Daher meine Frage: Könnt ihr mal in einem Podcast über den Tellerrand hinausschauen und versuchen zu analysieren, wie SEO wo anders angesehen/betrieben wird?

    • Mit Potential berechnen meine ich, dass wir eine interne PageRank-Berechnung durchführen und damit aufzeigen können wie viel PageRank z.B. auf Noindex-Seiten oder Seiten eines bestimmten Typs gebunden ist. Damit lässt sich abschätzen wie viel man umverteilen könnte.

  2. Coole Folge. – ⭐️ ⭐️ ⭐️ ⭐️ ⭐️
    Inhaltlich sehr gut aufgebaut und die Soundqualität war auch wirklich gut.

    Kurze Frage an die Spezialisten:
    Wie steuert ihr das Crawling, wenn ihr keinen Zugriff auf
    – Sitemap
    – robots
    und bedingt Einfluss auf die interne Verlinkung
    habt.
    Jens sollte das aus der Magenta-Zeit ja nicht ein unbekanntes Thema sein oder?
    Die Frage ist tatsächlich kein Scherz, auch wenn es vielleicht so klingt, aber das ist echt nen riesen Thema.

    Viele Grüße,
    M

    • Ohne umfangreichen Einfluss auf die interne Verlinkung, robots.txt und Sitemaps wird das sehr schwierig. In der Tat sind dies nämlich die besten Werkzeuge die wir dafür haben. Ehrlich gesagt kann ich mir nicht vorstellen, wie man sinnvoll Einfluss auf das Crawling einer Seite nehmen soll ohne an all diesen Dingen Änderungen vorzunehmen.

    • Jens Fauldrath Feb 14, 2017

      Hallo Marco,

      ja das ist dann alles sehr schwer. Ich habe immer versucht eine Doppelstrategie zu fahren. Zum einen das Umzusetzen, was im Rahmen der jeweils aktuellen Rahmenbedingungen möglich ist. Das bedeutet für Dich wahrscheinlich eher die Inhalte als die IT zu optimieren. Und auf der anderen Seite die Rahmenbedingungen zu ändern. Letzteres dauert, manchmal auch Jahre, aber es lohnt sich. Höre Dir dazu mal die Folge mit Anke an: http://www.termfrequenz.de/podcast/seo-organisation-seohouse-76/

      LG, Jens

  3. Moin,
    Der Republishing Praxisguide – Update! Link zeigt auch auf die Feedoptimierung.
    Ansonsten sind die Show und die Shownotes wieder extrem gut und hilfreich
    VG
    Wolfgang

  4. Zwei Punkte:

    1.) Ich glaube diese blurry „Read More“ unter manchen Artikeln, wie von Euch angesprochen, sind dazu da, dass wenn ich auf der Seite lande und feststellt, dass der Artikel doch nichts für mich ist, ich gleich zum nächsten Artikel/Footer komme, ohne erst den (langen) Artikel durchscrollen zu müssen.

    2.) Die Stimmen von Euch klingen so, als würde in der Küche oder im Bad aufgenommen. So „blechern“ irgendwie. Bin kompletter Audio-Laie, ich kenne es von Wrint & Co., dass die Sprecher alle ganz klar rüberkommen.

    • Jens Fauldrath Mrz 20, 2017

      Hallo Uwe,

      zu 1: Wenn ich denke, dass mein Artikel nicht interessiert, warum ist eir dann überhaupt online. Ist jetzt etwas überspitzt… IMHO dient der Button eher dem Tracking, ist aber einfach unschön.

      zu 2: Da hast Du recht. Holger und Tim sind aber Profi-Podcaster und hinsichtlich der Technik sowohl besser ausgerüstet als auch wesentlich versierter als ich. Ich bitte dieses einfach zu entschuldigen. Ich podcaste nur nebenher und für eine aufwendige Postproduktion fehlt mir schlicht die Zeit. Ich hoffe, man kann uns dennoch anhören.

      LG, Jens

  5. Carsten Mai 10, 2017

    Hi Zusammen,

    danke für den super Podcast. Ich finde die Href lang Diskussion spannend.

    Wie würdet Ihr Vorgehen, wenn es eine Domain in CH & DE gibt und die DE = AT ist. Würdet Ihr hier die AT separat für die DE auszeichnen?

    Option 1:

    Option 2:
    Ohne AT Auszeichung.

    Klar funktioniert es ohne AT Auszeichnung, die Frage ist kann man das Land mit einer gezielten Auszeichung pushen bzw. ist es eurer Meinung nach sinnvoll? Die zusätzliche Komplexität ist erstmal zweitrangig :)

    Bin am überlegen, eine Auszeichnung auszutesten.

    VG,
    Carsten

termfrequenz © 2017