Gecrawlt - zurzeit nicht indexiert: Indexierungsprobleme lösen (Praxisbeispiele & Tools)
Вставка
- Опубліковано 24 лип 2024
- Immer häufiger ärgern sich Webmaster darüber, dass Ihre Seiten zwar gecrawlt, aber nicht in den Google Index aufgenommen werden. In dieser Folge möchte ich dir zeigen, woran das liegen kann und wie du Indexierungsprobleme löst.
🥳 Ein fettes Danke geht raus an Thomas Czernik und Dani Schenker, die uns zwei Praxisbeispiele zur Verfügung gestellt haben.
Inhaltsverzeichnis:
00:00 Intro
00:26 Gecrawlt - zurzeit nicht indexiert
04:10 Praxisbeispiel
07:44 Google erklärt, warum scheinbar immer weniger Seiten indexiert werden
10:20 Noch zwei Praxisbeispiele
19:38 Tool vorgestellt - Indexmenow
Laut Google ist es „normal“, wenn nur 30-60 % der Inhalte einer Website indexiert werden (www.seo-suedwest.de/7118-goog.... Eigentlich eine erschreckend geringe Zahl. Klar, bei großen Seiten oder Shops mit vielen Produktvarianten kann eine Indexierung kleiner ausfallen, allerdings sollte jede Website ihre Hausaufgaben beim Indexierungsmanagement gemacht haben. Und Seiten, die ohnehin keine Suchanfragen befriedigen können, gehören sowieso auf noindex gesetzt. Beispiele sind die oben erwähnten Produktvarianten, aber auch Impressum, Datenschutz, leere Kategorieseiten und vieles mehr haben einfach nichts im Index verloren. Triffst du hier keine Auswahl, sondern versuchst alle Seiten in den Index reinzustopfen, wird Google selbst bestimmen, welche URLs „rein“ dürfen in den Index und welche eben nicht. Tipp: So viel Vertrauen sollte man in Google als Webmaster nicht haben! ;-)
Du findest eine Liste aller URLs, die gecrawlt, aber zurzeit nicht indexiert sind, in der Google Search Console unter Index Abdeckung Ausgeschlossen. Schau dir die URLs dort genau an - sind welche dabei, die wirklich in den Index rein sollen und eine Suchanfrage beantworten können? Dann solltest du handeln!
Zur Sicherheit kannst du immer eine „Site-Abfrage“ (site:url) bei Google selbst durchführen. Manchmal ist die Google Search Console etwas hinterher, was die Aktualität der Daten anbelangt.
Über die URL-Prüfung in der Google Search Console kann eine manuelle Indexierung beantragt werden. Dieser Schritt reicht in vielen Fällen bereits aus, damit die URL in den Index aufgenommen wird.
Tipp: Mit dem kostenpflichtigen Tool indexmenow.com/ haben wir gute Erfahrungen gemacht, wenn eine Indexierung nicht über die Google Search Console (GSC) klappt.
Aber wo liegt das Problem, wenn all das nicht hilft? Die Gründe hierfür sind verschieden:
● Seite beantwortet keine Suchanfrage(n)
● Inhaltsqualität nicht gut genug (kein Mehrwert, Duplicate & Thin Content)
● Keine oder zu wenige Backlinks
● Zu tief versteckte Inhalte (Informationsarchitektur zu tief), keine internen Links gesetzt
● Technische Probleme: Noindex Tags, Canonicals falsch gesetzt, URLs blockiert über die Robots.txt, dynamische URLs, Servererrors, Hreflang-Tag falsch gesetzt usw.
● Gesamtqualität der Website (E-A-T) stimmt nicht
Schau dir auch in der GSC unter Einstellungen Crawling die aktuelle Crawling-Rate durch den Googlebot an. Eine geringe Crawling-Rate lässt darauf schließen, dass Google deine Website als nicht besonders hochwertig ansieht.
📌Du willst nachhaltig mehr Traffic und Leads erreichen? Mit unseren drei SEO-Paketen führen wir dein Unternehmen zum SEO-Erfolg:
🚀Monatliche SEO-Betreuung: www.farbentour.de/seo-betreuung/
🔗Linkaufbau: www.farbentour.de/linkaufbau-...
🔎SEO-Audit & Strategie-Entwicklung: www.farbentour.de/seo-audit-u...
Nimm jetzt Kontakt mit uns auf für ein unverbindliches Angebot und Erstgespräch: www.farbentour.de/ - Наука та технологія
Top Video! Wie immer :)
Danke :D
04:15 Danke dir für die Tipps bei meiner URL.
Ja ich weiß, ich muss beim Blog mal aufräumen. :)
Verständlich erklärt. Ich leite jetzt mal ab, dass eine lange Liste nicht zwangsläufig auf Qualitätsprobleme hindeutet, wie so oft propagiert. Wenn niemand nach dem Inhalt, warum also indexieren?
Danke dir. Ja, eine "lange Liste" muss nicht zwangsläufig schlecht sein :-)
Fabian wie könnte ich mit ihnen in Verbindung setzen
Ab wann sollte man autonom eine Indexierung beantragen? Sagen wir ich verfasse heute einen BlogArtikel, wie lange sollte ich dann warten, bis ich selbstständig schritte einleite.
Vielen Dank für das Video! Hast du vielleicht einen Tipp, was man machen kann, wenn man die Meldung "URL gehört nicht zur Property" bekommt? Die Seite wird von Google offenbar nicht indexiert, was ich nicht ganz verstehe.
Moin moin, also bei dieser Fehlermeldung versuchst du scheinbar eine URL in deiner Search Console einzutragen, die nicht zur Domain gehört. :-)
@@Farbentour Danke für die Antwort. Nein, das war nicht der Fall. Es war definitiv eine URL meiner Domain ^^ Habe das Problem jedoch lösen können. Ein simples "www" nach dem "" war die Lösung. :)
@@spiritualpowerart8492 Ahhh, okay :-)
Hallo danke für den Video. Ich bin nur grade am verzweifeln weil die Meldung hab "crawler uneingeschränkt zugriff erlauben" kann du mir ein tipp geben wie ich das beheben kann?
Danke
Hi, danke für deinen Kommentar. Hast du evtl. den Crawler blockiert? Z. B. über die Robots.txt?
@@Farbentour danke für Tipp. Ich werde es kontrollieren.
Top Video!
Ich hatte dasselbe Problem gefühlt schon einige Male und auch den Fehler gefunden - zurzeit nicht indexiert, einfach nur nervig.
Wenn bei einer Seite gecrawlt - zurzeit nicht indexiert steht, aber bei Indexierung zulässig? - Ja steht, muss man sich keine Sorgen mach, dann dauert es meist nur ein wenig.
Hast du vielleicht Tipps oder Tools, die dafür sorgen, dass der Googlebot etwas schneller über die neu aktualisierten Seiten darüber geh, weil das über die GSC gefühlt mehre Jahre dauert.
Probier mal IndexMeNow... innerhalb von 48 Std. hast du meistens deine Seiten im Index dann :-)
Würde es eigentlich Sinn machen, die kompletten nicht deutschen Seiten auf noindex zu setzen, wenn man im Verhältnis zu viele Impressions verstreut im Ausland hat. Erhöht das die Relevanz des deutschen Contents?
Es kommt drauf an ;). Das Löschen von anderen URLs erhöht nicht die Relevanz des deutschen Contents in der Regel.
Gegenfrage: Willst du denn International überhaupt ranken oder worum gibt es solche Seiten auf deiner Website? Wenn du nicht mit denen ranken willst, würde ich diese löschen.
Das IndexMeNow Tool funktioniert ja wirklich und das ziemlich gut. Das Hätte ich überhaupt nicht gedacht. Ich habe es immer mit einigen andern kostenpflichtigen Index Tools und kostenlosen Tools wie PingMyUrl probiert, leider wirklich ohne Erfolg. Konntest du eigentlich zurückverfolgen, wo deine URL alles verlinkt worden ist? Oder ist es wie in den FAQ beschrieben nicht möglich das zurückzuverfolgen?
Weißt du zu zufälligerweise, ob Backlinks zählen, wo der Beitrag von einer bestimmten Unterseite nicht im Index ist, aber trotzdem auf meiner Webseite verweist, ob der Link überhaupt, was bringt? Ich habe gelesen das es ein Toter Backlink ist und nichts bringen soll. Aber mit dem IndexMeNow kann man ja das Problem relativ gut lösen.
Backlinks aus Seiten, die nicht im Index zu finden sind, dürften von Google als relativ schwach bewertet werden. Wenn der Content so "schlecht" ist, dass dieser nicht mal im Index ist, dürfte der Link aus so einem Content heraus auch nichts wert sein.
Ja, Indexmenow ist wirklich richtig gut, um schnell mal ein paar Seiten/URLs in den Index zu bekommen.
@@Farbentour Okay Danke :)