Der Googlebot ist der Crawler von Google, der Websites automatisch durchsucht, indem er Links von einer Seite zur anderen folgt und sie je nach Relevanz in den Index aufnimmt.
Googlebot ist, wie der Name schon sagt, der Crawler (auch Bots genannt) von Google, der für das Crawlen von Websites zuständig ist. Googlebot ist die allgemeine Bezeichnung für:
Die Aufgabe des Googlebot ist es, alle Websites und ihre Seiten über Links zu crawlen und zu scannen: Im Grunde findet und liest der Googlebot alle neuen oder aktualisierten Inhalte und fügt sie auf der Grundlage ihrer Relevanz in den Index ein.
Die von den Google-Crawlern erzeugten Besuche können in den Referrer-Protokollen angezeigt werden, und sie sollten in der robots.txt angegeben werden.
Googlebot crawlt so viele Seiten einer Website wie möglich, respektiert aber auch die vom Website-Eigentümer ausgewählten Disavow-Links.
Um Google um die (Neu-)Indizierung einer Website zu bitten, beachten Sie bitte diese allgemeinen Richtlinien: