Keine Kategorien vergeben

Robotskonfiguration

Version vom 28. Juli 2020, 10:41 Uhr von Mlink-rodrigue (Diskussion | Beiträge) (Mlink-rodrigue verschob die Seite Robotskonfiguration nach Archive:Robotskonfiguration, ohne dabei eine Weiterleitung anzulegen: not part of v3)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Um eigene Seiten im Internet vor Webcrawlern (Dursuchen von Suchmaschinen) zu schützen, wurde die "robots.txt" eingeführt. Diese Datei befindet sich im Rootverzeichnis des Servers und ist eine Steuerungsdatei für Webcrawler, die Bereiche verbieten oder auch erlauben kann. Sie kommt oft zum Einsatz um den Datentraffic, der durch die Vielzahl von Webcrawlern verursacht wird, zu reduzieren oder auch um gewisse Bereiche für die Webcrawler zu sperren.

Weitere Informationen z.B. über den Aufbau dieser Datei erhalten Sie in der Wikipedia.

Anhänge

Diskussionen