GSite Crawler - Ausschluss Robots.txt

  • Hinweis: Am 25.02.2025 zwischen 21:30 u. 22:30 Uhr - Einschränkungen beim Login und Erreichen folgender Dienste: FFN, Kundencenter, Admin, JTL-Shop, JTL-Wawi, Lizenzserver, ISI Gateway, Vouchers, Kassensysteme, Plan&Produce, Versand. Grund dafür ist ein Major Upgrade des OAuth-Dienstes. Vielen Dank für euer Verständnis!

ponsel21

Aktives Mitglied
25. August 2007
329
0
Blomberg Lippe
Hallöchen ...

ich nutze den GSite Crawler zum Erstellen meiner Google Sitemaps.

Gern möchte ich meine robots.txt beim crawlen ausschließen.
Leider crawlt aber der GSite Crawler trotzdem die Seiten wie "Druckansicht" ect. die dann von Google als Fehler angesehen werden, trotzdem ich diese Seiten in der Filterliste gesperrt habe.

SIEHE BILD:
GSITE.jpeg


Ich habe beide Möglichkeiten probiert, so wie es jetzt auf dem Bild zu sehen ist und noch einmal mit der kompletten URL davor.

Wie macht ihr das mit der Erstellung der GOOGLE Sitemap bzw. was muss ich im GSite einstellen, damit die URL´s nicht mehr in der SITEMAP auftauchen?

Würd mich freuen, wenn jemand einen Tip parat hat.

Gruß
Torsten
 
Ähnliche Themen

Ähnliche Themen