GSite Crawler - Ausschluss Robots.txt

ponsel21

Aktives Mitglied
25. August 2007
329
0
Blomberg Lippe
Hallöchen ...

ich nutze den GSite Crawler zum Erstellen meiner Google Sitemaps.

Gern möchte ich meine robots.txt beim crawlen ausschließen.
Leider crawlt aber der GSite Crawler trotzdem die Seiten wie "Druckansicht" ect. die dann von Google als Fehler angesehen werden, trotzdem ich diese Seiten in der Filterliste gesperrt habe.

SIEHE BILD:
GSITE.jpeg


Ich habe beide Möglichkeiten probiert, so wie es jetzt auf dem Bild zu sehen ist und noch einmal mit der kompletten URL davor.

Wie macht ihr das mit der Erstellung der GOOGLE Sitemap bzw. was muss ich im GSite einstellen, damit die URL´s nicht mehr in der SITEMAP auftauchen?

Würd mich freuen, wenn jemand einen Tip parat hat.

Gruß
Torsten