ponsel21
Aktives Mitglied
Hallöchen ...
ich nutze den GSite Crawler zum Erstellen meiner Google Sitemaps.
Gern möchte ich meine robots.txt beim crawlen ausschließen.
Leider crawlt aber der GSite Crawler trotzdem die Seiten wie "Druckansicht" ect. die dann von Google als Fehler angesehen werden, trotzdem ich diese Seiten in der Filterliste gesperrt habe.
SIEHE BILD:
Ich habe beide Möglichkeiten probiert, so wie es jetzt auf dem Bild zu sehen ist und noch einmal mit der kompletten URL davor.
Wie macht ihr das mit der Erstellung der GOOGLE Sitemap bzw. was muss ich im GSite einstellen, damit die URL´s nicht mehr in der SITEMAP auftauchen?
Würd mich freuen, wenn jemand einen Tip parat hat.
Gruß
Torsten
ich nutze den GSite Crawler zum Erstellen meiner Google Sitemaps.
Gern möchte ich meine robots.txt beim crawlen ausschließen.
Leider crawlt aber der GSite Crawler trotzdem die Seiten wie "Druckansicht" ect. die dann von Google als Fehler angesehen werden, trotzdem ich diese Seiten in der Filterliste gesperrt habe.
SIEHE BILD:

Ich habe beide Möglichkeiten probiert, so wie es jetzt auf dem Bild zu sehen ist und noch einmal mit der kompletten URL davor.
Wie macht ihr das mit der Erstellung der GOOGLE Sitemap bzw. was muss ich im GSite einstellen, damit die URL´s nicht mehr in der SITEMAP auftauchen?
Würd mich freuen, wenn jemand einen Tip parat hat.
Gruß
Torsten