Zillis-Web
Guest
Hallo,
checke gerade mal eine Logdatei vom Server und musste feststellen, dass Google als Suchmaschine immer fleißig ne ID verpasst bekommt:
Das sollte doch wohl eigentlich ausgeschlossen sein, oder sehe ich da was falsch?
Laut Webmastertools werden diese Seiten dann auch schön markiert mit "durch robots.txt eingeschränkte Seite"!
Das funktioniert sogar so gut, dass von meinen 7000 Links im site:index nur noch ca 500 da sind, der Rest ist wie oben beschrieben "durch robots eingeschränkt".
Was kann ich machen um dieses Desaster zu beenden?
checke gerade mal eine Logdatei vom Server und musste feststellen, dass Google als Suchmaschine immer fleißig ne ID verpasst bekommt:
Code:
66.249.71.115 - - [20/Apr/2009:15:57:45 +0200] "GET /Baumbehang-Stiefel-mit-Weihnachtsmann?JTLSHOP2=378adbdff29d9cf770075e7860feb27f HTTP/1.1" 302 - "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Laut Webmastertools werden diese Seiten dann auch schön markiert mit "durch robots.txt eingeschränkte Seite"!
Das funktioniert sogar so gut, dass von meinen 7000 Links im site:index nur noch ca 500 da sind, der Rest ist wie oben beschrieben "durch robots eingeschränkt".
Was kann ich machen um dieses Desaster zu beenden?