Hi,
ich verstehe halt Google nicht ganz.
In der ROBOTS.TXT steht
Code:
Disallow: /registrieren.php
Disallow: /warenkorb.php
und in der warenkorb.php
Code:
<meta name="robots" content="noindex">
Das müsste doch eigentlich richtig sein - oder bin ich da falsch ?
Bei Google steht:
"
Indexiert, obwohl durch robots.txt-Datei blockiert: Die Seite wurde indexiert, obwohl sie durch eine robots.txt-Datei blockiert wurde. Google beachtet die Anweisungen in der robots.txt-Datei immer, es kann jedoch sein,
dass über eine andere Seite auf diese Seite verlinkt wird. Dies ist dann als Warnung markiert, da wir nicht sicher sind, ob Sie die Seite blockieren wollten, sodass sie nicht in den Suchergebnissen erscheint.
Wenn Sie diese Seite blockieren und eine Indexierung vermeiden möchten,
sollten Sie dazu nicht die robots.txt-Datei verwenden. Stattdessen können Sie entweder
"noindex" verwenden oder den anonymen Zugriff auf die Seite durch eine erforderliche Anmeldung verhindern. Sie können den
robots.txt-Tester verwenden, um zu ermitteln, durch welche Regel die Seite blockiert wird. Durch die robots.txt-Datei wird wahrscheinlich jedes für die Seite angezeigte Snippet suboptimal sein.
Wenn Sie diese Seite nicht blockieren möchten, aktualisieren Sie Ihre robots.txt-Datei so, dass die Blockierung aufgehoben wird. "