Nach Update auf 4.03: Robots.txt sperrt Google aus

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.033
50
Hallo,

unser aktueller robots.txt-Inhalt:

Code:
User-agent: *
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Sitemap: /export/sitemap_index.xml

User-agent: ia_archiver
Disallow: /

das ist doch alles OK oder? Wieso aber meckert Google, dass nix mehr geht? Im Merchantcenter sind ALLE Produkte raus, da gesperrt...
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Was sagt den der robotstester von google zu deine Datei?
Auf anhieb würde ich sagen das bei der Sitemap die Domain vorne fehlt.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.033
50
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

der Test sagt: 0 Fehler, 0 Warnungen...
wie schaut denn zb. deine robots aus?
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Also aus unserem Testshop Version 4.02 sieht die robots.txt wie unten stehend aus.
Den einzigen gravierenden Unterschied den ich feststellen kann ist die fehlende Domain bei der Sitemapangabe.

Code:
User-agent: *
Sitemap: https://XXXXXX/export/sitemap_index.xml
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
 

Entenfurz

Sehr aktives Mitglied
28. Januar 2016
145
48
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Ja, ich finde auch nur den Fehler das du die Domain für deine Sitemap nicht eingetragen hast, da kann Google dann nichts finden.
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Hab gerade noch gesehen das du ja Probleme mit dem Merchantcenter hast und nicht mit der Indexierung bei google.
Hier solltest du vielleicht auch noch die Feeddateien überprüfen ob hier eventuell etwas nicht stimmt.
Du kannst mir auch gerne den Link zur entsprechenden Datei per PN senden.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.033
50
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

also das mit der Domain haben wir nun korrigiert. trotzdem frisst google das nicht. Im Robots.txt-Tester gibt er JEDE Seite als gesperrt an.
Grund: er wirft die Robots.txt durcheinander. Der Inhalt der robots.txt ist wie oben beschrieben gespeichert.
Google Webmastertools aber zeigt diese wie folgt an:

Code:
User-agent: *
User-agent: ia_archiver
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Disallow: /
Sitemap: https://www.XYZ.de/export/sitemap_index.xml

es wird also die vorletzte Zeile für ALLE bots gültig angezeigt - somit sind alle Seiten gesperrt. Ganz schön affig warum er das macht... ich kanns nicht nachvollziehen!!! Eigentlich sollte dies nur für den ia_archiver gelten!
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Welches Datum bzw. Uhrzeit steht den bei "Neuste Version gesehen am" im Tester?
Wenn diese älteren Datums ist müsstest du nochmal unten am Rand des Fensters auf Senden klicken und eine Aktualisierung anfordern.
 

Hardy2012

Aktives Mitglied
21. Juli 2015
25
0
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Hallo
Wenn ich den Aufbau der robots.txt richtig verstehe, dann hängt es mit der Reihenfolge zusammen.
Verschiebe die untersten beiden Zeilen ganz nach oben, dann sollte es Google richtig verstehen.
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

also das mit der Domain haben wir nun korrigiert. trotzdem frisst google das nicht. Im Robots.txt-Tester gibt er JEDE Seite als gesperrt an.
Grund: er wirft die Robots.txt durcheinander. Der Inhalt der robots.txt ist wie oben beschrieben gespeichert.
Google Webmastertools aber zeigt diese wie folgt an:

Code:
User-agent: *
User-agent: ia_archiver
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Disallow: /
Sitemap: https://www.XYZ.de/export/sitemap_index.xml

es wird also die vorletzte Zeile für ALLE bots gültig angezeigt - somit sind alle Seiten gesperrt. Ganz schön affig warum er das macht... ich kanns nicht nachvollziehen!!! Eigentlich sollte dies nur für den ia_archiver gelten!

Da steht "Disallow: /" und zwar für alle Bots "User-agent: *"
* = alle bots
Ist klar das da absolut alles gesperrt ist.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.033
50
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

exakt das ist ja das Problem: er ändert SELBST Die Reihenfolge! Der Inhalt der Robots.txt ist ja ganz anders geordnet! Das ist das Problem... nur warum tut er das?!? Der originale Inhalt ist ja oben schon genannt.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.714
2.168
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

OHa

gehe in deine .htaccess und kille diese Zeile

RewriteRule ^robots.txt$ robots.php [L]



ich hab das gerade getestet oweeehhhh wer macht denn so einen Mist
Denke dran das du die Sitemap in die echte robots.txt setzt.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.714
2.168
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

die robots.php

schlüsselt deine Daten so auf und gibt sie dann in genau dieser Reihenfolge wieder zurück :( :

Es wäre ja auch so einfach gewesen, ein einfaches file_get_contens() zu verwenden und die sitemap hinten dran zu hängen :(

Array
(
[User-agent] => Array
(
[0] => *
[1] => ia_archiver
)

[Disallow] => Array
(
[0] => /navi.php
[1] => /druckansicht.php
[2] => /suche.php
[3] => /bestellabschluss.php
[4] => /bestellvorgang.php
[5] => /jtl.php
[6] => /pass.php
[7] => /registrieren.php
[8] => /warenkorb.php
[9] => /admin
[10] => /admin/*
[11] => /dbeS/*
[12] => /
)

[Sitemap] => /export/sitemap_index.xml
)
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.033
50
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

OHa

gehe in deine .htaccess und kille diese Zeile

RewriteRule ^robots.txt$ robots.php [L]



ich hab das gerade getestet oweeehhhh wer macht denn so einen Mist
Denke dran das du die Sitemap in die echte robots.txt setzt.

Das ist es! Jetzt belässt Google die robots wie sie von mir erstellt wurde. Danke dir - sehr wichtig!!!
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

die robots.php

schlüsselt deine Daten so auf und gibt sie dann in genau dieser Reihenfolge wieder zurück :( :

Es wäre ja auch so einfach gewesen, ein einfaches file_get_contens() zu verwenden und die sitemap hinten dran zu hängen :(

Array
(
[User-agent] => Array
(
[0] => *
[1] => ia_archiver
)

[Disallow] => Array
(
[0] => /navi.php
[1] => /druckansicht.php
[2] => /suche.php
[3] => /bestellabschluss.php
[4] => /bestellvorgang.php
[5] => /jtl.php
[6] => /pass.php
[7] => /registrieren.php
[8] => /warenkorb.php
[9] => /admin
[10] => /admin/*
[11] => /dbeS/*
[12] => /
)

[Sitemap] => /export/sitemap_index.xml
)

Ich versteh den Sinn einer dynamischen robots.txt nicht, daran sollte sich doch dynamisch gar nichts ändern.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.714
2.168
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Für mich sieht es so als ob da jemand die robots dann geordnet darstellen wollte, was leider voll in die Hose gegangen ist.
Meine Meinung ist auch das man die nicht dynamisch anfassen sollte da ja alle selbsternannten SEOS da drin rumbasteln und man nie weiß auf was für Konstrukte die kommen.
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Wie sieht das mit http und https aus?
ich habe wo gelesen man soll die robots.txt für http und https gesondert erstellen.
Bei komplettverschlüsseltem shop geht das aber nicht, weil http und https ja keine verschiedenen verzeichnisse sind.
Da wäre eine dynamic für die Sitemapzeile durchaus sinnvoll, je nach dem ob http oder https aufgerufen wurde (allerdings ohne dynamische sortierung).

Wie regelt ihr das mit http und https ?
 
Ähnliche Themen
Titel Forum Antworten Datum
Neu Fehlermeldung nach update auf 5.5.2 JTL-Shop - Fehler und Bugs 4
Artikel Dialog öffnet nicht (F2) nach update auf 1.10.13 JTL-Wawi 1.10 2
Neu Fehlerhafter Abgleich nach Update auf Shop Version 5.5 Installation / Updates von JTL-Shop 4
WAWI 1.10.12.0 startet nach Update auf einem Client nicht mehr JTL-Wawi 1.10 1
Neu Nach Update auf 5.5.2: Extrem lange Ladezeiten im Front- und Backend Installation / Updates von JTL-Shop 12
JTL stürzt nach Update auf 1.10 ab JTL-Wawi 1.10 2
Hersteller können nicht hinzugefügt gelöscht oder bearbeitet werden nach Update auf 1.10.11.0 JTL-Wawi 1.10 3
Neu Weisse Seite nach Update von Version 5.4.1 auf 5.5.0 Installation / Updates von JTL-Shop 3
Neu Nach Update auf Shop 5.5.0 "HTTP ERROR 500" JTL-Shop - Fehler und Bugs 19
Nach Update auf JTL 10.10.4 wird kein Versand mehr an Amazon übermittelt JTL-Wawi 1.10 4
Neu Bestellvorschläge - meine Wahrnehmung nach Update auf 1.10.10.4 JTL-Wawi - Fehler und Bugs 4
Kein Ausdruken möglich nach Update auf dei 10.10.10.4 JTL-Wawi 1.10 2
Nach Update auf die 1.10.10.4 JTL-Wawi 1.10 10
Fehlermeldung Steuereinstellungen nach Update auf 1.10 JTL-Wawi 1.10 5
Nach Update von 1.9.4.5 auf 1.10.10.3: Probleme mit Datenbank login JTL-Wawi 1.10 1
Neu Hilfe! Nach dem Update auf 1.10.10.3 startet WAWI GUI nicht mehr! JTL-Wawi - Fehler und Bugs 8
Nach Update auf 1.10.10.3 bei Auftragsexport über Ausgabe-->Auftrag-->Exportieren Zugriff auf Pfad C:\programfiles(x86)\JTLSoftware\xxx verweigert JTL-Wawi 1.10 4
Nach Update von 1.9.4.5 auf 1.10.10.3: Nicht alle Länder einer Steuerzone zugewiesen JTL-Wawi 1.10 4
Neu Nach Update von 1.9.8 auf 1.10.10.3 - Vererben auf Kinder nicht mehr möglich JTL-Wawi - Fehler und Bugs 2
Neu Worker macht Fehler nach Update. kein Abgleich möglich Betrieb / Pflege von JTL-Shop 1
Nach Update: Shop Lizenz gültig aber mit anderen Kundenkonto verknüpft JTL-Wawi 1.10 1
Neu 500er Probleme nach Shop Update Betrieb / Pflege von JTL-Shop 4
Warnmeldung JTL-Shop Anbindung nach Update JTL-Wawi 1.10 5
Neu Nach Update 5.5.0: Überall zu viele Nullen bei den Mengenangaben (1 wird als 1,0000 angezeigt) JTL-Shop - Fehler und Bugs 8
Neu Ameise - Ebay Vorlage Erstellen - Chaos nach Update JTL-Ameise - Fehler und Bugs 0
Nach Update > Artikel > Lieferanten friert ein JTL-Wawi 1.10 3
Nach Update - JTL Artikel Fehlerhaft JTL-Wawi 1.10 5
Neu Nach Update 5.5.0 viele Nullen bei den Mengenangaben in der Bestellbestätigung JTL-Shop - Fehler und Bugs 16
Nach Update 2 Einträge im Komplettabgleich vorhanden JTL-Wawi 1.10 1
Neu Artikel werden nach JTL-Abgleich aus Google & YouTube Vertriebskanal entfernt – seit letztem Connector-Update Shopify-Connector 3
Neu Kein Login in den Admin nach Update Installation / Updates von JTL-Shop 7
Neu JTL-Wawi kein Datenbankzugriff nach Windows Update JTL-Wawi - Fehler und Bugs 8
Fahler beim Abgleich nach Update JTL-Wawi 1.10 11
Neu Ausliefern sortiert nach Gewicht User helfen Usern - Fragen zu JTL-Wawi 3
Neu Automatische Druckausgabe nach dem Tagesabschluss Allgemeine Fragen zu JTL-POS 0
Neu Automatische Öffnung der Kassenlade nach dem Tagesabschluss (Z-Bericht) verhindern Allgemeine Fragen zu JTL-POS 0
Neu Automatische Öffnung der Kassenlade nach dem Tagesabschluss (Z-Bericht) verhindern Allgemeine Fragen zu JTL-Shop 0
Neu Dringendes Problem: Bildabgleich nach Connector-Fix – "Parameter resourceUrl is empty" Fehler Shopify-Connector 4
Probleme mit Lagerbestandsübertragung bei Otto nach Artikelnummernänderung Otto.de - Anbindung (SCX) 0
Neu Nach Auftragsimport falsche Versandoption bei "Ausländern" JTL-Wawi - Fehler und Bugs 1
Neu Anmeldung an Datenbank nach Clientinstallation geht nicht ( Installation von JTL-Wawi 7
Neu Nach Größe sondieren im Jahr 2025 möglich? Allgemeine Fragen zu JTL-Shop 5
Neu JTL PayPal Checkout nach Updatefehler 2.0.0 doppelt vorhanden Plugins für JTL-Shop 3
Neu Bestand und Preisanbgleich Lister 1.0 nach 31.07.25 noch möglich Amazon-Lister - Ideen, Lob und Kritik 1
Neu Aufträge tauchen nicht in Versand auf. Nach Speichern ohne Änderung jedoch dann wieder User helfen Usern - Fragen zu JTL-Wawi 0
Neu JTL-WMS Aufträge lassen sich nicht teilliefern, erst nach Neustart JTL-Wawi - Fehler und Bugs 2
Neu 5.5.2: OPC Akkordeon scrollt bei Wechsel der Gruppe ganz nach oben JTL-Shop - Fehler und Bugs 0
Wie kann man eine Vorkasse-Rechnung / Proforma Rechnung nach Bezahlung als Rechnung ausweisen? JTL-Wawi 1.9 11
Neu Dropdownliste Shop 5.5.1 öffnet sich nach oben Allgemeine Fragen zu JTL-Shop 7
Neu Auftragspriorität automatisch zuordnen nach voraussichtlichem Lieferdatum User helfen Usern - Fragen zu JTL-Wawi 1

Ähnliche Themen