Nach Update auf 4.03: Robots.txt sperrt Google aus

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.021
49
Hallo,

unser aktueller robots.txt-Inhalt:

Code:
User-agent: *
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Sitemap: /export/sitemap_index.xml

User-agent: ia_archiver
Disallow: /

das ist doch alles OK oder? Wieso aber meckert Google, dass nix mehr geht? Im Merchantcenter sind ALLE Produkte raus, da gesperrt...
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Was sagt den der robotstester von google zu deine Datei?
Auf anhieb würde ich sagen das bei der Sitemap die Domain vorne fehlt.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.021
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

der Test sagt: 0 Fehler, 0 Warnungen...
wie schaut denn zb. deine robots aus?
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Also aus unserem Testshop Version 4.02 sieht die robots.txt wie unten stehend aus.
Den einzigen gravierenden Unterschied den ich feststellen kann ist die fehlende Domain bei der Sitemapangabe.

Code:
User-agent: *
Sitemap: https://XXXXXX/export/sitemap_index.xml
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
 

Entenfurz

Sehr aktives Mitglied
28. Januar 2016
133
48
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Ja, ich finde auch nur den Fehler das du die Domain für deine Sitemap nicht eingetragen hast, da kann Google dann nichts finden.
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Hab gerade noch gesehen das du ja Probleme mit dem Merchantcenter hast und nicht mit der Indexierung bei google.
Hier solltest du vielleicht auch noch die Feeddateien überprüfen ob hier eventuell etwas nicht stimmt.
Du kannst mir auch gerne den Link zur entsprechenden Datei per PN senden.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.021
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

also das mit der Domain haben wir nun korrigiert. trotzdem frisst google das nicht. Im Robots.txt-Tester gibt er JEDE Seite als gesperrt an.
Grund: er wirft die Robots.txt durcheinander. Der Inhalt der robots.txt ist wie oben beschrieben gespeichert.
Google Webmastertools aber zeigt diese wie folgt an:

Code:
User-agent: *
User-agent: ia_archiver
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Disallow: /
Sitemap: https://www.XYZ.de/export/sitemap_index.xml

es wird also die vorletzte Zeile für ALLE bots gültig angezeigt - somit sind alle Seiten gesperrt. Ganz schön affig warum er das macht... ich kanns nicht nachvollziehen!!! Eigentlich sollte dies nur für den ia_archiver gelten!
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Welches Datum bzw. Uhrzeit steht den bei "Neuste Version gesehen am" im Tester?
Wenn diese älteren Datums ist müsstest du nochmal unten am Rand des Fensters auf Senden klicken und eine Aktualisierung anfordern.
 

Hardy2012

Aktives Mitglied
21. Juli 2015
25
0
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Hallo
Wenn ich den Aufbau der robots.txt richtig verstehe, dann hängt es mit der Reihenfolge zusammen.
Verschiebe die untersten beiden Zeilen ganz nach oben, dann sollte es Google richtig verstehen.
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

also das mit der Domain haben wir nun korrigiert. trotzdem frisst google das nicht. Im Robots.txt-Tester gibt er JEDE Seite als gesperrt an.
Grund: er wirft die Robots.txt durcheinander. Der Inhalt der robots.txt ist wie oben beschrieben gespeichert.
Google Webmastertools aber zeigt diese wie folgt an:

Code:
User-agent: *
User-agent: ia_archiver
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Disallow: /
Sitemap: https://www.XYZ.de/export/sitemap_index.xml

es wird also die vorletzte Zeile für ALLE bots gültig angezeigt - somit sind alle Seiten gesperrt. Ganz schön affig warum er das macht... ich kanns nicht nachvollziehen!!! Eigentlich sollte dies nur für den ia_archiver gelten!

Da steht "Disallow: /" und zwar für alle Bots "User-agent: *"
* = alle bots
Ist klar das da absolut alles gesperrt ist.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.021
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

exakt das ist ja das Problem: er ändert SELBST Die Reihenfolge! Der Inhalt der Robots.txt ist ja ganz anders geordnet! Das ist das Problem... nur warum tut er das?!? Der originale Inhalt ist ja oben schon genannt.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.221
1.958
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

OHa

gehe in deine .htaccess und kille diese Zeile

RewriteRule ^robots.txt$ robots.php [L]



ich hab das gerade getestet oweeehhhh wer macht denn so einen Mist
Denke dran das du die Sitemap in die echte robots.txt setzt.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.221
1.958
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

die robots.php

schlüsselt deine Daten so auf und gibt sie dann in genau dieser Reihenfolge wieder zurück :( :

Es wäre ja auch so einfach gewesen, ein einfaches file_get_contens() zu verwenden und die sitemap hinten dran zu hängen :(

Array
(
[User-agent] => Array
(
[0] => *
[1] => ia_archiver
)

[Disallow] => Array
(
[0] => /navi.php
[1] => /druckansicht.php
[2] => /suche.php
[3] => /bestellabschluss.php
[4] => /bestellvorgang.php
[5] => /jtl.php
[6] => /pass.php
[7] => /registrieren.php
[8] => /warenkorb.php
[9] => /admin
[10] => /admin/*
[11] => /dbeS/*
[12] => /
)

[Sitemap] => /export/sitemap_index.xml
)
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.021
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

OHa

gehe in deine .htaccess und kille diese Zeile

RewriteRule ^robots.txt$ robots.php [L]



ich hab das gerade getestet oweeehhhh wer macht denn so einen Mist
Denke dran das du die Sitemap in die echte robots.txt setzt.

Das ist es! Jetzt belässt Google die robots wie sie von mir erstellt wurde. Danke dir - sehr wichtig!!!
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

die robots.php

schlüsselt deine Daten so auf und gibt sie dann in genau dieser Reihenfolge wieder zurück :( :

Es wäre ja auch so einfach gewesen, ein einfaches file_get_contens() zu verwenden und die sitemap hinten dran zu hängen :(

Array
(
[User-agent] => Array
(
[0] => *
[1] => ia_archiver
)

[Disallow] => Array
(
[0] => /navi.php
[1] => /druckansicht.php
[2] => /suche.php
[3] => /bestellabschluss.php
[4] => /bestellvorgang.php
[5] => /jtl.php
[6] => /pass.php
[7] => /registrieren.php
[8] => /warenkorb.php
[9] => /admin
[10] => /admin/*
[11] => /dbeS/*
[12] => /
)

[Sitemap] => /export/sitemap_index.xml
)

Ich versteh den Sinn einer dynamischen robots.txt nicht, daran sollte sich doch dynamisch gar nichts ändern.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.221
1.958
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Für mich sieht es so als ob da jemand die robots dann geordnet darstellen wollte, was leider voll in die Hose gegangen ist.
Meine Meinung ist auch das man die nicht dynamisch anfassen sollte da ja alle selbsternannten SEOS da drin rumbasteln und man nie weiß auf was für Konstrukte die kommen.
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Wie sieht das mit http und https aus?
ich habe wo gelesen man soll die robots.txt für http und https gesondert erstellen.
Bei komplettverschlüsseltem shop geht das aber nicht, weil http und https ja keine verschiedenen verzeichnisse sind.
Da wäre eine dynamic für die Sitemapzeile durchaus sinnvoll, je nach dem ob http oder https aufgerufen wurde (allerdings ohne dynamische sortierung).

Wie regelt ihr das mit http und https ?
 
Ähnliche Themen
Titel Forum Antworten Datum
Neu Nach update auf 5.4 kein Login mehr möglich JTL-Shop - Fehler und Bugs 2
Neu Nach Update auf 5.4 klappt einiges nicht mehr ! Installation / Updates von JTL-Shop 9
Nach Update auf 1.9 alle Drucker verschwunden JTL-Wawi 1.9 6
Neu Problem mit Scroll-Link nach Update auf Shop-Version 5.3.3 Technische Fragen zu Plugins und Templates 5
Nach Update auf 1.9 / Export Rechnungskorrekturen Zeile Ust doppelt JTL-Wawi 1.9 8
Neu [Entwarnung] ACHTUNG: JTL Shop 5.3.3 | Nach Update des JTL PayPal Commerce Plugins kein Backend mehr verfügbar (FATAL ERROR) Installation / Updates von JTL-Shop 2
Neu Alte Blogbeiträge sind nach Update nicht abrufbar JTL-Shop - Fehler und Bugs 0
Fatal-Error im Adminbereich nach Update - Shop läuft Upgrade JTL-Shop4 auf JTL-Shop5 4
Neu Fehlermeldung nach Shop-Update Installation / Updates von JTL-Shop 2
Neu WMS APP Sprachausgabe funktioniert nach Android Update nicht mehr JTL-WMS / JTL-Packtisch+ - Fehler und Bugs 1
Neu Nach Update von PayPal Checkout wird PayPal Zahlungsart entfernt Plugins für JTL-Shop 4
Neu Fatal error nach Shop-Update im Frontend JTL-Shop - Fehler und Bugs 8
Kassenschnittbeleg wird nach Ausdausch des Kartenlesegerätes nicht mehr ausgedruckt JTL-Vouchers - Fehler und Bugs 0
Neu Filter nach Bezahlstatus in Packtisch+ Arbeitsabläufe in JTL-WMS / JTL-Packtisch+ 1
Neu Sehr lange Ladezeit der Produktseite nach Upgrade auf Version 5.4 Allgemeine Fragen zu JTL-Shop 6
Fehlermeldung nach Bildupdate,-löschen,-ändern Shopware-Connector 1
Offener Betrag nach Rechnungskorrektur? JTL-Wawi 1.9 2
Neu Keine Exportpapiere mehr bei DHL 3.0 nach UK? JTL-ShippingLabels - Fehler und Bugs 3
Nach Umstieg auf V5 Paypal express weg. Einrichtung JTL-Shop5 5
Neu Newsletter-Abonnenten werden bei Gastbestellung nach Anonymisierung entfernt JTL-Shop - Fehler und Bugs 0
Datenbank bereinigen nach Test JTL-Wawi 1.9 7
Neu Aus /Kategorie/ wird /Kategorie-2/ nach Abgleich WooCommerce-Connector 0
Neu Probleme mit PayPal-Plugin: Bestellungen "pending" & doppelte Zahlungen nach Direktzahlung Plugins für JTL-Shop 0
JTL Vouchers automatisch nach Zahlungseingang an Kunden versenden Allgemeine Fragen zu JTL-Vouchers 5
Neu WooCommerce JTL Connector nach Back-Up ist deaktiviert WooCommerce-Connector 1
In Diskussion Keine Auslieferung nach Zahlungsartänderung über Workflow JTL-Workflows - Fehler und Bugs 4
Neu Artikel wird nach Auswahl der Variante nicht mehr angezeigt JTL-Shop - Fehler und Bugs 3
Neu EVRI Label für Versand nach UK - wer benutzt es? Business Jungle 2
Neu Nach Komplettabgleich doppelt und dreifache Bilder? WooCommerce-Connector 6
Neu Sortierung nach Bestand - so wie im JTL Shop 4 JTL-Shop - Ideen, Lob und Kritik 2
Neu Admin-Bereich - automatisches ausloggen nach kurzer zeit (ungewollt) Allgemeine Fragen zu JTL-Shop 0
Neu Suchergebnisse nach Kategorien filtern Allgemeine Fragen zu JTL-Shop 0
Neu Nach Abbruch von "Auftrag anlegen" wird anderes Programm angezeigt Arbeitsabläufe in JTL-Wawi 5
Neu Auftrag nach Rechnungsstellung ändern Arbeitsabläufe in JTL-Wawi 2
Neu Abgleich mit JTL Shop läuft nach zahlreichen erfolgreichen Durchläufen nicht mehr weiter JTL-Shop - Fehler und Bugs 11
Neu SQL Abfrage - Sendungsnummern als Liste nach Datum Schnittstellen Import / Export 2
Neu Nach Datenbank-Migration Fehler: keine Lieferzeit usw. JTL-Shop - Fehler und Bugs 1
Neu Nach dem entfernen des PayPal Checkout werden keine Zahlungsarten anderer Anbieter angezeigt. JTL-Shop - Fehler und Bugs 4
Neu JTL WAWI - Suche nach Designer für eBay-Vorlage mit CLP-Feldern Dienstleistung, Jobs und Ähnliches 1
Neu WMS - Verpacken - gepackte Positionen rutschen nicht nach unten JTL-WMS / JTL-Packtisch+ - Fehler und Bugs 1
Beantwortet Automatischer Logout nach X Minuten inaktivität beim WMS Mobile? [WAWI-73340] Arbeitsabläufe in JTL-WMS / JTL-Packtisch+ 1
In Diskussion Kopieren oder Auslösen von Workflows in anderen Bereichen (Von Rechnung nach Kunde) JTL-Workflows - Ideen, Lob und Kritik 2
Umsatzsteuer EU-Ausland nach Überschreitung 10000 Schwelle - Hilfe gesucht JTL-Wawi 1.9 15
Neu Suche nach zuverlässigen Lieferanten für umweltfreundliche Kartonagen mit Höhenriller Smalltalk 1
Neu ++ Fehler beim update von 1.55.5.3 auf version 1.8.11.0 ++ Installation von JTL-Wawi 8
Neu Update JTL Wawi von 1.0.0.0 auf 1.8.10.0 Installation von JTL-Wawi 8
Neu JTL2Datev ist defekt bei mir seit dem Update von 30.10.2024 User helfen Usern - Fragen zu JTL-Wawi 6
Neu Warnung: Update auf Shop 5.4 Installation / Updates von JTL-Shop 39
Neu Update auf 5.4.0 schlägt fehl Installation / Updates von JTL-Shop 4
Update von 1.6.47.2 auf 1.9.5.3 (Registrierung, usw.) JTL-Wawi 1.9 1

Ähnliche Themen