Nach Update auf 4.03: Robots.txt sperrt Google aus

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.023
49
Hallo,

unser aktueller robots.txt-Inhalt:

Code:
User-agent: *
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Sitemap: /export/sitemap_index.xml

User-agent: ia_archiver
Disallow: /

das ist doch alles OK oder? Wieso aber meckert Google, dass nix mehr geht? Im Merchantcenter sind ALLE Produkte raus, da gesperrt...
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Was sagt den der robotstester von google zu deine Datei?
Auf anhieb würde ich sagen das bei der Sitemap die Domain vorne fehlt.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.023
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

der Test sagt: 0 Fehler, 0 Warnungen...
wie schaut denn zb. deine robots aus?
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Also aus unserem Testshop Version 4.02 sieht die robots.txt wie unten stehend aus.
Den einzigen gravierenden Unterschied den ich feststellen kann ist die fehlende Domain bei der Sitemapangabe.

Code:
User-agent: *
Sitemap: https://XXXXXX/export/sitemap_index.xml
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
 

Entenfurz

Sehr aktives Mitglied
28. Januar 2016
135
48
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Ja, ich finde auch nur den Fehler das du die Domain für deine Sitemap nicht eingetragen hast, da kann Google dann nichts finden.
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Hab gerade noch gesehen das du ja Probleme mit dem Merchantcenter hast und nicht mit der Indexierung bei google.
Hier solltest du vielleicht auch noch die Feeddateien überprüfen ob hier eventuell etwas nicht stimmt.
Du kannst mir auch gerne den Link zur entsprechenden Datei per PN senden.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.023
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

also das mit der Domain haben wir nun korrigiert. trotzdem frisst google das nicht. Im Robots.txt-Tester gibt er JEDE Seite als gesperrt an.
Grund: er wirft die Robots.txt durcheinander. Der Inhalt der robots.txt ist wie oben beschrieben gespeichert.
Google Webmastertools aber zeigt diese wie folgt an:

Code:
User-agent: *
User-agent: ia_archiver
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Disallow: /
Sitemap: https://www.XYZ.de/export/sitemap_index.xml

es wird also die vorletzte Zeile für ALLE bots gültig angezeigt - somit sind alle Seiten gesperrt. Ganz schön affig warum er das macht... ich kanns nicht nachvollziehen!!! Eigentlich sollte dies nur für den ia_archiver gelten!
 

fav-hosting.online

Sehr aktives Mitglied
16. Oktober 2012
780
60
Weiterstadt
Firma
FaV-Hosting
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Welches Datum bzw. Uhrzeit steht den bei "Neuste Version gesehen am" im Tester?
Wenn diese älteren Datums ist müsstest du nochmal unten am Rand des Fensters auf Senden klicken und eine Aktualisierung anfordern.
 

Hardy2012

Aktives Mitglied
21. Juli 2015
25
0
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Hallo
Wenn ich den Aufbau der robots.txt richtig verstehe, dann hängt es mit der Reihenfolge zusammen.
Verschiebe die untersten beiden Zeilen ganz nach oben, dann sollte es Google richtig verstehen.
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

also das mit der Domain haben wir nun korrigiert. trotzdem frisst google das nicht. Im Robots.txt-Tester gibt er JEDE Seite als gesperrt an.
Grund: er wirft die Robots.txt durcheinander. Der Inhalt der robots.txt ist wie oben beschrieben gespeichert.
Google Webmastertools aber zeigt diese wie folgt an:

Code:
User-agent: *
User-agent: ia_archiver
Disallow: /navi.php
Disallow: /druckansicht.php
Disallow: /suche.php
Disallow: /bestellabschluss.php
Disallow: /bestellvorgang.php
Disallow: /jtl.php
Disallow: /pass.php
Disallow: /registrieren.php
Disallow: /warenkorb.php
Disallow: /admin
Disallow: /admin/*
Disallow: /dbeS/*
Disallow: /
Sitemap: https://www.XYZ.de/export/sitemap_index.xml

es wird also die vorletzte Zeile für ALLE bots gültig angezeigt - somit sind alle Seiten gesperrt. Ganz schön affig warum er das macht... ich kanns nicht nachvollziehen!!! Eigentlich sollte dies nur für den ia_archiver gelten!

Da steht "Disallow: /" und zwar für alle Bots "User-agent: *"
* = alle bots
Ist klar das da absolut alles gesperrt ist.
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.023
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

exakt das ist ja das Problem: er ändert SELBST Die Reihenfolge! Der Inhalt der Robots.txt ist ja ganz anders geordnet! Das ist das Problem... nur warum tut er das?!? Der originale Inhalt ist ja oben schon genannt.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.276
1.986
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

OHa

gehe in deine .htaccess und kille diese Zeile

RewriteRule ^robots.txt$ robots.php [L]



ich hab das gerade getestet oweeehhhh wer macht denn so einen Mist
Denke dran das du die Sitemap in die echte robots.txt setzt.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.276
1.986
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

die robots.php

schlüsselt deine Daten so auf und gibt sie dann in genau dieser Reihenfolge wieder zurück :( :

Es wäre ja auch so einfach gewesen, ein einfaches file_get_contens() zu verwenden und die sitemap hinten dran zu hängen :(

Array
(
[User-agent] => Array
(
[0] => *
[1] => ia_archiver
)

[Disallow] => Array
(
[0] => /navi.php
[1] => /druckansicht.php
[2] => /suche.php
[3] => /bestellabschluss.php
[4] => /bestellvorgang.php
[5] => /jtl.php
[6] => /pass.php
[7] => /registrieren.php
[8] => /warenkorb.php
[9] => /admin
[10] => /admin/*
[11] => /dbeS/*
[12] => /
)

[Sitemap] => /export/sitemap_index.xml
)
 

Desecrator

Sehr aktives Mitglied
20. Februar 2011
1.023
49
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

OHa

gehe in deine .htaccess und kille diese Zeile

RewriteRule ^robots.txt$ robots.php [L]



ich hab das gerade getestet oweeehhhh wer macht denn so einen Mist
Denke dran das du die Sitemap in die echte robots.txt setzt.

Das ist es! Jetzt belässt Google die robots wie sie von mir erstellt wurde. Danke dir - sehr wichtig!!!
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

die robots.php

schlüsselt deine Daten so auf und gibt sie dann in genau dieser Reihenfolge wieder zurück :( :

Es wäre ja auch so einfach gewesen, ein einfaches file_get_contens() zu verwenden und die sitemap hinten dran zu hängen :(

Array
(
[User-agent] => Array
(
[0] => *
[1] => ia_archiver
)

[Disallow] => Array
(
[0] => /navi.php
[1] => /druckansicht.php
[2] => /suche.php
[3] => /bestellabschluss.php
[4] => /bestellvorgang.php
[5] => /jtl.php
[6] => /pass.php
[7] => /registrieren.php
[8] => /warenkorb.php
[9] => /admin
[10] => /admin/*
[11] => /dbeS/*
[12] => /
)

[Sitemap] => /export/sitemap_index.xml
)

Ich versteh den Sinn einer dynamischen robots.txt nicht, daran sollte sich doch dynamisch gar nichts ändern.
 

css-umsetzung

Offizieller Servicepartner
SPBanner
6. Juli 2011
7.276
1.986
Berlin
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Für mich sieht es so als ob da jemand die robots dann geordnet darstellen wollte, was leider voll in die Hose gegangen ist.
Meine Meinung ist auch das man die nicht dynamisch anfassen sollte da ja alle selbsternannten SEOS da drin rumbasteln und man nie weiß auf was für Konstrukte die kommen.
 

Einrad-Shop

Gut bekanntes Mitglied
3. November 2011
765
7
AW: Nach Update auf 4.03: Robots.txt sperrt Google aus

Wie sieht das mit http und https aus?
ich habe wo gelesen man soll die robots.txt für http und https gesondert erstellen.
Bei komplettverschlüsseltem shop geht das aber nicht, weil http und https ja keine verschiedenen verzeichnisse sind.
Da wäre eine dynamic für die Sitemapzeile durchaus sinnvoll, je nach dem ob http oder https aufgerufen wurde (allerdings ohne dynamische sortierung).

Wie regelt ihr das mit http und https ?
 
Ähnliche Themen
Titel Forum Antworten Datum
ERLEDIGT: Nach Update auf von Shop 5.3.x auf 5.4.0 ERROR 500 Wer kann helfen Upgrade JTL-Shop4 auf JTL-Shop5 0
Neu Nach Update auf JTL GPSR-Plugin 1.0.3 vom Backend ausgeschlossen Plugins für JTL-Shop 25
Neu JTL Connector erzeugt auf diversen Seiten wie etwa dem Warenkorb einen Bad Gateway 502 nach Update zu Woocommerce Version 9.4.3 WooCommerce-Connector 0
Nach Update auf 1.9.6.5 sind in der Wawi alle Hersteller DOPPELT ! vorhanden JTL-Wawi 1.9 5
Neu Nach update auf 5.4 kein Login mehr möglich JTL-Shop - Fehler und Bugs 2
Neu Nach Update auf 5.4 klappt einiges nicht mehr ! Installation / Updates von JTL-Shop 9
Nach Update auf 1.9 alle Drucker verschwunden JTL-Wawi 1.9 6
Neu Probleme nach update des neuen Shops JTL-Shop - Fehler und Bugs 9
Nach Update, wie Zahlungsabgleich bei Benutzern machen? JTL-Wawi 1.9 1
Neu [Entwarnung] ACHTUNG: JTL Shop 5.3.3 | Nach Update des JTL PayPal Commerce Plugins kein Backend mehr verfügbar (FATAL ERROR) Installation / Updates von JTL-Shop 2
Neu Alte Blogbeiträge sind nach Update nicht abrufbar JTL-Shop - Fehler und Bugs 0
Fatal-Error im Adminbereich nach Update - Shop läuft Upgrade JTL-Shop4 auf JTL-Shop5 4
Neu Fehlermeldung nach Shop-Update Installation / Updates von JTL-Shop 2
Neu WMS APP Sprachausgabe funktioniert nach Android Update nicht mehr JTL-WMS / JTL-Packtisch+ - Fehler und Bugs 1
Neu Fehler bei Rückbuchung nach Storno JTL-Wawi - Fehler und Bugs 0
Neu JTL-Shop Logout nach wenigen Minuten MFA / 2FA umgehen JTL-Shop - Ideen, Lob und Kritik 0
Gespeicherte Filter (Lagerbewertung) nach SQL Umzug nicht mehr abrufbar JTL-Wawi 1.9 0
Neu Rundungen nach Shop-Import - 3. und 4. Nachkommestellen entfernen? WooCommerce-Connector 0
Neu Sortieren nach Nummern fehlerhaft JTL-Wawi - Fehler und Bugs 1
Fehler beim Abgleich nach Komplettabgleich JTL-Wawi 1.9 0
In Diskussion TSE-Probleme nach Routerwechsel JTL-POS - Fehler und Bugs 2
Fehlende Mandantenauswahl nach der Aktualisierung zu JTL-Wawi 1.9.6.4. JTL-Wawi 1.9 3
Neu Hestellerangaben nach GPSR eBay-Anbindung - Fehler und Bugs 28
Neu Vorlage - Bewertungserinnerung nach Artikelkauf - Bearbeiten Allgemeine Fragen zu JTL-Shop 0
Filtern nach Onlinekunden JTL-Wawi JTL-Wawi 1.9 1
Neu Fatal Error nach Klick auf "Bestellen" Hilfe! JTL-Shop - Fehler und Bugs 1
Neu Filtern nach Sonderpreise aktivieren ab JTL-Ameise - Fehler und Bugs 0
In Bearbeitung Retoure erstellen nach 1 Woche in Wawi mit Sumup als Zahlungsanbieter Allgemeine Fragen zu JTL-POS 3
Kassenschnittbeleg wird nach Ausdausch des Kartenlesegerätes nicht mehr ausgedruckt JTL-Vouchers - Fehler und Bugs 0
Neu Filter nach Bezahlstatus in Packtisch+ Arbeitsabläufe in JTL-WMS / JTL-Packtisch+ 2
Neu Sehr lange Ladezeit der Produktseite nach Upgrade auf Version 5.4 Allgemeine Fragen zu JTL-Shop 6
Fehlermeldung nach Bildupdate,-löschen,-ändern Shopware-Connector 1
Offener Betrag nach Rechnungskorrektur? JTL-Wawi 1.9 2
Neu Keine Exportpapiere mehr bei DHL 3.0 nach UK? JTL-ShippingLabels - Fehler und Bugs 3
Nach Umstieg auf V5 Paypal express weg. Einrichtung JTL-Shop5 5
Neu Newsletter-Abonnenten werden bei Gastbestellung nach Anonymisierung entfernt JTL-Shop - Fehler und Bugs 0
Datenbank bereinigen nach Test JTL-Wawi 1.9 7
Neu Aus /Kategorie/ wird /Kategorie-2/ nach Abgleich WooCommerce-Connector 0
Neu Probleme mit PayPal-Plugin: Bestellungen "pending" & doppelte Zahlungen nach Direktzahlung Plugins für JTL-Shop 0
JTL Vouchers automatisch nach Zahlungseingang an Kunden versenden Allgemeine Fragen zu JTL-Vouchers 6
Neu WooCommerce JTL Connector nach Back-Up ist deaktiviert WooCommerce-Connector 1
In Diskussion Keine Auslieferung nach Zahlungsartänderung über Workflow JTL-Workflows - Fehler und Bugs 4
Neu Artikel wird nach Auswahl der Variante nicht mehr angezeigt JTL-Shop - Fehler und Bugs 3
Neu EVRI Label für Versand nach UK - wer benutzt es? Business Jungle 2
Neu Nach Komplettabgleich doppelt und dreifache Bilder? WooCommerce-Connector 10
Neu Sortierung nach Bestand - so wie im JTL Shop 4 JTL-Shop - Ideen, Lob und Kritik 2
Neu Admin-Bereich - automatisches ausloggen nach kurzer zeit (ungewollt) Allgemeine Fragen zu JTL-Shop 0
Neu Suchergebnisse nach Kategorien filtern Allgemeine Fragen zu JTL-Shop 0
Neu Blogbeitrags Titelbilder und Rechtliche informationen seit update auf 5.4 nicht sichtbar/ausgeblendet. JTL-Shop - Fehler und Bugs 6
Neu Update von Version 1.0.0.0 schlägt fehl auf Version 1.4.29.0 User helfen Usern - Fragen zu JTL-Wawi 3

Ähnliche Themen