AW: Nach Update auf 4.03: Robots.txt sperrt Google aus
Ich versteh den Sinn einer dynamischen robots.txt nicht, daran sollte sich doch dynamisch gar nichts ändern.
Der Sinn war/ist folgender:
JTL kann im Auslieferungspaket keine robots.txt ausliefern, die bereits den (notwendigen) Eintrag für die Sitemap enthält, da diese Anweisung die -von
Shop zu Shop- abweichende Shop-URL enthält.
Da es aber nun mal neben den von css-umsetzung genannten SEO-Spezis eben auch die Shop-Betreiber gibt, die GAR NICHTS machen außer zu installieren, wollte man hier auch für die diese Betreiber-Gattung eine technische Umsetzung schaffen.
Diese Umsetzung geht auch solange gut, wie eben die robots.txt sich im Auslieferungszustand befindet.
Es gibt jetzt zwei Lösungsansätze:
1.) JTL überlegt sich was, wie man auch mit einer modifizierten robot.txt umgeht
oder
2.) Wenn man als Shop-Betreiber, SEO-Spezi, oder sonst All-Wissender hingeht und ändert die robots.txt ab, dann ändert man auch gleichzeitig die htaccess ab und nimt das rewriting über die php raus