ich bin ja nun kein SEO aber ich würde im
Shop schauen, wie viel Seiten es gibt, das kann ich ja anhand der Artikel und Kategorien im Shop relativ passend herausfinden.
dann ist es ja so, dass "navi.php" gesperrt ist, suche ich nun im Netz nach radsport24.de/navi.php sehe ich beispielsweise einen Fund, der mir zwar sagt, das die Seite das Suchergebnis nicht anzeigen möchte, aber Google weiß, dass die Seite existiert und durch dir robots.txt gesperrt ist. So kennt Google mit Sicherheit auch noch viele andere Suchergebnisse die Google aber nicht besuchen darf.
Ich würde mir um die Menge der in der Robots.txt gesperrten Seiten, nicht wirklich sorgen machen, so lange es Seiten gibt die indexiert werden.
Darum sage ich, zuerst prüfen ob das Verhältnis der indexierten Seiten passt, aber dabei auch beachten, das Google nicht jede Seite für indexierungswürdig hält aber 600.
Wenn die Sitemap selbst ja nur 279 Seiten überträgt, ist es ja eh schon ein wenig verwunderlich, dass, 600 im index sind oder? (auch hier weiß ich nicht aus dem Kopf, was alles in der Sitemap landet, die Menge halte ich aber für realistisch)
die robots.txt sieht soweit gut aus und wenn sie Original ist (hab die nicht im Kopf) sollte da alles OK sein.
Und immer dran denken (ich bin nur der Programmierer)