Der Standard ist richtig. Das ist eine sinnvolle robots.txt. Crawl-Sperren verhindern nur die Aktualisierung von Seiten. Will man Seiten nicht in einem Index haben nutzt man ein noindex. Ein Disallow: /geheim/12345.html verrät ja mehr und schützt nicht.