Das scheint ein Fehler zu sein:
Disallow: //
Die Sache ist, dass die robots.txt
Spezifikation - wie hier umrissen - eindeutig besagt:
Beachten Sie auch, dass das Globbing und der reguläre Ausdruck in den Zeilen User-agent oder Disallow nicht unterstützt werden. Das '*' im Feld User-agent ist ein spezieller Wert, der "beliebiger Roboter" bedeutet. Insbesondere können Sie keine Zeilen wie "User-agent: bot ", "Disallow: / tmp / *" oder "Disallow: * .gif" verwenden.
Aber einige Leute behaupten, dass dies nicht der Fall ist, wie diese Website, die besagt, dass Google Pattern-Matching verarbeiten kann :
Pattern-Matching : Derzeit scheint das Pattern-Matching für die drei Hauptfächer Google, Yahoo und Live Search geeignet zu sein. Der Wert des Pattern Matchings ist beachtlich. Schauen wir uns zunächst die grundlegendsten Mustervergleiche an, indem Sie das Sternchen-Platzhalterzeichen verwenden.
Unabhängig davon //
bedeutet das ein Literalverzeichnis eines Verzeichnisses, an das kein Name angehängt ist, da kein Platzhalterzeichen ( *
) vorhanden ist. Und //
scheint nur seltsam.
Ich vermute, es ist ein Irrtum. Ja, ein IBM-Webmaster kann Fehler machen! Ich würde aber auch vermuten, dass das robots.txt
von einem System automatisch generiert wird und irgendwie ein Pfad wie /*/
in konvertiert wurde, //
als der robots.txt
vom System automatisch generiert wurde.