Die Lösung ist in der Tat die robots.txt
Datei. Suchmaschinen-Crawler überprüfen sie zuerst, bevor sie eine Website indizieren.
Für Jira sollte sich die Datei unter befinden $JIRA-INSTALL/atlassian-jira/robots.txt
, was in Ihrem Fall so scheint /opt/atlassian/jira/atlassian-jira/robots.txt
. Die korrekte Syntax, um alle Suchmaschinen zu verbieten, lautet jedoch wie folgt:
User-agent: * Disallow: /
(Die erste Zeile gibt an, dass dies für alle Crawler gilt. Die zweite Zeile gibt an, dass diese Domäne nicht indiziert werden sollte.)
Beachten Sie, dass dies einige Zeit dauern kann, bevor Google die Suchergebnisse aktualisiert. Um es schneller zu machen, können Sie veraltete Inhalte deklarieren ! ( Weitere Informationen auf der Fehlerbehebungsseite )