Anwendung zur Überprüfung defekter Links

2031
pupeno

Gibt es einen Desktop oder Webanwendungen, die auf meiner Website nach defekten Links suchen?

Ich möchte, dass es in der von mir angegebenen Domain bleibt und Links, die von einer Seite zur anderen gehen, sowie Links zu anderen Websites überprüfen. Ich möchte 404, 5XX, 3XX und andere Fehler melden.

5

5 Antworten auf die Frage

9
Karl Fast

Desktop-Link-Prüfer

Webbasierte Link-Checker

Es gibt einen Haufen, von dem ich noch nie auf dieser Liste gehört habe - großartige Ressource :) warren vor 14 Jahren 0
6

LinkChecker ist ein kostenloser, von GPL lizenzierter URL-Prüfer.

rekursive und Multithread-Prüfung

Ausgabe in farbigem oder normalem Text, HTML, SQL, CSV, XML oder einem Sitemap-Diagramm in verschiedenen Formaten

HTTP / 1.1, HTTPS, FTP, mailto :, news :, nntp :, Unterstützung für Telnet und lokale Dateien

Einschränkung der Linkprüfung mit regulären Ausdrucksfiltern für URLs

Proxy-Unterstützung

Benutzername / Passwort-Autorisierung für HTTP und FTP und Telnet

achtet das Ausschlussprotokoll von robots.txt

Cookie-Unterstützung

HTML- und CSS-Syntaxprüfung

Antivirus-Überprüfung

eine Befehlszeilenschnittstelle

eine GUI-Client-Schnittstelle

eine (schnelle) CGI-Webschnittstelle (erfordert HTTP-Server)

5
caliban

Sie können das Link Validation Tool von W3C verwenden - den Link Checker von W3C .

Gutes :) vor 14 Jahren 0
Meine Güte Molly, müssen Sie dasselbe beantworten wie ich? Du holst dir immer die Upvotes !! :) caliban vor 14 Jahren 0
+1, da es rekursiv überprüft wird und auch webbasiert ist, sodass Sie es ausführen können, ohne dabei Ihre eigene Bandbreite zu beanspruchen. Kez vor 14 Jahren 1
Sehr langsam für mehr als eine Seite, da Links nacheinander geprüft werden. Etwas wie 'Link Sleuth' überprüft Dutzende Links gleichzeitig. pelms vor 13 Jahren 0
2
pelms

Ich verwende das LinkChecker Firefox-Add-On zum Überprüfen einzelner Seiten (der W3C-Checker ist eine andere, weniger benutzerfreundliche Option).

Bei Sätzen von Seiten oder ganzen Websites ist der zuvor erwähnte Link Sleuth von Xenu sehr schnell, da (im Gegensatz zu den obigen Optionen) viele Links gleichzeitig geprüft werden.

2
warren

Sie können auch erwägen, wgetim -spiderModus zu laufen. Siehe http://linux.die.net/man/1/wget für die wgetManpages :)

wget -spider <URL> scheint in der Richtung dessen zu sein, was Sie fragen.