Sie können wget oder curl dafür verwenden. Beide sind Befehlszeilen-Tools zum Abrufen von Webseiten und haben Optionen zum Überprüfen der Rückkehrcodes.
Zum Beispiel:
webmarc@plato:~$ wget http://www.google.com/ -S -O /dev/null 2>&1 | grep HTTP\/ HTTP/1.1 200 OK
Hier -S
wird wget angewiesen, die Serverheader zu drucken, -O
speichert die resultierende Datei in / dev / null, da ich mich nicht für den Inhalt, sondern nur für den Statuscode interessiere. Das 2>&1
ist erforderlich, weil wget dies alles auf stderr druckt. Zum Schluß leiten Sie dies nur an grep für einen Teil der Zeichenfolge, die in jedem Antwortcode enthalten ist (HTTP / 1.1 ist heutzutage Bestandteil jedes Statuscodes, aber ich habe die Version ausgelassen, damit sie mit Version 1.2 oder 2.0 funktioniert.) .
Sie können ein Bash-Shell-Skript nach den Anweisungen von einrichten
$RESULT=`pi@kali:~$ wget http://www.google.com/ -S -O /dev/null 2>&1 | grep HTTP\/` if [[ $RESULT != " HTTP/1.1 200 OK" ]] then fix_teh_broken.sh fi
Halten Sie so etwas in cron nach einem Zeitplan von 1 oder 5 Minuten, und Sie können loslegen.
Ersetzen Sie offensichtlich die URL, die Sie für Google überwachen möchten.