Um Ihre Frage sofort zu beantworten: Nein, das World Wide Web, wie wir es jetzt kennen, ist nicht von HTTP abhängig. Es war nie von HTTP abhängig. Sie benötigen lediglich ein Protokoll über einen zuverlässigen Transport, mit dem ein Client eine Ressource von einem Server anfordern kann. Alles, was diese Mindestanforderungen erfüllt, reicht aus. Es verwendet jetzt HTTP, da dies das beste verfügbare Protokoll war, als das Web zum ersten Mal populär wurde. Wenn etwas Besseres als HTTP vorkommt, wie es bei SPDY der Fall zu sein scheint, wird auch HTTP in die Historie eingeblendet, da Protokolle davor verwendet werden.
Es hängt jedoch von HTML und in geringerem Maße von den verschiedenen Technologien ab, die um HTML herum gewachsen sind, wie CSS, JavaScript usw. Selbst das heutige HTML 5 wäre vor 20 Jahren als HTML erkennbar und für Browser der damaligen Zeit zum größten Teil auswertbar und eine gut gestaltete Website von heute funktioniert tatsächlich in den ältesten bekannten Browsern (da eine gut gestaltete Website von vor 20 Jahren in heutigen Browsern tatsächlich funktionieren wird).
Der Rest dieser Antwort stammt aus meiner Erfahrung und kann übersprungen werden, aber ...
Bisher wurden in den vorliegenden Antworten meistens Referenzen aus der heutigen Zeit zitiert, was sehr bedauerlich ist, da das heutige Internet nur sehr wenig Informationen über die Zeit vor dem "Dot-Com-Boom" der späten 1990er Jahre enthält. Einige dieser Referenzen stimmen nicht mit meiner Erfahrung überein: Ich war bereits Jahre vor der Veröffentlichung im Internet im Internet und hatte gute Aussichten, den Aufstieg des Internets zu verfolgen.
HTTP wurde entworfen, ein Protokoll zu sein, die auf der Übertragung von Webseiten und andere Dateien zu und von Servern effizient war. Es beseitigte verschiedene Mängel in FTP, die es als nicht ganz praktikable Wahl für das Bereitstellen von Webseiten auswirken. Zu dieser Zeit wurde FTP hauptsächlich im "aktiven" Modus verwendet, da Firewalls und NAT meistens nicht vorhanden waren. FTP hatte einen "passiven" Modus von 1985, aber es war nicht wirklich notwendig, bis sich große Teile des Internets hinter ihren eisernen Vorhängen bewegten. In beiden Modi war es im besten Fall ineffizient, mehrere Verbindungen zum Übertragen von Dateien zu öffnen. HTTP konnte FTP (oder sogar Gopher) dramatisch übertreffen, was wichtig war, wenn praktisch alle Verbindungen von zu Hause aus hergestellt wurden und dies sehr langsam war.
Während einige Webseiten über Gopher bereitgestellt wurden, lag dies vor allem daran, dass gewöhnliche Web-Clients der damaligen Zeit mehrere Protokolle unterstützten: HTTP, FTP und Gopher. Sie mussten, um Mindshare zu gewinnen. Zu dieser Zeit wurde das "Suchen im Internet" mit einem Programm namens Archie durchgeführt, das nur Informationen über Dateien auf FTP-Sites enthielt. Sie mussten dann Veronica oder Jughead verwenden, um Gopherspace zu suchen. Es gab auch WAIS, vielleicht die erste bedeutende Volltextsuchmaschine. Was Wikipedia jedoch nicht dazu sagen wird, ist, dass es ein riesig überentwickelter Mist war und Sie nichts finden konnten, wenn Sie nicht wussten, auf welcher Website sie danach suchen sollen anfangen mit.
Ich erinnere mich immer noch daran, dass ich 1995 oder so über mehrere Wochen lang Gespräche mit einem AIDS-Forscher über das Internet geführt habe und versucht habe, ihn davon zu überzeugen, dass er diese mosaische Sache ausprobieren sollte. Was ihn schließlich überzeugt hat, ist, dass John Hopkins gerade eine medizinische Datenbank eingerichtet hat, die er über HTTP im Web benötigt. Ein Webbrowser war der einzige Weg, um darauf zuzugreifen. Ich hatte viele Gespräche mit verschiedenen Leuten auf ähnliche Weise.
Damals unterstützten Webbenutzeragenten normalerweise FTP und Gopher, sodass Benutzer ein einziges Programm zum Anzeigen oder Herunterladen von Ressourcen über eines dieser Protokolle verwenden konnten. Es funktionierte und das Web nahm zu, aber selbst das Herunterladen einer nur-Text-Webseite war mit 2400 Bit / s schmerzhaft langsam, und viele Leute (ich selbst eingeschlossen) hatten immer noch nichts Besseres, als das Netz endlich für die Öffentlichkeit geöffnet wurde. Es war oft schneller, in Ihr Unix-Shell-Konto zu telneten und lynx
dort oder Telnet für die Öffentlichkeit auszuführen lynx
, die von der University of Kansas betrieben wurde. Die Universität hatte eine große Bandbreite und so musste man nur einen Bildschirm sehen (es dauerte etwa vier Sekunden, um ein 80x24-Terminal mit 2400 Bit / s aufzufrischen).
Also, von einem einzigen Programm, ob es lynx
, mosaic
oder dem Referenz - Client, dass CERN schrieb aber niemand wirklich jemals verwendet, die Sie im Internet zu der Zeit praktisch alles zugreifen konnten, da diese Programme in der Regel versteckt oder de-betonen den spezifischen Transport verwendet wird . (Das heißt, niemand hat sich schon damals die Adressleiste angesehen. Und Lynx würde die aktuelle URL nicht anzeigen, wenn Sie nicht ausdrücklich danach gefragt haben.)
Da HTTP schneller und flexibler als andere Protokolle war und HTML eindeutig eine mächtigere Sprache für die Darstellung eines Dokuments war, als es bisher verfügbar war, war der Abzug ziemlich unvermeidlich. Gopher hatte nie eine Chance; es bestand nur in wenigen Jahren in bedeutender Form. Und FTP bleibt nach wie vor sinnvoll, da es bei Übertragung großer Dateien oder ganze Verzeichnisstrukturen auf einmal etwas besser ist (vorausgesetzt, Sie haben tar
und gzip
und kennen die geheimen Beschwörungen) und bis vor kurzem war es besser für das Hochladen von Daten.
Ich versuche hier nach Hause zu fahren, dass das Web transportunabhängig ist. Es musste sein, um anzufangen, und die Tatsache, dass es ist, bedeutet, dass es mit großer Wahrscheinlichkeit noch Jahrzehnte - oder sogar Jahrhunderte - verwendet wird.