So verhindern Sie zusätzliche Latenzzeiten, die durch einen Download verursacht werden

559
Matin Lotfaliee

Ich verwende tcping, wodurch ein TCP-Port gepingt wird, um die Verbindung meines Computers zu einem bestimmten Port zu überprüfen. Die durchschnittliche Antwortzeit einer bestimmten Adresse und eines Ports beträgt bei normaler Verbindung 50 ms . Nun starte ich mit IDM einen Download von einer anderen Adresse, der die Datei aufteilt und die Dateien gleichzeitig herunterlädt. Meine Ping- Antwortzeit erhöht sich auf etwa 1500 ms . Ich bin sicher, dass mein Download diese Antwortzeit erhöht hat, denn wenn ich den Download pausiere, geht die Antwortzeit auf 50 ms zurück .

Bild des Problems

Ich möchte diese Verlängerung der Antwortzeit für registrierte Adressen und Ports verhindern.

Ich möchte kein NetLimitter oder NetBalancer verwenden .

Ich habe auch versucht, dies . Ich habe Wireshark überprüft und bin sicher, dass der DSCP eingestellt ist, aber mein Problem ist nicht gelöst.

1
Was für ein Internetpaket hast du von deinem ISP? Was für ein Router? Wie ist der Computer mit dem Internet verbunden? Julysfire vor 6 Jahren 0
Können Sie die Anzahl der gleichzeitigen Verbindungen (gleichzeitige Downloads / Threads) oder das, was in IDM aufgerufen wird, unter Ihre CPU-Anzahl reduzieren? So dass es eine freie CPU für das Tcping gibt. Hilft das? HelpingHand vor 6 Jahren 0
Sie möchten nicht genau die Tools verwenden, die Sie daran hindern, Ihre Verbindung zu sättigen, und deshalb Ihr Problem tatsächlich heilen? Nun, die einzigen Alternativen sind, IDM loszuwerden oder das Herunterladen von Dingen überhaupt zu beenden. Wenn Sie uns nicht sagen, * warum * Sie sie nicht verwenden möchten, ist es ein bisschen unpraktisch, sie auszuschließen. Mokubai vor 6 Jahren 2
@Julysfire Mein Router ist Linksys X3500. Der Computer ist über WLAN mit dem Router verbunden, und der Router ist über eine Telefonleitung und ADSL2 + mit dem ISP verbunden Matin Lotfaliee vor 6 Jahren 0
@Biswa Ich möchte zwischen Ports wählen können. Einige Ports sind langsamer und andere sind schneller. Matin Lotfaliee vor 6 Jahren 0
@EMK nein das ändert nichts. Matin Lotfaliee vor 6 Jahren 0
@Mokubai Ich möchte diese Lösung in meiner eigenen Anwendung verwenden, die viel Internetverkehr verwendet, und es muss auch ein gutes Keep-Alive mit einem anderen Server vorhanden sein. Matin Lotfaliee vor 6 Jahren 0
@Biswa OK. Die Ergebnisse sind jedoch die gleichen. Das Problem besteht immer noch. Matin Lotfaliee vor 6 Jahren 0
@Biswa Das Problem des OP hat nichts mit den verwendeten Ports zu tun. Er erlebt Bandbreitenstreitigkeiten. Wenn sich die Netzwerkverbindung der Sättigung nähert, leiden * alle * Verbindungen (unabhängig vom Port) an erhöhter Latenzzeit, es sei denn, es werden Mechanismen eingerichtet, um bestimmte Verbindungen gegenüber anderen (z. B. QoS) zu priorisieren. Twisty Impersonator vor 6 Jahren 0
@ Twisty Ich habe gute Nachrichten für dich: Es stellt sich heraus, dass das ein Mythos ist. Google "bufferbloat". Mit intelligenteren Warteschlangenalgorithmen wie CoDel können Sie die Bandbreite ohne Latenz oder QoS sättigen. Spiff vor 6 Jahren 0

2 Antworten auf die Frage

-1
Andriy Berestovskyy

Jede Internetverbindung hat zwei Richtungen: vom Benutzer zum Internet und zurück. Jede Richtung ist in Bezug auf QoS unabhängig und routet die Paketdurchquerung.

Durch das Festlegen einer Priorität für die OUTGOING-Pakete wird die Priorität der INCOMING-Pakete nicht geändert. Die Priorität und die QoS von INCOMING-Paketen unterliegen weiterhin der Kontrolle Ihres ISP.

Wenn Sie die Möglichkeit haben, Ihren Datenverkehr auf der ISP-Seite zu priorisieren, sollten Sie dies versuchen. Andernfalls besteht die einzige Möglichkeit darin, den eingehenden "Best Effort" -Verkehr auf eine Rate zu beschränken, sodass Sie immer etwas Bandbreite für Ihre Pings oder anderen "Hochprior" -Verkehr haben.

Leider ist das keine Lösung, aber ich hoffe, es wird Ihnen helfen, das Problem zu verstehen.

Sie schlagen mir also vor, selbst etwas Bandbreite zu reservieren. Recht? Matin Lotfaliee vor 6 Jahren 0
@MatinLotfaliee Dies ist die einzige Option, wenn 1) Sie keine Kontrolle über QoS auf der ISP-Seite haben und 2) der Engpass im eingehenden Datenverkehr (von Ihrem ISP an Sie) liegt. Die QoS-Konfigurationen helfen nur dann, wenn der Engpass ausgehender Datenverkehr ist (von Ihnen zum ISP). Andriy Berestovskyy vor 6 Jahren 0
-1
Spiff

Wenn die Sättigung Ihrer Upstream- oder Downstream-Netzwerkbandbreite Latenzzeiten verursacht, bedeutet dies, dass eine Box in Ihrem Netzwerkpfad (wahrscheinlich Ihr Breitbandmodem oder das CMTS oder DSLAM Ihres ISP) einen bekannten Fehler namens bufferbloat enthält, bei dem eine Box übermäßig gepuffert wird erhöht die Latenzzeit ohne Nutzen.

Das Update für bufferbloat besteht darin, den Warteschlangenalgorithmus (auch bekannt als Warteschlangendisziplin, Netzwerkplaner) des fehlerhaften Geräts auf einen latenzabhängigen intelligenten Warteschlangenalgorithmus wie FQ-CoDel zu aktualisieren.

Wenn Sie die eigentliche Box nicht mit dem Problem beheben können, können Sie das Problem umgehen, indem Sie eine Box mit FQ-CoDel an der Spitze Ihres Netzwerks einrichten und die Traffic-Shaping-Funktion so anpassen, dass sowohl im Upstream als auch im Downstream ein geringfügiger Engpass entsteht Richtungen. Auf diese Weise kann FQ-CoDel aktiv werden und die TCP-Überlastungssteuerung funktioniert, bevor aufgeblähte Pufferwarteschlangen auf der fehlerhaften Box aufgebaut werden können.

Sie können dies selbst mit Firmware-Distributionen von Open Source-Routern wie LEDE (ehemals OpenWrt) tun. Wenn Sie jedoch eine schlüsselfertige Lösung suchen, schauen Sie sich IQrouter von evenroute.com an. Offensichtlich passt es die Bandbreite während des Tages automatisch an, maximiert den Durchsatz und minimiert die Latenz.

Viele Menschen, die noch nicht über Pufferblasen erfahren haben, gehen fälschlicherweise davon aus, dass Latenzspitzen ein natürliches Ergebnis gesättigter Netzwerkverbindungen sind. Viele Leute machen auch problematische Versuche, um Pufferblasen zu umgehen, indem sie QoS optimieren und versuchen, einige Flüsse gegenüber den großen Flüssen zu priorisieren, die Blase auslösen. Das direkte Lösen von Pufferblasen ist jedoch viel besser, da alle Flüsse verbessert werden, auch die großen, die aufgebläht wurden.

*Sehr interessant. Ich habe dieses Verhalten mit einer Prävalenz beobachtet, die allgegenwärtig ist. Gibt es eine Erklärung dafür, warum so viele Geräte davon betroffen sind? Haben Netzwerk-Hardware-Anbieter keinen Anreiz, das Problem zu beheben? Gibt es in ihren Augen einen "Grund" dafür, dass dieses Verhalten bleibt? Etwas anderes? Twisty Impersonator vor 6 Jahren 0
@Twisty RAM wurde billig, sodass die Ingenieure mehr Speicherplatz für Bildpuffer hinzufügten, so dass Bilder niemals fallen gelassen werden mussten. Das Problem ist, dass die TCP-Überlastungssteuerung Frame-Drops verwendet, um eine Überlastung zu erkennen. Sie versteckten also versehentlich die Überlastung vor TCP, ohne es zu merken. Jetzt geht es darum, das Bewusstsein dafür zu schärfen, dass die Middlebox-Hersteller CoDel übernehmen. Der "BBR" -Stauungssteuerungsalgorithmus von Google behandelt die Erhöhung der Pufferblut-Latenz (nicht nur Paketabfälle) als Zeichen der Überlastung, als einen Versuch, die Endpunkte intelligenter zu machen, um diesen Middlebox-Fehler zu umgehen. Spiff vor 6 Jahren 0
@Spiff Ich bin nicht sicher, ob Sie die CoDel richtig verstanden haben ... Bitte schauen Sie sich die Wikipedia an: https://en.wikipedia.org/wiki/CoDel Es gibt zwei Dinge: 1) Mit CoDel fixieren Sie Warteschlangen unter Ihrer Kontrolle , nicht ISP und 2) der Engpass tritt auf, wenn Pakete vom schnellen Netzwerk zu einem langsamen Netz, dh vom (schnellen) ISP-Netz zu einer Clientverbindung (langsam), geleitet werden. Also CoDel auf einem Breitbandmodem wird leider nicht helfen ... Andriy Berestovskyy vor 6 Jahren 0
@AndriyBerestovskyy Die Bufferbloat-Forscher entwickelten CoDel ursprünglich auf Consumer-Hardware, weil dies einfach und in ihrer Kontrolle war, aber sie hatten nie vor, dort einfach aufzuhören. Das Ziel ist, alle Middlebox-Marken und ISPs dazu zu bringen, intelligente Warteschlangen wie CoDel oder PIE überall einzusetzen, einschließlich CMTSes, DSLAMs, Traffic Shaper usw. Mike "Dave" Tahts CoDel-Forschung wird von Comcast, einem großen Kabel-ISP in den USA, gesponsert. Es dauert eine Weile, bis alle Middleboxes im Internet repariert sind, aber der Prozess hat begonnen. Spiff vor 6 Jahren 0
@AndriyBerestovskyy Auch die von mir erwähnte Problemumgehung (das Erstellen eines künstlichen Engpasses in Ihrem Netzwerk und das Ausführen von CoDel, sodass ECN oder Drops vor dem Aufblähen auf anderen Boxen auftreten) funktioniert in beide Richtungen. Viele Menschen haben diesen Trick erfolgreich eingesetzt. evenroute.com hat sogar ein kommerzielles Produkt um diesen Trick (IQrouter) herum gebaut. Spiff vor 6 Jahren 0
@Spiff Der künstliche Engpass ist im Grunde eine Rate, die den Verkehr mit niedriger Priorität begrenzt. Es gibt also keine Magie hier ... Der einfachste Weg, dies zu tun, besteht darin, die Bandbreite Ihrer Download-Software zu begrenzen. Siehe Registerkarte "Geschwindigkeitsbegrenzer" in der ursprünglichen Frage. Andriy Berestovskyy vor 6 Jahren 0
@AndriyBerestovskyy Nein, das Fixieren von Pufferblasen hält die Latenzzeit auch ohne QoS niedrig, um einen Fluss vor einem anderen zu priorisieren. Oder auch wenn Ihr Fluss mit hoher Priorität derjenige ist, der die Blähung ausgelöst hat. Das ist das Schöne daran. Unabhängig davon, welcher Fluss die Verbindung sättigt, bewirkt die Behebung von Pufferblasen eine niedrige Latenz. Spiff vor 6 Jahren 0
@Spiff Sie haben früher geschrieben "Einen künstlichen Engpass in Ihrem Netzwerk erzeugen und CoDel darauf ausführen". Dieser "künstliche Engpass" wird als "Geschwindigkeits- / Bandbreitenlimit" bezeichnet. Sind Sie einverstanden? Andriy Berestovskyy vor 6 Jahren 0