Welchen Sinn macht es, wenn "Schärfe" auf einem Monitor einstellbar ist?

20447
Mehrdad

Moderne Monitore haben oft eine "Schärfe" -Einstellung.

Aber ich verstehe nicht wirklich, wie es sinnvoll ist, dass eine solche Umgebung existiert.

Die Software fordert den Monitor auf, ein bestimmtes Muster von 32-Bit-RGB-Werten anzuzeigen, oder?
Das Betriebssystem kann den Monitor in jedem Frame auffordern, eine bestimmte 1920 × 1080 × 32-Bitmap anzuzeigen.

Wenn Sie "Schärfe" einstellen, bedeutet dies, dass sich nahegelegene Pixelwerte gegenseitig beeinflussen, was den Eindruck erweckt, dass die Eingabe nicht mehr originalgetreu dargestellt wird. Das bedeutet, dass nicht mehr angezeigt wird, was angezeigt wird, was nicht angezeigt wird Sinn. Ich sehe also einfach nicht, wo dies logisch Spielraum für die Schärfeeinstellung lässt.

Woher kommt der Freiheitsgrad zum Einstellen der Schärfe?

84
Komisch, das letzte Mal, als ich Schärfe auf einem CRT sah. Damals können Sie das Timing zwischen roten, grünen und blauen Impulsen steuern, um sie entsprechend auszurichten. Wenn es etwas zu schnell oder zu langsam war, würden die drei Leuchtstoffe verschmiert. Wenn Sie sie genau richtig aufgereiht haben, war das Bild so scharf wie möglich. Das trifft natürlich auf moderne Displays nicht zu. Todd Wilcox vor 6 Jahren 29
Sie geben viele Antworten, dass sie Ihre Frage nicht beantworten. Es könnte hilfreich sein, wenn Sie sagen, warum sie die Frage nicht beantworten. Es ist erwähnenswert, dass der Monitor nicht gesetzlich dazu verpflichtet ist, das anzuzeigen, worauf die Software es anfordert. Sie könnte beispielsweise jedes dritte Pixel in Grün ändern oder umkehren. Der Grund, warum der Monitor Bilder "fuzzifizieren" kann, ist, weil genug Kunden es wollten, es könnte das Bild genauso leicht strecken, aber niemand wollte das, also nicht. Es gibt also nur zwei Arten von Antworten: Wie wird das technisch gemacht oder warum wollen die Leute das? Richard Tingle vor 6 Jahren 8
Sie haben zwei Fragen: "Welchen Sinn macht das ...?" und "Wo genau ist der Freiheitsgrad ...". Ich denke, das führt zu Verwirrung Christian Palmer vor 6 Jahren 0
@ RichardTingle: Ich vermute, die Antwort auf "Warum wollen die Leute das?" Könnte möglicherweise auch meine Frage beantworten, ja. Ich versuche jedoch mehr zu verstehen, was dies aus technischer Sicht bedeutet. Um ein Beispiel zu geben, ist es * für mich * sinnvoll *, Schärfe-Parameter für die Anzeige von RAW-Fotos zu haben, da die Zuordnung von Sensordaten zu Pixeln von Natur aus ein unterbestimmtes Problem ist (dh es gibt keine eindeutige Lösung) ) mit Freiheitsgraden wie Schärfe, Geräuschpegel usw. Aber Bitmaps * sind * Pixel, wo bleibt also Raum für Anpassungen wie "Schärfe"? Mehrdad vor 6 Jahren 3
@ChristianPalmer: Möglicherweise? Sie sind die gleiche Frage für mich. [Siehe hier] (https://superuser.com/questions/1282598/what-sense-does-it-make-for-sharpness-to-be-justierbar-on-monitor?noredirect=1#comment1895885_1282605) als wie und warum. Mehrdad vor 6 Jahren 0
@ToddWilcox: Zumindest für HP EliteDisplay-Monitore (LCD) gibt es eine "Sharpness" -Einstellung, und es funktioniert sogar mit einem digitalen Eingang (dh nicht mit VGA). sleske vor 6 Jahren 2
Ich könnte hinzufügen, dass ich "Schärfe" anpassen musste, um Benutzer zu kompensieren, die in einigen Fällen eine Brille oder Kontakt haben. PhasedOut vor 6 Jahren 2
Mit Digitalkameras können Sie auch die "Schärfe" des Bildes anpassen. Wenn die Kamera in der Lage ist, ein scharfes Bild aufzunehmen, warum wäre dies erforderlich? Benutzereinstellung ... JPhi1618 vor 6 Jahren 0
Die meisten modernen Displays mit analogen Eingängen können die Uhr und Phase automatisch anpassen, um sicherzustellen, dass das Bild scharf ist. Ich gehe davon aus, dass Sie sich darauf beziehen. Wenn es sich nicht um einen analogen Eingang handelt, handelt es sich fast sicher um eine Art Nachbearbeitung. bwDraco vor 6 Jahren 1
Ein anderes Thema, das hier nicht vergessen werden sollte, ist die Zugänglichkeit. * Sie * interessieren sich vielleicht nicht für die Einstellung der Schärfe / Helligkeit / des Kontrasts, aber es gibt sicherlich Menschen, die * die * Einstellung vornehmen müssen, um sicherzustellen, dass sie das Bild richtig sehen. Bobby vor 6 Jahren 0
Zu viel Schärfe kann für die Augen ermüdend sein, besonders wenn Sie empfindliche Augen haben. Ich persönlich milde die meiste Zeit das Aussehen; Vielleicht, weil ich ziemlich empfindliche Augen habe (in der Lage, Licht bei Frequenzen zu sehen, die für viele / die meisten anderen Personen nicht sichtbar sind), und eine Erweichung könnte eine Methode sein, um die sensorische Belastung zu reduzieren. phresnel vor 6 Jahren 0
Ein-Wort-Antwort: Erbe. Länger: CRTs benötigten die Einstellung, jetzt ist es eine Frage der Ästhetik. Chuck Adams vor 6 Jahren 0

11 Antworten auf die Frage

77
pjc50

Laut https://www.cnet.com/de/how-to/turn-down-your-tv-sharpness-control/ ist "Schärfe" auf einem LCD-Bildschirm Teil der Nachbearbeitung.

Selbst wenn Sie die Neuskalierung / Upsampling (z. B. wenn Sie versuchen, ein SD-Signal auf einem HD-Monitor anzuzeigen) und die Komplexität der Farbkalibrierung weglassen, zeigt der Monitor das Bild nicht immer als gegeben an. Dies ist eine ungünstige Nebenwirkung des Marketings.

Monitorhersteller unterscheiden ihr Produkt gerne von anderen Produkten. Wenn aus ihrer Sicht das gleiche Signal an den Monitor und einen günstigeren Konkurrenten gesendet wird und es identisch aussieht, ist dies schlecht . Sie möchten, dass Sie ihren Monitor bevorzugen. Es gibt also ein paar Tricks. Normalerweise werden Helligkeit und Kontrast außerhalb des Rahmens über das Sinnvolle hinaus aufgewickelt. Die "Schärfe" ist ein weiterer Trick. Wie können Sie Ihr Bild schärfer aussehen lassen als ein Mitbewerber, der das Bild genau so anzeigt, wie es gesendet wurde? Betrügen.

Der "Schärfefilter" ist effektiv der in Photoshop und ähnlichen Programmen verwendete Filter. Es verbessert die Kanten, so dass sie auffallen.

Ich danke Ihnen, ich glaube, Sie sind der Beantwortung des Kerns meiner Frage ziemlich nahe! Basierend auf Ihrer Antwort scheint die direkte Antwort "Nein, es macht keinen wissenschaftlichen Sinn, aber sie kümmern sich nicht darum und machen es trotzdem, weil es beim Marketing hilft". Mehrdad vor 6 Jahren 6
Bei den meisten LCDs, die ich gesehen habe, kann nur die Schärfe für analoge Signale geändert werden, was natürlich absolut Sinn macht. Schließen Sie das Display über DVI / HDMI an, und Sie erhalten keine Schärfeeinstellungen (tatsächlich verlieren Sie die meisten Signalsteuerungen, da diese nur für nicht perfekte Signale sinnvoll sind). Dies ist auch bei LCDs, bei denen es sich um hybride Monitor- / Fernsehbildschirme handelt, üblich. Da Fernsehgeräte über diese Funktionen verfügen (besser oder schlechter), sollten diese Anzeigen auch nur dazu dienen, die Funktionsparität beizubehalten. Wenn Sie der Meinung sind, es sei nur "sinnloses" Marketing, schauen Sie sich eine VHS auf einem Display an, das ein pixelgenaues Signal annimmt :) Luaan vor 6 Jahren 8
Es ist nicht nur Marketing. Die "Pixel" sind nicht in geraden Linien, noch sind sie einzelne Einheiten, wie der Name Pixel sagen würde. HackSlash vor 6 Jahren 3
@HackSlash: Woher weißt du, dass die Pixel nicht in geraden Linien liegen? Hast du meinen Monitor gesehen? Mehrdad vor 6 Jahren 2
Der Monitor kann das Bild niemals als gegeben anzeigen, und das liegt nicht an der Fertigung. Farben, Helligkeit, Schwarztöne, Auflösungen - alle variieren von Monitor zu Monitor. Ein digitales Signal könnte sagen: "Lichtpixel x bei 50% Helligkeit". Was ist 50% Helligkeit? Oder was ist 100 von 200 Helligkeit? Hängt absolut von der Monitorhardware und der Programmierung ab. Was ist blau? oder gelb? Deshalb gibt es zu Beginn Anpassungen. So kann ein Benutzer das Bild so aussehen lassen, wie es seiner Meinung nach aussehen oder genießen soll. Die Vorstellung, dass ein Signal auf jedem Monitor zu 100% genau dargestellt wird, ist lächerlich. Appleoddity vor 6 Jahren 26
@Mehrdad Nun, sobald das Bild eine andere Auflösung hat als der Monitor, kann es nicht "wie es ist" dargestellt werden. Außerdem reproduzieren verschiedene Monitore Farben auf unterschiedliche Weise (aufgrund unterschiedlicher Technologie, Qualität des Panels, Produktionsabweichung e.tc), so dass Optionen zur Kalibrierung des Monitors vorhanden sein müssen. Jannik Pitt vor 6 Jahren 1
"Nein, es macht keinen wissenschaftlichen Sinn, aber sie kümmern sich nicht darum und tun es trotzdem, weil es beim Marketing hilft". Es gibt so viele Fragen, die der gleiche Satz beantwortet ... (: xDaizu vor 6 Jahren 0
Einige der Kommentare sind technisch korrekt (wie "Der Monitor kann das Bild niemals als gegeben anzeigen"), aber die Antwort ist richtig, dass das Filtern von Filtern ist (und dass dies aus Gründen der Täuschung getan wird). Darüber hinaus wird mit einigen negativen Koeffizienten gefiltert, was hässliche Artefakte mit sich bringt. Sobald Sie dies erkannt haben, werden Sie es nie wieder sehen können. :-) R.. vor 6 Jahren 4
Ich muss Ihren Monitor nicht sehen, um zu wissen, dass in jedem "Pixel" mehrere Farbphosphore eingefärbt sind. Es ist bedauerlich, dass diese Antwort akzeptiert wurde, weil sie falsch ist. HackSlash vor 6 Jahren 0
@HackSlash Es gibt viele Nicht-CRT-Monitore, die keine Phosphore besitzen und dennoch eine Schärfeeinstellung bieten. pjc50 vor 6 Jahren 0
@ pjc50 Kannst du ein Beispiel nennen? HackSlash vor 6 Jahren 0
LCDs sind nicht auf Phosphorbasis (es sei denn, Sie zählen die weiße LED-Hintergrundbeleuchtung, was keinen Sinn macht). Die selteneren OLEDs basieren auch nicht auf Phosphor. Ihre Antwort zum Subpixel-Rendering - wird dies normalerweise auf der Computerseite gemacht, wo es tatsächlich einstellbar ist? pjc50 vor 6 Jahren 0
66
Appleoddity

Ursprüngliche Frage: Woher kommt der Freiheitsgrad zum Einstellen der Schärfe genau?

Die Schärfe hängt direkt von der Art des Signals und dem Inhalt ab, den Sie anzeigen. Filme sehen normalerweise besser aus, wenn die Bildschärfe verringert wird und die Pixel etwas verschwimmen können. Andererseits würde ein Computerbildschirm eine hohe Schärfe für klaren Text und scharfe Bilder verlangen. Videospiele sind ein weiteres Beispiel, bei dem eine höhere Schärfe besser ist. TV-Signale mit niedriger Qualität können auch mit der Schärfeeinstellung verbessert werden.

Da Monitore zur Anzeige eines Computerbildschirms oder eines Films oder praktisch jeder Videoquelle verwendet werden können, ist die Schärfe immer noch eine nützliche Einstellung.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

BEARBEITEN: Das OP hat in Kommentaren darauf hingewiesen, dass die Frage dadurch nicht beantwortet wird.

OP: Wo gibt es in dem Problem Raum für Anpassungen? Wie wenn ich Ihnen sage, x = 1 und y = 2, und dann sagen Sie "oh, und ich will x - y = 3". Das macht keinen Sinn.

Das Umwandeln eines Livebildes / Videos in elektrische analoge / digitale Signale, das Übertragen über ein bestimmtes Medium und das Wiederherstellen dieses Bildes auf einer Anzeigevorrichtung ist NIEMALS ein 1: 1-Vorgang.

Signalrauschen, Kompressionsverlust, Variationen in der Fertigung und Ausstattung, Verkabelungs- / Signaltyp und andere Faktoren spielen eine Rolle. Alle Einstellungen auf einem Monitor sind so konzipiert, dass sie dem Endbenutzer die beste Bildqualität bieten - je nach Endbenutzer. Die Interpretation ist völlig subjektiv.

OP: Diese Antwort beantwortet nicht die Frage, warum der Betrachter die Schärfe anpassen muss, wenn dies bereits vom Inhaltsersteller (z. B. Spielberg oder Excel) definiert wurde.

Wenn wir dieser Logik folgen sollen, warum müssen Monitoren dann überhaupt noch Anpassungen vorgenommen werden? Die Antwort ist, dass das, was wir auf dem Bildschirm sehen, keine 100% genaue Darstellung der Originaldaten ist.

Das beantwortet meine Frage überhaupt nicht ... Ich habe nicht nach der Schärfe gefragt. Mehrdad vor 6 Jahren 12
@Martijn: Das war nicht meine Frage ... Mehrdad vor 6 Jahren 5
@Mehrdad Können Sie Ihre Frage dann umformulieren? Es scheint, dass mehrere Antwortende (und ihre Wähler) es nicht so verstehen, wie Sie es tun. Ich nahm es auch als "Warum unterstützen LCDs die Schärfe?" (was wird von diesem beantwortet) oder vielleicht "wie unterstützen LCDs die Schärfe?" (was von Aganju beantwortet wird). Wenn Ihre Frage keine dieser Fragen ist, sollten Sie sie klarstellen. Angew vor 6 Jahren 13
@Angew: Ich bin mir nicht sicher, wie ich es formulieren soll. "Woher kommt der Freiheitsgrad für die Einstellung der Schärfe?" * ... es ist so klar, wie ich es mir vorstellen kann. Wenn Sie diesen Satz lesen, finden Sie ihn wirklich gleichwertig * "Warum unterstützen LCDs die Schärfe?" *? Mehrdad vor 6 Jahren 0
@Mehrdad Ich fand es tatsächlich näher an "Wie unterstützen LCDs die Schärfe", was von Aganju erklärt wurde, aber immer noch von Ihnen abgelehnt wurde. Angew vor 6 Jahren 3
@Angew: Das ist definitiv nicht das, was ich frage. Ich frage, was es Sinn macht, die Schärfe einzustellen, wenn der Monitor das Bild bereits vollständig über die RGB-Werte festgelegt hat. Wo ist in dem Problem Raum für Anpassungen? Zum Beispiel, wenn ich Ihnen sage, x = 1 und y = 2, und dann * sagen "oh, und ich möchte x - y = 3" *. Das macht keinen Sinn. Sie können x - y nicht willkürlich steuern, wenn Sie bereits x und y angegeben haben. Es macht einfach keinen Sinn. Es ist das gleiche Problem, das ich hier zu verstehen versuche. Woher kommt diese Flexibilität, um die Schärfe (analog zu x - y oben) zu bestimmen? Das ist meine Frage. Mehrdad vor 6 Jahren 2
@Mehrdad Also fragst du dich, warum die Schärfe in der HW des Monitors erfolgt, anstelle einer SW- (oder möglicherweise HW-) Einstellung im Computer *, bevor * das Signal über das Kabel gesendet wird? Angew vor 6 Jahren 0
@Angew: Nicht genau, aber zumindest ist es etwas näher an dem, was ich frage ... Mehrdad vor 6 Jahren 0
Es ist praktisch das gleiche wie der Photoshop-Filter "Scharfzeichnen" - siehe meine Antwort. pjc50 vor 6 Jahren 0
Aber im Fall von "Filme sehen normalerweise besser aus, wenn die Schärfe verringert wird", warum wird die Datei selbst nicht unscharf gemacht? Da es sowieso ein Software-Effekt ist (alles Software auf dem Monitor) Richard Tingle vor 6 Jahren 0
@ RichardTingle Auch meine Frage. Die Schärfe sollte von der Quelle bestimmt werden. Ich kann mir vorstellen, dass die Schärfe einer grauen Action-Szene in der Postproduktion niedriger eingestellt wird als bei einem sonnenbeschienenen Grand Canyon. Diese Antwort beantwortet nicht die Frage, warum der Betrachter die Schärfe anpassen muss, wenn dies vom Ersteller des Inhalts (z. B. Spielberg oder Excel) definiert wurde. LVDV vor 6 Jahren 0
Wie beantwortet diese Frage die Frage? Frisbetarian vor 6 Jahren 0
@Mehrdad Deine Frage wurde beantwortet. Sie weigern sich zu bestätigen, dass Monitore das Bild normalerweise nicht so anzeigen, wie es das ursprüngliche Signal beabsichtigt hat. Spielberg kann nicht erraten, wie sein Film von einem Monitor zum nächsten aussehen wird. Ganz zu schweigen von einem analogen Signal wird niemals ein Pixel für die Pixeldarstellung des Originalsignals sein, wenn dies zufällig zum Spielen kommt. Sie könnten genauso gut gefragt haben, warum der Monitor eine Einstellung für Kontrast, Helligkeit oder Farbtemperatur hat. Warum hat der Monitor überhaupt eine Bildeinstellung, wenn Ihre Logik Sinn ergibt. Appleoddity vor 6 Jahren 2
@Mehrdad, weil Monitore bereits nicht genau sind. Indem Sie den Benutzern erlauben, einige Werte zu ändern, können Sie Reklamationen vermeiden. Appleoddity hat dies richtig beantwortet. LateralTerminal vor 6 Jahren 0
Das Kabel und Signal moderner Monitore ist digital. Es wird entweder eine perfekte Übertragung oder schlechte Daten erhalten. Es gibt keinen möglichen Signalverlust oder eine Beeinträchtigung wie bei einem analogen Signal. Innerhalb des Monitors wird das digitale Signal in etwas umgewandelt, das das Panel versteht, und das ist jetzt normalerweise auch digital. Der einzige analoge Teil ist die Helligkeit jedes Elements, und diese werden von einem digitalen Wert gesteuert. HackSlash vor 6 Jahren 3
@HackSlash - stimmte zu, aber das ist nur ein Aspekt bei der Wiedergabe eines genauen Bildes. Und wenn ich die OPs-Terminologie verwenden soll - "Spielberg" weiß nicht, ob Sie analog oder digital verwenden. VGA ist immer noch sehr in Gebrauch. Aber auch wenn wir uns nur auf das Digitalsignal und den Monitor konzentrieren wollen - selbst das gleiche Modell des Monitors nebeneinander sieht möglicherweise nicht gleich aus. Allein Fertigungsschwankungen verursachen Unterschiede. Digitale Signale werden auch komprimiert, möglicherweise nicht von Computer zu Bildschirm, sondern von Kamera -> Übertragungsmedium -> Bildschirm. Appleoddity vor 6 Jahren 0
Wir sprechen über die Schärfe in der Anzeige, nachdem die Anzeige eine perfekte Anweisung für den genauen Wert jedes Pixels erhalten hat, den es anzeigen soll. Alle Dinge, über die Sie sprechen, passieren, bevor das LCD-Display das perfekte Bildsignal empfängt. Bitte lesen Sie meine Antwort zum Subpixel-Rendering, um zu verstehen, warum der Monitor nicht nur das von ihm ausgegebene Bild anzeigen kann. Die Antwort ist, dass es keine einzelnen Pixel hat. Es wird versucht, das Bild mit Subpixeln zu reproduzieren. Hinter jedem "Pixel" eines digitalen Monitors befinden sich 3 oder 4 Elemente, die sich an unterschiedlichen physischen Orten befinden. Das ist die Antwort. HackSlash vor 6 Jahren 1
@HackSlash Es tut mir leid, dass du falsch liegst. 99% der Monitore sind NICHT genau! Es ist noch schlimmer, wenn Sie in der Druckindustrie arbeiten, ist dies sofort ersichtlich. Warum, glauben Sie, müssen wir nach all den Jahren noch Pantone-Farben verwenden, um die Genauigkeit zu gewährleisten? Du denkst wir wollen? LateralTerminal vor 6 Jahren 0
@LateralTerminal hast du meinen Beitrag über das Subpixel-Rendering gelesen? Es erklärt, warum Monitore nicht genau sind. Ich bin mir nicht sicher, was dein Missverständnis ist. HackSlash vor 6 Jahren 0
@HackSlash ah Ich habe deinen Kommentar falsch gelesen. Ich habe deine Antwort bestätigt. Das ist die wahre Antwort, wie du gesagt hast. Die Bilder helfen wirklich, die Antwort besser zu erklären als der Text. LateralTerminal vor 6 Jahren 1
Warum steht diese Antwort ganz oben? Es beantwortet nicht nur die falsche Frage, es ist auch nicht richtig _ (es deutet stark darauf hin, dass ein kleiner Signalverlust die Qualität der Digitalausgänge beeinflusst, was falsch ist). _ BlueRaja - Danny Pflughoeft vor 6 Jahren 1
@ BlueRaja-DannyPflughoeft das ist eigentlich gar nicht das, was es impliziert. Bitte lesen Sie die Antwort erneut, um ein besseres Verständnis zu erlangen. Im vorherigen Absatz sage ich „digitale / analoge“ Signale. Und wenn wir die Elektronik wirklich verstehen, gibt es kein digitales Silizium. Ja, irgendwo im gesamten System kann sogar ein "digitales" Signal verzerrt sein. Ihr Gehirn ist nicht digital und Ihre Augen sehen keine 1 und 0. Appleoddity vor 6 Jahren 0
@Appleoddity, die völliger Unsinn ist. Alles ist analog. Das Wort "digital" ist daher völlig bedeutungslos. Diese Antwort ist immer noch falsch. Wir haben aus einem Grund Wörter wie digital. HackSlash vor 6 Jahren 0
35
Aganju

Sie haben zu Recht die Ansicht, dass der Monitor für eine perfekte Wiedergabe am Eingang einfach jedes Pixel darstellen soll, wenn es geliefert wird.

Ihre Augen (und Ihr Gehirn) sehen jedoch keine Pixel als separate Entitäten, sie sehen ein aus Pixeln gebildetes Bild. Je nachdem, was es darstellt, sieht ein Bild "besser" (attraktiver) aus, wenn Parameter absichtlich "verfälscht" werden.

Die Schärfe erhöht normalerweise den Kontrast bei Farbänderungskanten. Beispielsweise wird ein Buchstabe in diesem Text durch Pixelzeilen dargestellt. Eine Zeile könnte aussehen (vereinfacht). 2-2-2-2-7-7-7-2-2- 2-2, wobei 2 hellgrau und 7 dunkelgrau ist. Durch Erhöhen der 'Schärfe' wird der Helligkeitsabfall an der Kante erhöht, sodass die letzten 2 vor der ersten 7 noch heller werden (= 1) und die ersten 7 nach den letzten 2 noch dunkler werden (= 8). Wiederholen Sie den Vorgang für die andere Kante, und Sie erhalten 2-2-2-1-8-7-8-1-2-2-2. Dies wird für Ihre Augen viel "schärfer" wirken.
Dies geschieht in beiden Dimensionen und etwas anspruchsvoller, aber das sollte Ihnen die Grundidee erklären.

Edit: Ich dachte, ich hätte das in meiner Antwort klargestellt, aber das OP behauptet, er habe es nicht verstanden:
OP Frage: "Was macht das für einen Sinn" -> Antwort: Es erscheint für Ihr Gehirn schärfer.
Viele Leute wollen das; Wenn Sie sich nicht darum kümmern, verwenden Sie es nicht.

@Mehrdad Was ist dann deine Frage? Sie haben eine Antwort auf die Frage "Welchen Sinn [für die Benutzerfreundlichkeit] hat, dass die Schärfe auf einem Monitor einstellbar ist" von Appleoddity erhalten. Sie haben eine Antwort auf "welchen Sinn [technologisch], dass die Schärfe auf einem Monitor einstellbar ist" von Aganju erhalten. Wenn keine dieser Fragen Ihre beabsichtigte Frage ist, müssen Sie sie neu schreiben, damit die gestellte Frage Ihrer erwarteten Frage entspricht. Birjolaxew vor 6 Jahren 18
@Mehrdad Aus Ihren Kommentaren scheint Ihre Frage zu sein "Warum dürfen Monitore die Schärfe ändern, wenn der Computer ihnen bereits sagt, was genau angezeigt werden soll" - was von Appleoddity beantwortet wird. Birjolaxew vor 6 Jahren 6
Diese Antwort ist funktional identisch mit der Antwort von pjc50. Beides ist falsch. HackSlash vor 6 Jahren 0
31
HackSlash

Die Antwort ist, dass ein Pixel nicht das ist, was Sie denken. Aufgrund von "Subpixel-Rendering" besteht keine 1: 1-Korrelation zwischen digitalen Pixeln und physikalischen Pixeln. Die Darstellung der Farben ist bei jedem Monitor unterschiedlich, aber die meisten LCD-Monitore verfügen über verschiedene ROTE, GRÜNE und BLAUE Elemente, die in einem Dreieck angeordnet sind. Einige haben zusätzlich ein weißes Pixel, das ein Quad von Elementen pro "Pixel" bildet.

Daher sind nicht alle Layouts gleich. Jedes bestimmte Layout kann eine unterschiedliche "visuelle Auflösung", die MTFL (Modulation Transfer Function Limit), aufweisen, die als die höchste Anzahl von schwarzen und weißen Linien definiert ist, die gleichzeitig ohne sichtbares chromatisches Aliasing gerendert werden können.

Mithilfe von Überwachungstreibern können Renderer ihre Geometrie-Transformationsmatrizen korrekt anpassen, um die Werte jeder Farbebene korrekt zu berechnen und das Subpixel-Rendering mit dem niedrigsten chromatischen Aliasing optimal zu nutzen.

Die "Schärfe" auf Ihrem Monitor verringert den natürlichen Mischungsalgorithmus, durch den Linien zusammenhängend erscheinen, wenn dies nicht der Fall ist. Durch Erhöhen der Schärfe wird das chromatische Aliasing erhöht, während sauberere Linien erzeugt werden. Wenn Sie die Schärfe reduzieren, erzielen Sie eine bessere Farbmischung und glätten die Linien, die zwischen dem Subpixel-Punktabstand liegen.

Detaillierte Informationen finden Sie in diesem Artikel: https://en.wikipedia.org/wiki/Subpixel_rendering

17
Angew

Es ist absolut richtig, dass die Einstellung der Schärfe auf Ihrem Monitor das Bild etwas von den pixelgenauen Daten "verzerrt", die vom Computer gesendet werden (oder was auch immer am anderen Ende des Videokabels angebracht ist). Der Benutzer kann jedoch seine visuelle Erfahrung verbessern, wenn die Schärfe der gesendeten pixelgenauen Daten nicht der gewünschten Schärfe im angezeigten Bild entspricht.

Der Monitor macht also das nicht:

  1. Bitmap vom Kabel empfangen
  2. Bitmap rendern
  3. Gehe zu 1.

aber dieses:

  1. Bitmap vom Kabel empfangen
  2. Ändern Sie die Bitmap basierend auf den Benutzereinstellungen
  3. Bitmap rendern
  4. Gehe zu 1.

Der Freiheitsgrad für die Einstellung der Schärfe wird daher vom Monitorhersteller explizit hinzugefügt, um die Benutzererfahrung zu verbessern.

Der Kommentar von slebetman zu seiner eigenen Antwort scheint dies als Benutzeranforderung zu bestätigen: "Ich habe nur die LCD-Schärfeeinstellung gegoogelt, falls LCD-Bildschirme vorhanden waren. Was ich fand, waren lustige Fragen von Leuten, die die Bildschärfe auf LCD-Bildschirmen einstellen wollten sie wurden zuerst vorgestellt " LVDV vor 6 Jahren 0
12
slebetman

Die Software fordert den Monitor auf, ein bestimmtes Muster von 32-Bit-RGB-Werten anzuzeigen, oder? Das Betriebssystem kann den Monitor in jedem Frame auffordern, eine bestimmte 1920 × 1080 × 32-Bitmap anzuzeigen.

So funktioniert VGA überhaupt nicht. Auf Monitorebene gibt es überhaupt keine Pixel.

Wie traditionell Displays vor dem LCD-Zeitalter gearbeitet haben, ist dies:

  1. Die Software fordert den Gerätetreiber auf, ein Bitmap-Bild anzuzeigen

  2. Der Gerätetreiber teilt das Bild in drei Wellenformen für R, G und B auf. Richtig, Wellenformen! Genau wie bei Audiowellenformen. Nun haben diese Wellenformen ein bestimmtes Format, da die Audiodaten 1d sind und die Bilder 2d sind.

  3. Das analoge Signal für die Zeilen auf dem Bildschirm wird an den Monitor gesendet.

Der Monitor sieht niemals ein Pixel, sondern nur Linien.

  1. Der Monitor spuckt Elektronen aus, die sich mit nahezu Lichtgeschwindigkeit aus drei Elektronenkanonen bewegen, und der Strahl wird durch Steuern einer Gruppe von Elektromagneten abgelenkt, wodurch sie den gesamten Bildschirm streichen.

Hier kommt die Schärfeeinstellung ins Spiel.

Aufgrund von Fertigungstoleranzen konvergieren die Elektronenstrahlen fast nie richtig und erzeugen unscharfe Bilder direkt vom Fließband. In den wirklich alten Zeiten liegt es an Ihnen, der Person, die den Monitor gekauft hat, die Schärfe zu Hause einzustellen. Spätere modernere dieser alten Displays verfügen im Werk über einen automatischen Anpassungsprozess, die Schärfeeinstellung muss jedoch noch eingebaut werden, damit der Prozess funktioniert.

Die Antwort ist also ganz einfach. Die Schärfeeinstellung sorgt dafür, dass das Bild auf den Displays scharf ist.

Ich habe gerade die LCD-Schärfeeinstellung gegoogelt, falls LCD-Bildschirme vorhanden waren. Was ich fand, waren lustige Fragen von Leuten, die bei der Einführung von LCD-Bildschirmen die Schärfe anpassen wollten slebetman vor 6 Jahren 3
Der LCD-Bildschirm, den ich verwende, hat einen Schärfe-Parameter, weshalb ich diese Frage gestellt habe. Das bisschen über CRT-Displays ist nett, scheint aber leider nicht relevant zu sein. Mehrdad vor 6 Jahren 0
@Mehrdad Ist es ein VGA-LCD-Bildschirm oder reines DVI / HDMI? slebetman vor 6 Jahren 0
Ich verwende VGA, glaube aber, dass es auch DVI unterstützt. Mir ist nicht klar, was die Verwendung von Wellenformen anstelle von digitalen Signalen bedeutet, wenn der Benutzer die Schärfe einstellen kann. (?) Mehrdad vor 6 Jahren 0
Die Wellenformen enthalten keine Pixel, nur Linien. Ein gewisses Maß an Unschärfe ist unvermeidlich, da das Signal übertragen wird. Normalerweise ist es nicht sichtbar, aber bei HD kann ich normalerweise den Unterschied zwischen einem VGA-Signal und einem HDMI / DVI / DP-Signal erkennen. pjc50 vor 6 Jahren 3
@ pjc50: Richtig, aber ich frage nach der vom Benutzer hinzugefügten absichtlichen Schärfung (oder Unschärfe), nicht der, die während der Signalübertragung unvermeidlich auftritt. Mehrdad vor 6 Jahren 0
@Mehrdad Es ist immer noch relevant, da Sie die Einstellungen verwenden können, um das Weichzeichnen / Schärfen besonders für Sie komfortabler zu gestalten. Unterschiedliche Menschen haben unterschiedliche Vorlieben und unterschiedliche Signalquellen haben unterschiedliche Verzerrungen. Dies gilt insbesondere für Menschen mit Sehbehinderungen, ältere Menschen, alte analoge Signalquellen ... Ich habe erwartet, dass Sie VGA verwenden, da ich auf den meisten Displays die Schärfeeinstellung für digitale Signale deaktiviert habe - sie ist perfekt Sinn für VGA / Composite usw., da das Signal nicht annähernd pixelgenau ist. Luaan vor 6 Jahren 0
Diese Antwort gilt nur für CRT-Anzeigen. HackSlash vor 6 Jahren 0
5
StessenJ

Bei einem (digitalen) Fernsehgerät steuert die Schärfe einen Peaking-Filter, der die Kanten verbessert. Dies ist auf einem Display nicht so nützlich, wenn es als Computermonitor verwendet wird.

Im vorigen Jahrhundert konnte die Schärfespannung der Elektronenkanone auf einem analogen High-End-CRT-Monitor kontrolliert werden. Dies beeinflusst die Spotgröße, mit der das Bild gezeichnet wird. Stellen Sie die Fleckgröße zu klein (zu scharf) ein, und die Linienstruktur wird zu sichtbar. Es kann auch eine störende "Moiré" -Störung der Struktur der Schattenmaske geben. Die optimale Einstellung hängt von der Auflösung (Abtastrate) des Bildes ab, da viele CRT-Monitore mehrere Auflösungen ohne Skalierung (Multi-Sync) ermöglichen. Setze es gerade scharf genug.

High-End-Röhrenfernseher verfügten über eine Scan-Velocity-Modulation, bei der der Abtaststrahl um eine vertikale Kante gebremst wird, sowie horizontale und vertikale Peaking-Filter und möglicherweise eine Schaltung zur Verbesserung der horizontalen Transienten. Die Schärfe kann alle oder alle kontrolliert haben.

Durch das Schärfen werden im Allgemeinen Kanten verstärkt, indem die dunkle Seite der Kante dunkler, die helle Seite heller und die Mitte der Kante steiler wird. Ein typisches Peaking-Filter berechnet ein Differential 2. Ordnung, z. B. (-1,2, -1). Fügen Sie einen kleinen Betrag dieser Spitze zum Eingangssignal hinzu. Wenn Sie die Überschreitung abschneiden, reduziert sich die Verbesserung auf "vorübergehende Verbesserung".

Bei einigen digitalen Geräten kann die Schärfe eines Scales gesteuert werden, z. B. bei meinen digitalen Satelliten-TV-Empfängern. Damit wird die Bandbreite der Polyphasenfilter eines Scalers festgelegt, der von einer Quellenauflösung in die Bildschirmauflösung konvertiert. Skalieren kann nicht perfekt sein, es ist immer ein Kompromiss zwischen Artefakten und Schärfe. Stellen Sie es zu scharf ein und störende Konturen und Aliasing sind sichtbar.

Dies ist möglicherweise die plausibelste Antwort auf Ihre Frage, jedoch nur, wenn der Monitor skaliert. Für einen unskalierten 1: 1-Modus würde es nichts tun.

Quelle: 31 Jahre Erfahrung in der Signalverarbeitung für TV.

Dieser Beitrag ist 100% korrekt für analoge Technik wie CRTs. Das OP fragt nach der Schärfe eines vollständig digitalen LCD-Displays. Er denkt wie Sie, dass "es bei einem nicht skalierten 1: 1-Modus nichts tun würde", aber tatsächlich. Siehe meine Antwort zum Subpixel-Rendering in LCD-Displays. HackSlash vor 6 Jahren 0
Mir ist nicht bekannt, dass ein Monitor Subpixel-Rendering verwendet, außer vielleicht ein tragbares Pentile-Display. Dies wird normalerweise von der ClearView-Schriftartendarstellungssoftware auf dem PC ausgeführt. StessenJ vor 6 Jahren 0
Diese Dissertation behandelt das Subpixel-Rendering sehr gut in Kapitel 3: https://pure.tue.nl/ws/files/1861238/200612229.pdf. Im Wesentlichen handelt es sich beim Subpixel-Rendering um einen Farbkonvergenzfehler von +/- 1/3 Pixel. CRTs brauchen das nicht, es wird implizit von der Schattenmaske (Sampling) ausgeführt. StessenJ vor 6 Jahren 1
In dieser Arbeit wird der Vorgang des Zusammenbaus von Subpixeln zu einem kohärenten "Pixel" als "räumliche Rekonstruktion" bezeichnet. Sie bezeichnen das "Pixel" als "Blende", wenn sie über das Zusammenwirken der Subpixel sprechen. Die Subpixel sind Farbphosphore und werden auf Seite 28 deutlich dargestellt. Diese Phosphore werden nicht immer als klare Gruppe verwendet. Je nach "Schärfe" der Linien können Sie den roten Leuchtstoff aus einem Satz oder einem benachbarten Satz verwenden. HackSlash vor 6 Jahren 0
4
Beefster

Es macht keinen Sinn. Oder zumindest bei den meisten LCD-Monitoren nicht. Sie werden fast immer wollen Ihre „Schärfe“ auf 0 gesetzt, je nach Monitor oder TV (einige werden das Signal bei 0 verschwimmen, so dass die tatsächliche ungefilterte Einstellung könnte irgendwo in der Mitte sein), sonst wird es einen Anwendung Kantenverbesserungsfilter, wodurch die dunklere Seite einer Kante dunkler und die hellere Seite heller wird. Dies ist besonders bei Cartoons und Texten spürbar. Ihre Laufleistung kann variieren, aber ich denke, es sieht in fast jedem Fall schlecht aus.

Dies ist ein verlustbehafteter, irreversibler Filter, den Sie wahrscheinlich nicht aktivieren möchten. Ihr Computer sendet pixelgenaue Daten, so dass "Schärfe" - und Unschärfefilter generell unerwünscht sind.

Beachten Sie auch, dass der Filter / die Einstellung "Schärfe" eine falsche Bezeichnung ist. Es ist unmöglich, ein Bild schärfer (dh mit mehr Details) zu machen, nur weniger detailliert. Die einzige Möglichkeit, ein schärferes Bild zu erhalten, ist die Verwendung eines Quellbildes mit höherer Auflösung.

4
bendodge

Schärfeeinstellungen gibt es auf LCD-Bildschirmen, da die Hersteller davon ausgehen, dass digitale Effekte mehr Monitore und Fernseher verkaufen. Anstatt die Eingaben des Computers genau wiederzugeben, gibt der Hersteller dem Benutzer die Möglichkeit, das Bild an den persönlichen Geschmack anzupassen, egal wie schlecht dieser sein mag.

"Schärfe" ist für analoge Signale (wie VGA) und für CRT-Anzeigen relevant, bei denen das Signal irgendwann durch Wellenformen dargestellt wird. Da das Analoge dazu neigt, ungenau zu sein, ermöglichen die Schärfeeinstellungen die Kalibrierung von Toleranzen und die Kompensation von Fehlern in der analogen Anzeige und der Signalübertragung.

Bei LCD-Bildschirmen mit DVI, HDMI und anderen "pixelgenauen" Datenquellen mit einer 1: 1-Auflösung sollte die Schärfe irrelevant sein. Ja, die Schärfe verzerrt das Bild in diesem Szenario. Displays in Box-Stores haben oft Schärfe und andere digitale Filter, die extrem stark sind, erscheinen dramatischer als die umgebenden Displays. Einige Verbraucher möchten diese Effekte tatsächlich, weil sie sich an die Effekte der Filter gewöhnt haben oder weil sie versuchen, ein LCD-Panel von schlechter Qualität zu kompensieren, das bei der nativen Ausgabe für das Auge schlecht aussieht. Die Schärfe kann auch relevant sein, wenn ein digitales Signal verwendet wird, dessen Größe geändert werden muss, da Quelle und Display unterschiedliche Auflösungen haben.

Insgesamt möchten Sie wahrscheinlich, dass die Schärfe auf einem modernen LCD-Display mit einem 1: 1-Digitalsignal auf Aus oder 0 eingestellt ist.

http://hifi-writer.com/wpblog/?page_id=3517 und https://forums.anandtech.com/threads/why-does-an-lcd-tv-mit-hdmi-input-need-a-sharpness -control.2080809 /

4
supercat

Viele Monitore akzeptieren ein Videosignal, das nicht die gleiche Auflösung wie das Panel hat, und versuchen, es entsprechend zu skalieren. Wenn ein Monitor, der 1280 Pixel breit ist, aufgefordert wird, ein Bild anzuzeigen, das 1024 Pixel breit ist und das Ausgangsmaterial aus schwarzen und weißen Streifen besteht, die ein Pixel breit sind, würde die Anzeige wahrscheinlich ein sich wiederholendes 5-Pixel-Muster zeigen. Auf einer Skala von 0-4 wäre das Muster wahrscheinlich 03214. Wenn die schwarzen und weißen Streifen im Original "sinnvoll" sind, kann es hilfreich sein, sie wie oben dargestellt anzuzeigen. Andererseits wäre das sich wiederholende 5-Pixel-Muster eine Ablenkung, die im Original nicht vorhanden ist. Wenn Sie dem Bild etwas Unschärfe hinzufügen, werden die Aliasing-Effekte der Skalierung reduziert.