it-swarm.com.de

Welchen Sinn macht es, wenn "Schärfe" auf einem Monitor einstellbar ist?

Moderne Monitore haben oft eine "Schärfe" -Einstellung.

Aber ich verstehe nicht wirklich, wie sinnvoll es ist, eine solche Umgebung zu haben.

Die Software fordert den Monitor auf, ein bestimmtes Muster von 32-Bit-RGB-Werten anzuzeigen, richtig?
d.h. Das Betriebssystem fordert den Monitor möglicherweise bei jedem Frame auf, eine bestimmte 1920 × 1080 × 32-Bitmap anzuzeigen.

"Schärfe" anzupassen bedeutet jedoch, dass sich nahegelegene Pixelwerte gegenseitig beeinflussen. Dies würde bedeuten, dass die Eingabe nicht mehr korrekt dargestellt wird Sinn. Ich sehe also einfach nicht, wo dies einen logischen Raum für die Anpassung der Schärfe lässt.

Woher kommt genau der Freiheitsgrad für die Einstellung der Schärfe?

88
Mehrdad

Per https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ ist "Schärfe" auf einem LCD Teil der Nachbearbeitung.

Selbst wenn Sie die Neuskalierung/Aufwärtsabtastung weglassen (z. B. wenn Sie versuchen, ein SD-Signal auf einem HD-Monitor anzuzeigen) und die Komplexität der Farbkalibrierung nicht beachten, wird das Bild auf dem Monitor nicht immer wie angegeben angezeigt. Dies ist eine unglückliche Nebenwirkung des Marketings.

Monitorhersteller möchten ihr Produkt von anderen Produkten unterscheiden. Aus ihrer Sicht ist dies schlecht , wenn Sie dasselbe Signal an ihren Monitor und einen billigeren Konkurrenten senden und es identisch aussieht. Sie möchten, dass Sie ihren Monitor bevorzugen. Also gibt es ein paar Tricks; In der Regel werden Helligkeit und Kontrast direkt über das Vernünftige hinaus gewickelt. Die "Schärfe" ist ein weiterer Trick. Wie lässt du dein Bild schärfer aussehen als ein Konkurrent, der das Bild genau so anzeigt, wie es gesendet wurde? Betrügen.

Der "Schärfefilter" ist derjenige, der in Photoshop und ähnlichen Programmen verwendet wird. Die Kanten werden hervorgehoben, sodass sie ins Auge fallen.

78
pjc50

Ursprüngliche Frage: Woher kommt genau der Freiheitsgrad für die Einstellung der Schärfe?

Die Schärfe hängt direkt von der Art des Signals und dem angezeigten Inhalt ab. Filme sehen in der Regel besser aus, wenn die Schärfe verringert wird und die Pixel etwas verwackeln. Andererseits möchte ein Computerbildschirm eine hohe Schärfe für klaren Text und scharfe Bilder. Videospiele sind ein weiteres Beispiel, bei dem eine höhere Schärfe besser ist. TV-Signale mit geringer Qualität können auch mit Schärferegelungen verbessert werden.

Da Monitore für die Anzeige eines Computerbildschirms, eines Films oder praktisch jeder Videoquelle verwendet werden können, ist die Schärfe immer noch eine nützliche Einstellung.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: Das OP hat in Kommentaren angegeben, dass dies die Frage nicht beantwortet.

OP: Wo im Problem gibt es Raum für eine Anpassung? Zum Beispiel, wenn ich dir x = 1 und y = 2 sage und dann "oh, und ich will x - y = 3". Das macht keinen Sinn.

Das Konvertieren eines Livebilds/Videos in elektrische Analog-/Digitalsignale, das Übertragen über ein Medium und das Wiederherstellen dieses Bildes auf einem Anzeigegerät ist NIEMALS ein 1: 1-Prozess.

Signalrauschen, Kompressionsverlust, Herstellungs- und Ausstattungsunterschiede, Verkabelung/Signaltyp und andere Faktoren spielen eine Rolle. Alle Einstellungen auf einem Monitor sind so konzipiert, dass sie zusammenarbeiten, um dem Endbenutzer ein qualitativ hochwertiges Seherlebnis zu bieten - je nach Endbenutzer. Die Interpretation ist völlig subjektiv.

OP: Diese Antwort beantwortet nicht die Frage, warum der Betrachter die Schärfe anpassen soll, wenn dies bereits vom Ersteller des Inhalts festgelegt wurde (sei es Spielberg oder Excel).

Wenn wir dieser Logik folgen wollen, warum müssen Monitore dann überhaupt JEGLICHE Anpassungen vornehmen? Die Antwort ist, dass das, was wir auf dem Bildschirm sehen, keine 100% genaue Darstellung der Originaldaten ist.

67
Appleoddity

Sie haben Recht, dass für eine perfekte Wiedergabe am Eingang der Monitor einfach jedes Pixel im Auslieferungszustand darstellen sollte.

Ihre Augen (und Ihr Gehirn) sehen Pixel jedoch nicht als separate Einheiten, sie sehen ein aus Pixeln gebildetes Bild. Je nachdem, was es darstellt, sieht ein Bild "besser" (attraktiver) aus, wenn Parameter absichtlich "verfälscht" werden.

Schärfe erhöht normalerweise den Kontrast an Farbwechselkanten. Ein Buchstabe in diesem Text wird beispielsweise durch Pixelzeilen dargestellt. Eine Zeile sieht möglicherweise vereinfacht aus. 2-2-2-2-7-7-7-2-2- 2-2 wobei 2 hellgrau und 7 dunkelgrau ist. Durch Erhöhen der Schärfe wird der Helligkeitsabfall am Rand erhöht, sodass die letzten 2 vor den ersten 7 noch heller (= 1) und die ersten 7 nach den letzten 2 noch dunkler (= 8) werden. Wiederholen Sie dies für die andere Kante, und Sie erhalten 2-2-2-1-8-7-8-1-2-2-2. Dies sieht für Ihre Augen viel schärfer aus.
Dies geschieht in beiden Dimensionen und ist etwas raffinierter, aber das sollte Ihnen die Grundidee erklären.

Edit: Ich dachte, ich hätte das in meiner Antwort klargestellt, aber das OP behauptet, er habe es nicht verstanden:
OP Frage: "Welchen Sinn macht es?" -> Antwort: Es erscheint Ihrem Gehirn schärfer.
Viele Leute wollen das; Wenn Sie es nicht mögen, verwenden Sie es nicht.

35
Aganju

Die Antwort ist, dass ein Pixel nicht das ist, was Sie denken. Aufgrund des "Subpixel-Renderings" besteht keine 1: 1-Korrelation zwischen digitalen und physischen Pixeln. Die Art und Weise, wie die Farben angezeigt werden, ist bei jedem Monitor unterschiedlich, aber die meisten LCD Monitore haben unterschiedliche, in einem Dreieck angeordnete Elemente in den Farben ROT, GRÜN und BLAU. Einige haben zusätzlich ein weißes Pixel, das ein Quad von Elementen pro "Pixel" ergibt.

 enter image description here

Daher sind nicht alle Layouts gleich. Jedes Layout kann eine andere "visuelle Auflösung" (MTFL = Modulation Transfer Function Limit) aufweisen, die als die höchste Anzahl von schwarzen und weißen Linien definiert ist, die gleichzeitig ohne sichtbares chromatisches Aliasing gerendert werden können.

Mit Monitor-Treibern können Renderer ihre Geometrietransformationsmatrizen korrekt anpassen, um die Werte jeder Farbebene korrekt zu berechnen und den besten Gewinn aus dem Subpixel-Rendering mit dem niedrigsten chromatischen Aliasing zu ziehen.

Die "Schärfe" auf Ihrem Monitor verringert den natürlichen Mischungsalgorithmus, der verwendet wird, um Linien zusammenhängend erscheinen zu lassen, wenn dies nicht der Fall ist. Durch Erhöhen der Schärfe wird das chromatische Aliasing verstärkt, während sauberere Linien erzeugt werden. Durch Verringern der Schärfe erhalten Sie eine bessere Farbmischung und glätten die Linien, die zwischen dem Subpixel-Punktabstand liegen.

Ausführlichere Informationen finden Sie in diesem Artikel: https://en.wikipedia.org/wiki/Subpixel_rendering

31
HackSlash

Sie haben absolut Recht, dass die Einstellung der Schärfe auf Ihrem Monitor das Bild von den pixelgenauen Daten, die vom Computer gesendet werden (oder was auch immer am anderen Ende des Videokabels angeschlossen ist), etwas "verzerrt". Der Benutzer kann jedoch sein visuelles Erlebnis verbessern, wenn die Schärfe der gesendeten pixelgenauen Daten nicht der gewünschten Schärfe des angezeigten Bildes entspricht.

Der Monitor tut dies also nicht:

  1. Bitmap vom Kabel empfangen
  2. Bitmap rendern
  3. Gehe zu 1.

aber dieses:

  1. Bitmap vom Kabel empfangen
  2. Ändern Sie die Bitmap entsprechend den Benutzereinstellungen
  3. Bitmap rendern
  4. Gehe zu 1.

Der Freiheitsgrad für die Einstellung der Schärfe wird vom Monitorhersteller ausdrücklich hinzugefügt, um die Benutzerfreundlichkeit zu verbessern.

17
Angew

Die Software fordert den Monitor auf, ein bestimmtes Muster von 32-Bit-RGB-Werten anzuzeigen, oder? d.h. das Betriebssystem könnte den Monitor bei jedem Frame auffordern, eine bestimmte 1920 × 1080 × 32-Bitmap anzuzeigen.

So funktioniert VGA überhaupt nicht. Auf Monitorebene gibt es überhaupt keine Pixel.

Wie Anzeigen traditionell vor dem Alter von LCD funktionierten, ist wie folgt:

  1. Die Software fordert den Gerätetreiber auf, ein Bitmap-Bild anzuzeigen

  2. Der Gerätetreiber teilt das Bild in drei Wellenformen für R, G und B. Richtig, Wellenformen! Genau wie Audio-Wellenformen. Diese Wellenformen haben nun ein bestimmtes Format, da bei 1d-Audio 2d-Bilder sind.

  3. Das analoge Signal für Linien auf dem Bildschirm wird an den Monitor gesendet.

Der Monitor sieht nie ein Pixel, er sieht nur Linien.

  1. Der Monitor spuckt Elektronen aus, die sich mit nahezu Lichtgeschwindigkeit aus drei Elektronenkanonen bewegen, und der Strahl wird durch die Steuerung einer Gruppe von Elektromagneten abgelenkt, so dass diese den gesamten Bildschirm bemalen.

Hier setzt die Schärferegelung an.

Aufgrund von Fertigungstoleranzen konvergieren die Elektronenstrahlen so gut wie nie richtig und erzeugen unscharfe Bilder direkt vom Fließband. In der Vergangenheit liegt es an Ihnen, der Person, die den Monitor gekauft hat, die Schärfe zu Hause anzupassen. Später haben modernere dieser alten Displays einen automatischen Einstellprozess in der Fabrik, aber die Schärfeeinstellung muss noch eingebaut werden, damit der Prozess funktioniert.

Die Antwort ist also ganz einfach. Die Schärfeeinstellung soll sicherstellen, dass das Bild auf den Displays scharf ist.

12
slebetman

Bei einem (digitalen) Fernsehgerät steuert die Schärfe einen Peaking-Filter, der die Kanten verbessert. Das ist auf einem Display nicht so nützlich, wenn es als Computermonitor verwendet wird.

Im vorigen Jahrhundert hat die Schärfe auf einem analogen High-End-CRT-Monitor möglicherweise die Fokusspannung der Elektronenkanone gesteuert. Dies wirkt sich auf die Spotgröße aus, mit der das Bild gezeichnet wird. Stellen Sie die Punktgröße zu klein (zu scharf) ein und die Linienstruktur wird zu sichtbar. Außerdem kann es zu störenden "Moiré" -Störungen in der Struktur der Schattenmaske kommen. Die optimale Einstellung hängt von der Auflösung (Abtastrate) des Bildes ab, da viele CRT-Monitore mehrere Auflösungen ohne Skalierung (Multi-Sync) unterstützen. Stellen Sie es gerade scharf genug ein.

High-End-Röhrenfernseher verfügten über eine Scan-Geschwindigkeitsmodulation, bei der der Scanstrahl um eine vertikale Kante verlangsamt wird, sowie über horizontale und vertikale Peaking-Filter und möglicherweise eine horizontale Transientenverbesserungsschaltung. Die Schärfe kann einige oder alle beeinflusst haben.

Durch das allgemeine Schärfen werden die Kanten verbessert, indem die dunkle Seite der Kante dunkler, die helle Seite heller und die Mitte der Kante steiler wird. Ein typisches Peaking-Filter berechnet ein Differential 2. Ordnung bei der digitalen Verarbeitung, z. (-1,2, -1). Fügen Sie eine kleine Menge dieser Spitze zum Eingangssignal hinzu. Wenn Sie die Überschwinger abschneiden, reduziert sich dies auf "vorübergehende Verbesserung".

Bei einigen digitalen Geräten kann die Schärfe eines Skalierers gesteuert werden, z. in meinen digitalen Satelliten-TV-Empfängern. Hiermit wird die Bandbreite der Mehrphasenfilter eines Skalierers festgelegt, der von einer Quellenauflösung in die Anzeigeauflösung konvertiert. Skalierung kann nicht perfekt sein, sie ist immer ein Kompromiss zwischen Artefakten und Schärfe. Stellen Sie es zu scharf ein und störende Konturen und Aliasing werden sichtbar.

Dies ist möglicherweise die plausibelste Antwort auf Ihre Frage, jedoch nur, wenn der Monitor skaliert. Bei einem nicht skalierten 1: 1-Modus würde dies nichts bewirken.

Quelle: 31 Jahre Erfahrung in der Signalverarbeitung für das Fernsehen.

5
StessenJ

Das ergibt keinen Sinn. Oder zumindest nicht auf den meisten LCD Monitoren. Abhängig vom Monitor oder Fernseher wird Ihre "Schärfe" fast immer auf 0 eingestellt sein (einige verwischen das Signal bei 0, sodass die echte ungefilterte Einstellung möglicherweise in der Mitte liegt), andernfalls wird eine Kante angewendet Enhancement Filter, der die dunklere Seite einer Kante dunkler und die hellere Seite heller macht. Dies macht sich insbesondere bei Cartoons und Texten bemerkbar. Ihr Kilometerstand kann variieren, aber ich denke, es sieht in fast jedem Fall schlecht aus.

Dies ist ein verlustbehafteter, irreversibler Filter, den Sie wahrscheinlich nicht aktivieren möchten. Ihr Computer sendet pixelgenaue Daten, sodass Schärfe- und Unschärfefilter im Allgemeinen unerwünscht sind.

Beachten Sie auch, dass der Filter/die Einstellung "Schärfe" eine falsche Bezeichnung ist. Es ist unmöglich, ein Bild schärfer (d. H. Detaillierter), nur weniger detailliert zu machen. Die einzige Möglichkeit, ein schärferes Bild zu erhalten, besteht in der Verwendung eines Quellbilds mit höherer Auflösung.

4
Beefster

Schärfeeinstellungen sind auf LCD -Paneelen verfügbar, da die Hersteller glauben, dass digitale Effekte mehr Monitore und Fernseher verkaufen werden. Anstatt die Eingaben vom Computer originalgetreu wiederzugeben, gibt der Hersteller dem Benutzer die Möglichkeit, das Bild an den persönlichen Geschmack anzupassen, so schlecht dieser auch sein mag.

"Schärfe" ist relevant für analoge Signale (wie VGA) und für CRT-Anzeigen, bei denen das Signal an einem bestimmten Punkt durch Wellenformen dargestellt wird. Da Analog zu Ungenauigkeiten neigt, ermöglichen die Schärfeeinstellungen die Kalibrierung auf Toleranzen und die Kompensation von Fehlern bei der Ausgabe der Analoganzeige und der Signalübertragung.

Bei LCD Bildschirmen, die DVI, HDMI und andere "pixelgenaue" Datenquellen mit einer 1: 1-Auflösung verwenden, sollte die Schärfe keine Rolle spielen. Ja, in diesem Szenario verzerrt die Schärfe das Bild. Displays in Kistengeschäften sind oft scharf und andere digitale Filter sind extrem scharf eingestellt, um dramatischer als die umgebenden Displays zu wirken. Einige Verbraucher möchten diese Effekte möglicherweise tatsächlich, weil sie sich an die Filter gewöhnt haben oder weil sie versuchen, ein qualitativ minderwertiges LCD Panel zu kompensieren, das bei der nativen Ausgabe für das Auge schlecht aussieht. Die Schärfe kann auch relevant sein, wenn ein digitales Signal verwendet wird, dessen Größe geändert werden muss, da die Quelle und das Display unterschiedliche Auflösungen haben.

Insgesamt möchten Sie wahrscheinlich, dass die Schärfe auf einem modernen LCD -Display mit einem 1: 1-Digitalsignal auf Aus oder 0 eingestellt wird.

http://hifi-writer.com/wpblog/?page_id=3517 und https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input -not-eine-schärfe-kontrolle.2080809/

4
bendodge

Viele Monitore akzeptieren ein Videosignal, das nicht die gleiche Auflösung wie das Panel hat, und versuchen, es entsprechend zu skalieren. Wenn ein Monitor mit einer Breite von 1280 Pixeln ein Bild mit einer Breite von 1024 Pixeln anzeigen soll und das Ausgangsmaterial aus schwarzen und weißen Streifen mit einer Breite von einem Pixel besteht, zeigt die Anzeige wahrscheinlich ein sich wiederholendes 5-Pixel-Muster. Auf einer Skala von 0-4 wäre das Muster wahrscheinlich 03214. Wenn die schwarzen und weißen Streifen im Original "aussagekräftig" sind, kann es hilfreich sein, sie wie oben zu zeigen. Andererseits wäre das sich wiederholende 5-Pixel-Muster eine Ablenkung, die im Original nicht vorhanden ist. Das Hinzufügen von Unschärfe zum Bild würde die Aliasing-Effekte der Skalierung verringern.

4
supercat