Autor Thema: Scharfe Bilder auf einem Röhren-Fernseher?  (Gelesen 11130 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline aths

  • Windows-BIOS-Flasher
  • ***
  • Beiträge: 103
    • Profil anzeigen
Scharfe Bilder auf einem Röhren-Fernseher?
« am: 26. April 2006, 19:09:11 »
Scharfe Bilder auf einem Röhren-Fernseher?

Ein Artikel von aths


Bildschärfung beim Fernseher – kann das überhaupt was bringen? Oder ist das sowas wie "Digital Vibrance Controll" bei Nvidia-Grafikkarten, also ein bisschen Kosmetik, Effekthascherei statt Verbesserung? Sollte das Signal nicht am besten so, wie es ist, angezeigt werden?

Was ein Verfahren wie zum Beispiel Philips "Pixel Plus" tun kann, habe ich mal theoretisch durchdacht. Diese überarbeitete Version meines Artikels berücksichtet allerdings auch schon meine praktischen Erfahrungen mit meinem neuen Fernseher (dem Philips 9020.)

Warum ich keinen HDTV kaufte: Ich habe keine HD-Medien und keine HD-Konsolen. Warum ich keinen LCD oder anderen Flachbildschirm kaufte: Ich mag die Vorteile der Röhre und nehme dann auch ihre Nachteile inkauf, wie zum Beispiel Schwächen in der Bildgeometrie.



Worum es geht


Ein Schärfefilter macht Flanken steiler. Dies führt bei harten Kontrasten zu "Überschwingern": Geht es von hellgrau nach schwarz, erzeugt der Schärfefilter kurz vor der schwarzen Kante einen weißen Rand. Damit der Schärfefilter alle Kanten um ein Pixel in allen Richtungen berücksichtigen kann, muss mindestens die 8-er Umgebung des Pixels berücksichtigt werden – damit hat man einen Kernel von 3x3 (oder mehr.)

 | -1  -1  -1 |
  | -1  16  -1 | * 1/8
  | -1  -1  -1 |

  So könnte ein 3x3-Schärfefilter aussehen: Alle Randpixelfarben werden invertiert
  und mit dem stärker gewichteten Mittelpixel addiert. Dieser Filter erkennt schmale
  Kanten und verstärkt die Flankensteilheit: Kleine helle Objekte auf dunklem Grund
  werden heller, dunkle Objekte auf hellem Grund dunkler. Es werden keine neuen
  Details erzeugt, aber vorhandene Details stärker hervorgehoben.

  Diesem Filter legt die Idee eines LaPlace-Filters zur Kantenerkennung zugrunde.
  Andere Möglichkeit: Das Bild erst mal glätten, und das geglättete Ergebnis vom
  Originalbild subtrahieren. Unscharfe Bereiche werden damit entfernt.


Ein nachgeschärftes Bild kann für unser Auge sogar dann "besser" wirken, wenn es sich um Computergrafik (mit Kanten-Antialiasing) handelt. Wir Menschen sind unter anderem auf Kantenerkennung trainiert. Da der Schärfefilter im Prinzip nichts anderes macht als Kanten zu suchen und sie hervorzugeben, erleichtert er die Kantenerkennung für uns. Ist Bildschärfung deshalb gleich vernünftig? Der Filter kann ja keine Informationen aus dem Nichts zaubern – doch wie viel Information steckt überhaupt im PAL-Video?



Das PAL-Signal


Dazu müssen wir uns ein wenig mit dem PAL-Signal beschäftigen. PAL sendet pro Sekunde bekanntlich 50 Halbbilder. Ein PAL-Vollbild hat, wie ebenfalls bekannt, 625 Zeilen, von denen für den eigentlichen Bildinhalt nur 576 genutzt werden. Pro Halbbild also 288. Doch davon werden nur die mittleren 270 (Zirka-Wert) für relevante Bildinformationen genutzt, da Röhren am Rand abgeblendet werden. (PS2-Spiele nutzen bei PAL in der Regel leider nur 256 Zeilen pro Halbbild. Damit bleiben sichtbare schwarze Balken. Das beste ist, alle 288 Zeilen zu nutzen aber in die Randbereiche keine relevanten Bildinformationen zu legen.)




PAL bietet mehr Auflösung als NTSC. Bei 100-Hz-Technik ist der Nachteil vom 50-Hz-Flimmern bei PAL weg, die höhere Auflösung bleibt natürlich.


Das Fernsehbild ist zwar in Zeilen aufgeteilt, aber es gibt eben keine Pixel, denn es handelt sich um ein analoges Signal. Beim 4:3-Seitenverhältnis und 576 Zeilen pro Vollbild würde man ja in der Horizontalen 768 "effektive Pixel" erwarten. Damit hätte PAL (zusammen mit Ton) eine Bandbreite von ca. 6,5 Megahertz. Tatsächlich nimmt ein PAL-Kanal (inklusive Ton) nur 5,5 MHz Bandbreite ein. So geht zwar horizontale Auflösung verloren, doch man bekommt mehr Kanäle innerhalb einer gegebenen Bandbreite unter, da man sie dichter packen kann. (SVHS speichert noch etwa 4,5 MHz, VHS ca. 3,5 MHz Bandbreite, jeweils mit Ton.) Nun ist auch klar, warum ein DVD-Bild eine bessere Qualität als eine Fernsehsendung bieten könnte: Es würde einfach die volle mögliche horizontale Auflösung genutzt. Aber auch DVD-Video arbeitet bei PAL meistens mit 720, nicht 768 Pixeln in der Breite. 720 (oder 704) Pixel sind aber noch immer besser als das, was im PAL-Format ausgestrahlte TV-Programme effektiv bieten.

Auf dem Fernsehbild kann man um scharfe Kanten herum in der horizontalen oft ein "Nachschwingen" sehen. Dann wurde das Videomaterial entweder falsch abgetastet, oder die Signalverarbeitung im Fernseher ist nicht so hochwertig, wie sie sein sollte.

Um die Bandbreitenproblematik bei analoger Ausstrahlung zu verdeutlichen, eine Bilderserie.




Oben: Für jede Zeile wird nur die Gesamthelligkeit übertragen. Nimmt man die niederfrequenteste Schwingung dazu, zeichnet sich ab wo es im Bild hell wird.

Mitte: Bei 5% Informationsgehalt sieht man schon: Es ist ein Gesicht. Bei 10% gewinnt es deutlich an Konturen.

Unten: Bei Berücksichtung der ersten 50% der Bildbandbreite ist das Gesicht schon voll ok – dass noch immer die Hälfte der Bildinformationen fehlt, fällt kaum auf. Der eingefügte weiße Strich zeigt jedoch links und rechts noch Wellen – Folge der Frequenzbegrenzung. Rechts sieht man über 80% der Informationen. Um den weißen Strich herum gibt es nach wie vor (schwache) Geisterbild-Artefakte.

Diese Bildserie gibt den Geisterbilder-Effekt nur annähernd wieder, weil ein digitaler Tiefpass zum Einsatz kam, der ab einer bestimmten Frequenz komplett abschneidet. In der Realität gibt es eine allmähliche Dämpfung bei den hohen Frequenzen.


Eigentlich dürfte man pro Halbbild nur 288 Zeilen abtasten, die entsprechend dicker sind. Man nimmt aber in der Regel 576 Zeilen, und strahlt pro Halbbild nur jede zweite Zeile aus. Bei Kino-Filmen, die statt mit 24 fps einfach mit 25 fps ausgestrahlt werden, wird ein Vollbild in zwei Halbbilder zerlegt, so dass der Deinterlacer beim 100-Hz-Gerät die Vollbilder wieder zusammensetzen kann. Viele Fernsehsendungen aber tasten jedoch tatsächlich 50 mal pro Sekunde an, so dass es immer nur Halbbilder gibt. Auch Konsolenspiele nutzen das Verfahren gerne, denn 50 Halbbild-fps wirken flüssiger als 25 Vollbild-fps.



Pixel Plus und Farbe


Bei Pixel Plus wird die Zahl der sichtbaren Zeilen um ein Drittel erhöht. Das bringt natürlich keine neue Bildinformation. Hauptvorteil ist, dass die dünnen schwarzen Linien zwischen den einzelnen Bildzeilen kleiner werden, da es einfach mehr Bildzeilen gibt und diese entsprechend dichter liegen. Andernfalls einfach dickere Zeilen zu erzeugen hieße ja auch, unschärfere Zeilen auszugeben. (Fokussiert man den Kathodenstrahl genau, ist die Zeile dünn. Macht man ihn breit, streut der Strahl so, dass man keine feinen Details mehr darstellen kann.) Insofern ist es erst mal sinnvoll, auf großen Bildflächen zusätzliche Zeilen darzustellen. Klar ist aber, dass jede Skalierung einen Schärfeverlust beinhaltet: Folgt im Originalsignal auf eine rein schwarze Zeile ein rein weiße, wird man mit Pixelplus eine graue Zwischenlinie haben. Die Steilheit der Übergangs-Flanke wird abgeschwächt. Das merken wir uns erst mal.

Nun besteht das Bild für unser Auge aus Farben. Diese Farbinformationen sollen jetzt verbessert werden. Dazu betrachten wir in Kurzfom, wie die Farbe eigentlich übertragen wird.

Bei NTSC und PAL ist Bild in Helligkeit und Farbinformation zerlegt, primär um Rückwärtskompatibilität mit Schwarzweiß-Geräten zu gewährleisten, die nur das Helligkeits-Signal auswerten. Hätte man RGB-Farbe, bräuchte man drei Farbkanäle. Da beim Fernseh-Signal bereits die Helligkeitsinformation vorliegt, genügen zwei Farbkanäle, die die Rot- und Blau-Differenz zur Helligkeit speichern – hat man dann Rot und Blau dekodiert, kann man anhand der Helligkeit auch den Grünkanal zurückrechnen.

Bei der NTSC-Farbe (nach dem YIC-Modell) gibt es aber, sofern die Übertragung etwas gestört wird, ein Problem. Die häufigsten Signalverfälschungen sind Phasenverschiebungen. Das heißt, das Signal kommt ein wenig später (oder früher) an, als erwartet. Im Helligkeitssignal belanglos – das Bild verschiebt sich minimal nach links oder rechts. Problematisch aber bei der Farbe, welche (mit Hilfe einer bestimmten Modulationsform) als Vektor, also Winkel-Information übertragen wird: Phasenverschiebungen bewirken dann natürlich Winkeländerung und damit eine Änderung des Farbtons. Wiesen werden lila, Gesichter grün …




Eine mögliche Farbangabe mit einer Helligkeit von 20%. Um den Mittelpunkt (hier: dunkelgrau) herum sind die Farben angeordnet. Im RGB-Raum können nicht alle YIC-kodierbaren Farben dargestellt werden. Tritt so etwas auf, wird jedoch kein Schwarz, sondern einfach ein etwas falscher Farbton angezeigt. Da vom RGB-Material ausgehend kodiert wird, kommt das auch nur bei Übertragungsstörungen vor.

Die Farbe ergibt sich aus zwei Angaben: Rot-Differenz und Blau-Differenz. Da die Helligkeit bekannt ist, lässt sich dann auch die Grün-Intensität ausrechnen.






Störungen des Signals führen bei NTSC dazu, dass sich der Farbwinkel ändert, und damit der Farbton.


PAL nutzt eine geringfügig andere Umrechnung, um aus den RGB-Werten die Farbinformation und Helligkeitsinformation zu trennen (nämlich YUV). Namensgebende Neuerung beim PAL-Verfahren ist aber, dass für jede zweite Zeile die Farbinformation um 180° phasengedreht gesendet wird. Damit ist PAL-Dekodierung etwas schwieriger, da zurückgedreht werden muss. Man nimmt dann auch den Mittelwert mit der Vorgängerzeile, denn die Wirkung des Phasenfehlers wird sich von Zeile zu Zeile nur minimal ändern. Der Phasenfehler wirkt nun in der einen Zeile logischerweise in der entgegengesetzten Richtung wie in der phaseninvertierten Zeile – der Fehler hebt sich auf. Tatsächlich wird zwar noch die Vektorlänge (hier: Farbsättigung) minmal beeinflusst, das heißt, das Wiesengrün ist mal satter, mal matter, und das Gesicht mal roter, mal blasser. Das ist kaum zu sehen, und die störenden Farbtonschwankungen ist in jedem Fall man los. Doch dies erkauft man sich mit bis zu halbierter Farbauflösung!

Man kann durchaus pro Zeile eine andere Farbe als in der Vorgängerzeile haben, aber die Farbe wird in jedem Fall in der Vertikalen verwischt. Sauber getrennte Farbpixel sind mit PAL deshalb nicht darstellbar. Fernseher hätten die Möglichkeit, auf die Farbton-Korrektur durch Mittelwertbildung zu verzichten, inwieweit das genutzt wird, ist mir nicht bekannt. Welche Vorteile Farbräume à la YUV haben, böte Stoff genug für einen extra Artikel.




Bei PAL ändert sich bei Übertragungsfehlern sich lediglich die Länge des Vektors, und damit die Farbsättigung.


Fassen wir zusammen: Bei PAL haben wir pro Halbbild ca. 270 nutzbare Zeilen Helligkeitsinformationen, die Farbinformation wird beim PAL-Standard in den Zeilen verwischt. Entgegen der allgemeinen Erwartung hat man auch keine 768 Pixel pro Zeile, sondern effektiv vielleicht 600 (optimistischer Schätzwert). Das heißt, man kann pro Zeile höchstens 300 weiße und schwarze Details abwechselnd darstellen.



Nun steckt fast die gesamte Schärfe des Bildes im Helligkeitskanal. Das Farbsubsampling ist in normalen Filmszenen kaum zu spüren.




Was stimmt hier nicht? Pro 4x4-Pixelblock liegt nur eine Farbinformation vor, die auf die Umgebung interpoliert wurde. Trotz 4x4-Farbsubsampling findet man keinen Grund zur Beanstandung.




Im direkten Vergleich wirkt das Original dann doch besser. Doch kennt man es nicht, vermisst man in der reduzierten Version auch nichts.

DVD-Video nutzt üblicherweise ein Farbsubsampling von 2x2, 2x1-Subsampling gilt bereits als Studioqualität. Auch JPEGs verwenden in der Regel das 2x2-Farbsubsampling – in Folge lassen sich bei Screenshots von Computerprogrammen farbige Schriften auf farbigem Grund nicht besonders hochwertig speichern. Dafür sollte auch besser PNG nehmen – oder wenigstens beim JPEG-Speichern das Subsamping auf 1x1 setzen, also abschalten.

Pixel Plus wird sich wegen der Optimierung für Filme wohl vor allem auf den Helligkeits-Kanal stützen, um dort Schärfefilter anzuwenden. Die Farbinformation liegt ohnehin nur in geringerer Aufösung vor. Da unser Auge Farbtöne schlechter auflöst als Helligkeitsunterschiede (und zwar sowohl räumlich als auch von der Anzahl der Abstufungen her) kommt es besonders auf einen hochwertige Darstellung der Helligkeitsinformation an.


Natürlich ist ein PAL-Bild aufgrund der begrenzten Auflösung nicht beliebig scharf. Filmt man eine Kante, die genau von schwarz auf weiß geht, wird man fast nie den Übergang exakt zwischen zwei Zeilen haben. Damit erhalten wir eine graue Zwischenzeile. Das Problem wird mit der Hochskalierung auf ungefähr 360 Zeilen pro Halbbild (der Rest ist abgeblendet) noch verstärkt.

Man muss sich klar machen, dass das Gerät bei 100 Hz weiterhin interlaced arbeitet. Ein 100-Hz-Fernseher kann in der Regel auf Wunsch auch einfach jede Zeile 2x ausgeben, somit ist man bei Kameraschwenks die Kamm-Artefakte los – doch für mehr als 50 Hz reicht im Doublescan-Modus die Zeilenfrequenz der Röhre nicht. Deshalb rede ich von ca. 360 angezeigten Zeilen pro Halbbild, auch wenn die Pixel-Plus-Verarbeitung wahrscheinlich für deinterlacte und hochskalierte Vollbilder mit 768 Zeilen (576 plus 1/3) stattfindet.

Ein Problem von Pixel Plus ist, dass die Bildwiederholfrequenz von 100 auf 75 Hz sinkt – was in die zusätzlichen Zeilen gesteckt wird, muss man angesichts der begrenzten Zeilenfrequenz an der Bildwiederholrate sparen. Damit wirkt das Bild zwar noch lange nicht flimmrig, aber die Elektronik muss aus zwei Habbildern drei Halbbilder machen. Solche krummen Skalierungsfaktoren sind prinzipiell problematisch. Das ist wohl auch der Grund warum "Digital Natural Motion" zur Bewegungserkennung und -Interpolation im Zusammenhang mit Pixel Plus (oder Movie Plus) immer aktiv ist – sonst hätte man Ruckeln.


Ein Schärfefilter der "normale" Unschärfe bekämpfen soll, benötigt wie eingangs erwähnt eine Kernelgröße von mindestens 3x3. Es ist anzunehmen, dass Pixel Plus einen größeren Kernel nutzt, um die durch Zeilen-Hochskalierung enstehende zusätzliche vertikale Unschärfe zu bekämpfen. Dabei sollte man aber vorsichtig sein, so dass ein zu stark eingestellter Schärfefilter nicht nur für "Überschwinger" sorgt. Außerdem ist eine zu starke Flanken-Steilheit generell nicht gewünscht: Würden sich Objekte pro Bild immer um ganze Zeilen bewegen, könnte das die Wahrnehmbarkeit von Ruckeln verstärken.

Andererseits: Bei nur 576 Zeilen pro Vollbild verschwinden schon Details in der Grobheit, die bei 768 Zeilen noch darstellbar sind – auch wenn diese nur aus 576 hochskalierten Zeilen berechnet wurden. Dazu muss man den Effekt kennen, dass bei höherer Auflösung Unschärfe erst besonders gut sichtbar wird, bei geringerer Auflösung wirkt das Bild aufgrund seiner Grobheit auch unschärfer aber die Wahrnehmung ist nicht dieselbe. Skaliert man nur moderat hoch, kann das in der Tat die Detailwahrnehmung steigern obwohl keine neuen Informationen ins Bild gelangen. Die scheinbar sinnvolle Maxime "ein Signal sollte man möglichst unverfälscht anzeigen" gilt nicht absolut.

Mir ist ehrlich gesagt nicht klar, wie bei Pixel Plus hochskaliert wird. Möglich wäre statt bilinearer Filterung und adaptiver Nachschärfung auch die Verwendung eines bikubischen Filters.



Pixel noch unquadratischer


Wie sieht es mit der Information innerhalb einer Zeile aus? Dazu kurz ein Exkurs in die anamorphe Kodierung. Ein letterboxed 16:9-Film in PAL kann pro Vollbild nur 432 statt 576 Zeilen nutzen, da oben und unten jeweils 72 Zeilen für schwarze Balken notwendig sind. Während "morphen" ja das verzerren (hier: von Bildern ist), ist etwas amorphes etwas Unveränderliches. Glas zum Beispiel ist vom Aggregatzustand her nicht fest (Festkörper haben bei ihren Atomen/Molekülen eine Kristallgitterstruktur) sondern so gesehen flüssig, nur amorph – es wirkt wie fest. Anamorph ist die Negierung der Negierung und bedeutet hier, nichtquadratische Pixel zu verwenden. Ungeachtet der Tatsache, dass ohnehin weder analoges noch digitales PAL quadratische Pixel haben …

Bei anamorphem Video werden also für 16:9-Bilder weiterhin alle Bildzeilen genutzt, und die Röhre komprimiert die Zeilen. Der Bildaufbau beginnt nicht mehr links oben sondern dort, wo der Balken zuende ist. Falsch wiedergebene anamorphe Videos sind entsprechend in die Höhe gezogen – tatsächlich findet man im Web immer wieder mal DVD-Screenshots die Eierköpfe und lange Gesichter zeigen.

16:9 entspricht 1:1,78, dabei nutzen Kinofilme oft 1:1,85 oder 1:2,35. Bei 1:1,85 sieht man auf einem 16:9-TV trotzdem keine schwarzen Balken, weil die Randbereiche der Röhre ja wie erwähnt abgeblendet sind. Cinemascope (1:2,35) ist auf dem Film selbst anamorph belichtet worden und wird von der Projektor-Optik wieder entzerrt. DVD-Video kennt aber nur anamorphe 16:9-Kodierung. Letterboxed hätte man bei Cinemascope nur noch 327 Zeilen, dank anamorpher Kodierung bleiben 436 für das Bild nutzbare Zeilen übrig. Somit sind auch bei Breitbild-Filmen noch ganz gut Details zu erkennen.

Lange Rede, kurzer Sinn: Mit anamorpher Kodierung werden die Pixel noch mal breiter (bzw. flacher) gemacht, doch durch den Trick kann man mit normaler PAL-Information bei Breitbild-Filmen trotzdem noch einen vernünftigen Detailgrad speichern. Nur so kann ein Schärfefilter auch funktionieren, in dem er noch gespeicherte, aber schlecht sichtbare (da schwachkontrastige) Details wieder hervorhebt.

Bei quadratischen Pixeln hätte man beim 16:9-Format bei 576 Zeilen pro Zeile 1024 Pixel. Davon geht Pixel Plus auch aus, das TV-PAL-Signal welches effektiv in der Zeile bestenfalls 600 getrennte Informationen (also abwechselnd 300 weiße und 300 schwarze Details) darstellen kann wird für die digitale Bearbeitung als 1024-Pixel-Zeile gesehen. Durch eine doppelt so hohe Taktung der Steuerelektronik, die die Kathodenstrahlstärke regelt, werden bei Pixel Plus angeblich bis zu 2048 Pixel geboten. Aus eigentlich breiten und flachen Pixeln werden somit für die interne Verarbeitung mehrere sehr dünne, schmale Pixel. Das heißt für die Praxis, dass man in der Zeile sehr steile Flanken realisieren kann.

Was bringt das? Nun, Schärfe natürlich. Die Intensität des Elektronenstrahls kann nicht beliebig schnell geändert werden. Das Beispiel von 600 effektiven Pixeln pro Zeile meint keine 600 scharf getrennten Pixel, sondern eher sinusartige Helligkeitsschwankungen. Mit Pixel Plus können die Übergänge ca. 3x steiler gemacht werden, auf Schwarz folgt dann Weiß ohne dass man einen wahrnehmbaren grauen Zwischenraum hat.



Physikalische Auflösung


Seit längerem haben Fernseher eine Schlitzmaske, wobei die RGB-Elemente in Spalten angeordnet sind. Dies trägt der Tatsache Rechnung, das unsere Augen in der Vertikalen feiner auflösen als in der Horizontalen. Wer das probieren möchte, testet am besten mal einen TFT im Pivot-Modus aus: Die somit horizontalen TFT-Streifen sind dann viel einfacher zu sehen als bei normaler Ausrichtung, wo die Streifen in der Vertikalen liegen.

Bei der Röhre hat man bei der Anordnung der RGB-Elemente in Spalten den Vorteil, keine fixe Zeileauflösung zu haben: Der Kathodenstrahl kann das RGB-Element schließlich auch nur zum Teil zum Leuchten anregen, im Gegensatz zum TFT, wo immer ganze RGB-Subpixel mit bestimmter Intensität leuchten. Deshalb ist Zeilenkomprimierung für den 16:9-Modus beim 4:3-Fernseher kein Problem, es geht durch die Bauform der Röhre keine Auflösung verloren.

Geht man nahe genug an den Fernseher, kann man den Zeilenaufbau trotzdem sehen. Um das so weit wie möglich abzuschwächen, sind die RGB-Elemente pro zweiter Spalte um 1/2 Höhe versetzt:




Hier im nachgestellten Bild leuchten alle RGB-Elemente vollständig. Sie können aber auch nur zum Teil angeregt werden.


Während wir keine fixe Zeilenauflösung haben, scheint die Spaltenauflösung durch die Granularität der RGB-Elemente ja bestimmbar. Doch ein Röhrengerät ist kein TFT und stellt kein digitales, sondern ein analoges Signal dar. Sobald Pixel zur Anzeige gebracht werden sollen, die kleiner sind als ein RGB-Element breit ist, wird natürlich die Pixelfarbe verfälscht. Das fällt dann bei Detailbetrachtungen auch auf. Die Spaltenbreite eines RGB-Elements legt insofern zwar die minimale sinnvolle Pixelgröße fest, aber – ganz grob vergleichbar mit der Cleartype-Fontsglättung in Windows XP – ließen sich durchaus Subpixel nutzen.

Was man generell beachten muss: Besonders bei den Geräten mit flacher Bildröhre nimmt die Auflösung zum Rand hin ab. Der Kathodenstrahl trifft dann schließlich schräg im Winkel auf, und beeinflusst damit größere Flächen als in der Bildmitte, wo er senkrecht auf die Leuchtelemente trifft. Eine an und für sich unsinnig hohe Auflösung von 2048 Pixeln pro Zeile sorgt dann immerhin dafür, dass die Ränder – wenn sie auch unschärfer werden – nicht zu unscharf sind. Das Problem ist bei 16:9-Geräten natürlich noch drastischer, da die Röhre dort deutlich breiter als hoch ist. Wahrscheinlich gilt die Zahl der 2048 Pixel pro Zeile auch nur für 16:9-Geräte mit Pixel Plus, 4:3-Geräte haben wohl "nur" 1536 Pixel. Das gilt jedoch nur für die interne Verarbeitung – mein 4:3-Gerät mit "Pixel Plus 2" hat bestenfalls halb so viele Pixel (RGB-Spalten) physikalisch.



Problematik der Bildfehlerverstärkung


Gute Schärfefilter wirken letztlich wie eine Dynamikkomprimierung: Schwache Details werden verstärkt, ohnehin scharfe Kontraste werden (zur Artefaktvermeidung) hoffentlich in Ruhe gelassen. Und hier versagt der Schärfefilter bei Philips: Schon in der kleinsten Einstellung werden scharfe Kontraste, z. B. um Untertitel herum, überzeichnet. Schwache Kontraste bzw. "Texturen" gewinnen allerdings mit einer moderaten Nachschärfung. Mit Pixel Plus und ohne zusätzliche Nachschärfung wirkt das Bild bereits deutlich klarer als im "100 Hz Digital Scan"-Modus, welcher vergleichbar ist mit normalen 100-Hz-Bildern. Doch erst der Schärfefilter zieht auch noch den letzten "Schleier" vom Bild – leider zum Preis von Überzeichnungen an harten Kontrasten.


Bei Filmen hat man es aber noch sowohl mit Rauschen als auch mit Komprimierungsartefakten zu tun. Würde man einfach alles schärfen, würde man Rauschen und Komprimierungsartefakte erst so richtig herausarbeiten. Hier kann man Filter nutzen, die einen Schwellwert-Mechanimus haben: Liegen die lokalen Kontrastveränderungen unterhalb einer Schwelle, wird es für Rauschen gehalten und sogar noch geglättet. Andernfalls kommt der Schärfe-Filter zum Zuge.

Doch anhand welcher Charakteristiken trennt man Bildrauschen von Details? Wo setzt man den Schwellwert an, unter dem geglättet und über dem geschärft wird?

Der Einfluss des Rauschens ändert sich von Bild zu Bild. Das kann man als Anhaltspunkt nehmen, um Rauschen von Details zu trennen: Ändert sich der Inhalt eines schwachkontrastigen Bildbereiches nur langsam, dürfte es sich um Details handeln, die man durch digitale Bildschärfung besonders zur Geltung bringen sollte. Schwache Details bei sich schnell bewegenden Objekten kann das Auge ohnehin nicht erfassen, nur auf vergleichsweise ruhige Bereiche kann sich das Auge konzentrieren.

Solche Methoden bieten sich im Prinzip für Verfahren à la Pixel Plus an. Allerdings müsste man dafür immer die letzten angezeigten Bilder noch vorrätig haben. So viel Aufwand wird wahrscheinlich nicht betrieben. Für 3D-Kammfilter benötigt man immerhin noch zwei Bilder in Folge, mit mehr wird wohl auch Pixel Plus nicht arbeiten. Das "Digital Noise Reduction" wirkt allerdings nur bei Signalen die vom Tuner kommen. Auch im Kabel werden Fernsehsignale etwas verrauscht, hier kann DNR lindern ohne das Bild gleich unscharf zu machen. Inwieweit Pixel Plus bei via Scart eingespielten Signalen entrauscht, ist mir nicht bekannt.

Unklar ist auch, ob Schärfe-Filtern in Fernsehern die nichtlineare Helligkeits-Kodierung berücksichtigen. Jeder Bildfilter sollte in einem linearen Raum durchgeführt werden, dorthin müssten die Farbwerte erst mal umgerechnet werden – und das Ergebnis müsste zurückgerechnet werden. Welche Auswirkungen das Fehlen solcher Umrechnung mitsich bringt, lässt sich zum Beispiel so zeigen:




Das Bild mit etwas Abstand vom Monitor betrachten. Eine Kante erscheint etwas hügelig, die andere glatt.

 

Fazit


Theoretisch bestünde die Möglichkeit, durch Nachbehandlung der Bilder diese erheblich zu verbessern. In der Praxis wäre der Aufwand jedoch so groß, dass bei Pixel Plus zwar die Streifigkeit des Bildes reduziert wird und man in der Horizontalen die Flankensteilheit erhöht, was ermöglicht Pixel besser voneinander zu trennen. Doch damit der Schärfefilter nicht noch unerwünschtes Bild-Grisseln verstärkt, muss er die vorherigen Bilder kennen, um Rauschen von Bilddetails zu trennen. Neben dem Rechenaufwand, erst reicht bei Umrechnung in lineare Farbräume, ist auch der erforderliche Speicherplatz zu berücksichtigen. Damit dürfte eine Realisierung vorliegen, deren positive Wirkung recht begrenzt ist.

In der Praxis zeigt sich dann auch, dass die Vorteile von Pixel Plus und vergleichbaren Verfahren anderer Hersteller auf der einen Seite mit Nachteilen auf der anderen erkauft werden. Diese auszuführen würde den Umfang des Artikels sprengen, doch insgesamt halte ich die elektronische Bildverbesserung für sinnvoll und ihr Geld wert. Wie gut DVDs und Konsolenspiele auf einer 4:3-Röhre aussehen können, hätte ich nicht gedacht. Ausgerechnet das Fernsehprogramm wird aber auch durch Pixel Plus 2 und DNR nicht erheblich verbessert. Das Bild wird zwar aufpoliert, es ist klarer und "besser" aber deutlich detailärmer als das Bild einer DVD.


Natürlich ist das Ende der Röhrentechnik schon absehbar. Doch Bild-Skalierung mit möglicher Nachschärfung ist auch bei LCD-Monitoren noch ein Problem. Das Bild mit WinTV auch auf einem TFT lange nicht so scharf und "gut" aus wie auf meinem neuen Röhren-TV. Da es bei HDTV ja gleich zwei definierte Zeilenanzahlen gibt, wird man in Flachbildtechnik keinen perfekten HDTV kaufen können, der jedes Material im Vollbild ohne Skalierung anzeigen kann. Man darf gespannt sein ob die HD-Medien wenigstens genug Rohqualität liefern, dass man auf weitergehende elektronische Bildverbesserung verzichten kann.



Anregung und Fragen zum Artikel können hier diskutiert werden.
« Letzte Änderung: 30. April 2006, 02:06:30 von aths »

Offline Dennis

  • HT4U.net Redakteur
  • 64-Bit-Prozessor
  • *****
  • Beiträge: 5939
  • Geschlecht: Männlich
  • Killerspiele-Spieler!
    • Profil anzeigen
    • Meine :)
Diskussion zu: Scharfe Bilder auf einem Röhren-Fernseher?
« Antwort #1 am: 26. April 2006, 19:10:39 »
Hier kann fachmännisch zu folgendem Artikel diskutiert werden

http://www.forum-hardtecs4u.com/yabbse/index.php?board=19;action=display;threadid=38044
|| HT4U ||

Offline Markus-Maximus

  • 16-Bit-Prozessor
  • ******
  • Beiträge: 1428
  • Geschlecht: Männlich
    • Profil anzeigen
Re:Diskussion zu: Scharfe Bilder auf einem Röhren-Fernseher?
« Antwort #2 am: 03. November 2006, 13:27:29 »
hmm sehr ausführlich und gut...

ich stand im jahr 2002 vor der entscheidung was für einen fernseher ich mir holen soll...budget waren damals 2500€ von daher kam ein plasma nicht in frage und lcd`s gab es da noch keine so großen...

ich habe mich dann mal in das thema eingelesen und bin bei philipps mit pixel plus gelandet...

nun konnte ich mir das leider nicht wirklich vorstellen und papier ist geduldig...ich also auf zum mediamarkt welcher ungefähr immer so 70+ fernseher präsentiert in allen möglichen größen...

sie hatten ne menge firmen und auch ne menge in meiner preisklasse, aber einer hat aus der masse ganz enorm hervor gestochen...und das war eben der phillips mit pixel plus technologie...

ich habe ihn mir dann gekauft und er wurde auch fernseher des jahres 2002

bis heute habe ich es nur beim umziehen bereut, da er so ca. 35-45kg wiegt ;)

das bild ist gigantisch vorallem in kombination mit meinem vergoldeten kabel und der ps2 (diese kombi war damals der gehimtipp und vom bild her besser als der teuerste sony dvd player) - abstriche muss man leider machen wenn das signal keine gute qualität aufweist, seit ich umgezogen bin habe ich keinen digitalen sateltitenempfang mehr sondern nur noch analog und das sieht man deutlich.

wenn er interplolieren muss, dann leidet die qualität des bildes auch etwas aber ist mehr als erträglich. und die meiste zeit passt das format.

ich bin vollauf zufrieden und es gibt nur wenige lcd`s die für mich ein "schärferes" bild mit besseren farben darstellen die ich mir kaufen würde - leider fehlt mir im moment das geld für so einen spass

E6750@4Ghz
Gigabyte P35-DS4 - 4GB Mushkin HP2
Gecube HD2900XT + Xi-Fi Extreme Music
Lian Li PC6070+NB Evo EQ+NBS1 Lüfter
MC1+Innovatek+TripleRadiator+Eheim1250
Samsung Syncmaster 226BW 22"

Offline Nightnick

  • DOS-BIOS-Flasher
  • ****
  • Beiträge: 178
  • Geschlecht: Männlich
    • Profil anzeigen
    • Ist noch in Arbeit...
Re:Diskussion zu: Scharfe Bilder auf einem Röhren-Fernseher?
« Antwort #3 am: 10. Dezember 2006, 22:29:21 »
Bild hin Bild her, die Unterschiede, Vor- und Nachteile zwischen LCD und Plasma sind glaub ich nach wie vor unumstritten, schön daß Du Dich in der Vielfalt entscheiden konntest. Ich könnte es nach wie vor nicht. Hab mich vor lauter Unstimmigkeiten nach Grundig (CUC7851) für nen Metz entschieden, und wieder für ne Röhre! Komm nicht an plasmatische Bilder ran.