- Frag' den Neudeck - https://www.frag-den-neudeck.de -

Fernsehausstrahlung: 720p oder 1080i was ist denn nun besser?

Obwohl es jetzt schon viele Jahre HD gibt, sind die Leute immer noch uneins, was das optimale Sendeformat angeht. Manche sagen, 720p – die Öffentlichen strahlen so aus – sei besser. Andere finden 1080i das bessere Format. Was stimmt nun? Und wie sieht es im Ausland aus? – Die USA sind da doch bestimmt schon weiter und zumindest Hollywood dreht mit 60p.

Optimal wäre die Ausstrahlung in 1920×1080 50p. In der Praxis geschieht dies sowohl aus ökonomischen (Geräte, Bandbreitenkosten etc., als auch aus technisch/historischen Gründen (z.B. Kompatibilität mit bestehenden Infrastrukturen) nicht.

Gesendet wird weltweit – öffentlich rechtlich, wie privat – schwerpunktmäßig in 720 50p oder 1080 25i (alte Bezeichnung war 50i) bzw. in den 60 Hz-Ländern mit den jeweiligen Äquivalenten.

Die oft zu lesende Aussage, 720p besitze eine geringere Auflösung als 1080i und sei deshalb das schlechtere Format, ist zu kurz gegriffen. Qualitativ bieten beide Formate eine etwa gleichwertige Bildqualität, jedoch mit einem anderen Schwerpunkt:

720p besitzt 921.600 (1280 x 720) Bildpunkte. Der dargestellte Bildinhalt spielt hierbei keine Rolle. Bei 1080i ist dem nicht so. Statische Bildinhalte (Grafiken, Fotos) bestehen aus 2.073.600 (1920 x 1080) Bildpunkten. Das ist natürlich unzweifelhaft besser als bei 720p.

Fernsehbilder sind aber nur im Ausnahmefall statisch. Selbst bei geringsten Bewegungen (z.B. wogendes Gras in einem Landschaftsmotiv) reduziert sich durch das Interlacing die Anzahl der „echten“ Bildpunkte auf nur noch 1.036.800 (1920×540), also nur unwesentlich mehr als 720p. Bezieht man typische Interlaced-Artefakte (z.B. Treppchen an kontrastreichen Diagonalen) mit in die Beurteilung ein, schneidet 1080i in Sachen Bildqualität sogar etwas schlechter ab.

Unter der technischen Prämisse, dass Flachbildschirme mit Halbbildern erst einmal nichts anfangen können, ist die Argumentation der EBU, die bei Einführung von HD in Europa für 720p und gegen 1080i votierte, durchaus nachvollziehbar. Vereinfacht: Da die Deinterlacer-Qualität in den Wiedergabegeräten verschiedener Hersteller und Preisklassen stark variieren kann, ist es vorteilhaft, den Geräten das Bildsignal möglichst „mundgerecht“ (=progressiv) zu liefern; entweder durch natives 720p-Material oder durch ein zentral durchgeführtes Deinterlacing mit sehr hochwertigen Studiogeräten.

Das Votum der Privatsender für 1080i war ausschließlich marketinggetrieben. Nach dem Motto: „Viel hilft viel“, war FullHD das Verkaufsargument gegenüber dem „kleinen“ HDReady. Dass 1080i qualitativ aber streng genommen kein Full HD ist, sondern sich nur unwesentlich von HDReady unterscheidet, nun ja, welcher Consumer interessiert sich jenseits großer Zahlen schon für die Details ….

Weltweit sieht es übrigens kaum anders aus:

In den USA sind die Bildfrequenzen 25 und 50 (egal, ob interlaced oder progressiv) zwar nur wenig gebräuchlich. Das hat allerdings keinerlei technischen Hintergrund, sondern ist ausschließlich historisch bedingt: Da die Bildfrequenz früher von der Frequenz des Stromnetzes abgeleitet wurde, sind in 60 Hz Ländern (USA, Japan, etc.) auch heute noch 30 (bzw. 29,97) und 60 Bilder die Frequenzen der Wahl.

Fernsehproduktionen (Reportagen, Nachrichtensendungen, Sport, Magazine usw.) werden in den USA – genau wie in Europa – heute üblicherweise in 1080i produziert, nur eben auf Grund der Historie mit 60 Halbbildern (alte Bezeichnung 60i, aktuelle Bezeichnung 30i).

Falsch ist Deine Aussage in Bezug auf Hollywood (Kinofilme). Weltweiter Standard sind hier nach wie vor 24 Bilder/Sekunde (24p). Bei hochwertigen Fernsehproduktionen (Serien, TV-Movies etc.) sind 30 Bilder/Sekunde (30p) Frequenz der Wahl. Oft kommen auch fürs TV 24 B/Sek. zum Einsatz, weil es das Konvertieren zwischen den Welten Kino, TV 50 Hz und TV 60 Hz erleichtert.

Höhere Bildfrequenzen (z.B. 48, 50 oder 60p) sind – von Ausnahmefällen, wie diversen IMAX-Formaten abgesehen – bei szenischen Produktionen unüblich. Grund hierfür ist der angestrebte Filmlook. Mit steigender Bildfrequenz verschwindet er. Das Bild bekommt dann die Anmutung einer Liveübertragung, ähnlich wie ein Theatermitschnitt, was aus künstlerischen Gründen i.d.R. unerwünscht ist.