2) Videobearbeitung

Ein Video (vom lateinischen video = sehen) besteht aus einer Abfolge von Einzelbildern in einer bestimmten Frequenz (Bildwiederholfrequenz). Diese werden grundsätzlich mit einer Optik und einem Bildwandler (Sensor oder Filmmaterial) erzeugt.

Es gelten ähnliche fototechnische Prinzipien (Blende, Belichtungszeit, Dynamik…) wie bei einer Spiegelreflex(DSLR/M)-Kamera. Zusätzlich wird jedoch der Datenstrom in ein bestimmtes Format kodiert bzw. dekodiert (Codec), zB. MPEG oder h.264 und gespeichert. Als Speichermedien dienen Film, Magnetband, Solid-State-Speicher, Festplatten oder ähnliche Speicher mit entsprechenden Lese- und Schreibraten.

Bewegte Bilder

Beim Menschen entsteht eine Illusion der Kontinuität ab ungefähr 12 Bildern pro Sekunde (siehe zB. Daumenkino), falls die dargestellten Objekte langsam bewegt sind. Ab 16 Bildern pro Sekunde entsteht auch für schnellere Bewegungen ein solcher Eindruck. Der Psychologe Max Wertheimer und der Arzt/Forscher Peter Max Roget erkannten auf Basis der Gestaltpsychologie zwei dafür verantwortliche Phänomene:

Es entsteht somit eine zusätzliche Informationsdimension (für weitere Infos recherchiere den Kuleshov-Effekt). Das Gesamte ist somit auch in diesem Fall mehr als die Summe seiner Teile. Der Fotograf Eadweard Muybridge (19. Jhdt.) legte mit seinen Serienaufnahmen den Grundstein für die Entwicklung der Laufbildmedien. Sein Zoopraxiskop war der Vorläufer der Projektionstechnik in Kinos.

Aufgaben

A01) Recherchiere und beschreibe den Kuleshov-Effekt. Zeige weitere Dimensionen der Informationsvermittlung von Bewegtbildern (Schnitttechniken, Montage, …)

A02) Recherchiere die Arbeiten von Eadward Muybridge und der Anfänge der Chronofotografie, vor allem sein Zoopraxiskop und seine sog. Reihenfotografien.

Videoformate

Wir unterscheiden grundsätzlich folgende Parameter der Videoformate:

In diesem Skript beschäftigen wir uns hauptsächlich mit dem HDTV-Standard und dem SDTV-Standard. UHDTV, 8K usw. können in den jeweiligen Spezifikationen der ITU (International Television Union), EBU (European Broadcast Union) oder SMPTE (Society of Motion Picture and Television Engineers) nachgelesen werden.

HDTV-Format

In Europa wird HDTV laut folgender Spezifikation definiert:

Grundlage für diese Spezifikationen sind unter anderem die Empfehlungen der ITU, nämlich ITU-R BT.709 und ITU-R BT.2020, welche die Regeln zur A/D-Wandlung eines analogen Komponentensignals beschreiben.

Für die Übertragung der Signale im Produktionsumfeld wird HD-SDI verwendet, auf welches später eingegangen wird.

Common Image Format

Für HD wurde ein gemeinsamer Standard entwickelt, das Common Image Format (CIF). Dabei ist das eigentliche Bildformat mit der Zeilen- und aktiven Bildpunktzahl bei allen Bildwechselfrequenzen gleich. Das Bildseitenverhältnis beträgt 16:9. Die Bildpunkte sind quadratisch. Folgende grundsätzliche Normen gibt es:

Man spricht in diesem Fall von der Anzahl der Nettozeilen und Nettopixel pro Zeile, die bei allen Bildwechselfrequenzen identisch sind. Dem sichtbaren Bild werden nicht sichtbare Pixel, die sogenannten Austastlücken („Blanking Intervalls“, in denen der Ton und Zusatzdaten übertragen werden), vorangestellt. Die Anzahl der nicht sichtbaren Pixel ist so gewählt, dass bei der digitalen Abtastung trotz unterschiedlicher Bildwechselfrequenzen (24, 25, 30, 50, 60 Hz) immer die gleiche Datenrate (von 1,485 GBit/s) erzeugt wird.

Berechnung der Bruttodatenraten anhand 1080i bei 10 bit:

 1125 ∗ 2640 ∗ 2 ∗ 10 ∗ 25 = 1,485 𝐺𝑏𝑖𝑡/s

Seitenverhältnis

Aspect Ratio = Seitenverhältnis. Unterscheide SAR (Storage Aspect Ratio), DAR (Display Aspect Ratio) und PAR (Pixel Aspect Ratio). Wenn die Seitenverhältnisse für SAR und DAR übereinstimmen spricht man von quadratischen Pixeln (square pixel), falls nicht, von nicht-quadratischen Pixeln (nonsquare Pixel).

Storage-, Display- und Pixel-Aspect Ratio spielen dann eine Rolle, wenn zB. anamorph (verzerrt) aufgezeichnet wird wie bei DV-HDTV (1440 x 1080). Dabei wird in 4:3 anamorph aufgezeichnet (SAR) und bei der Wiedergabe (DAR) auf 16:9 entzerrt. Dabei ist das Pixel-Seitenverhältnis (PAR) 4:3, also nicht-quadratisch. Ein SAR von 1:1 entspricht dem DAR und somit quadratischen Pixeln

Safe-Areas bei 16:9 Produktionen

In der Videosoftware bzw. an der Kamera können sogenannte sichere Bereiche eingeblendet werden. Diese sind vor allem bei der Aufnahme wichtig und definieren Pufferzonen bei der Produktion. Innerhalb dieses Bereiches wird sichergestellt, dass bestimmte wichtige Bildinformationen auch sichtbar im Bild sind. Der Bereich ist abhängig vom Seitenverhältnis.

Bildverschmelzungsgrenze und Bildwiederholungsfrequenz

Die Bildverschmelzungsfrequenz unseres Auges (Sehsinn) liegt bei ungefähr 16 Bildern pro Sekunde (16 Hz). Für Laufbildmedien wurden folgende Werte gewählt:

Der Unterschied zwischen Europa und USA/Japan liegt an der Verkoppelung mit der jeweiligen Frequenz des Wechselstromnetzes (Europa 50 Hz, USA/Japan 60 Hz). Obwohl in allen drei Fällen die Bildverschmelzungsfrequenz deutlich überschritten ist, ist an hellen Bildstellen ein deutliches Flimmern zu bemerken.

Das Ferry-Porter Gesetz besagt, dass die Flimmergrenzfrequenz des menschlichen Sehsinns deutlich höher als die Bildverschmelzungsfrequenz und zudem abhängig von der Helligkeit (Leuchtdichte) des Dargestellten ist.

Die Bildverschmelzungsfrequenz ist jene Frequenz, ab welcher eine abgebildete Bewegung als fortlaufend und zusammengehörig empfunden wird.

Die Flimmergrenzfrequenz ist abhängig von der Leuchtdichte und bestimmt, ob uns das Gesehene „flimmernd“ erscheint (ab 50 Hz kein Flimmern mehr bewusst bemerkbar - außer bei hellen Stellen. Siehe Ferry Porter-Gesetz).

Die Bildwiederholfrequenz ist die tatsächliche Anzahl an Bildern pro Zeiteinheit und kann natürlich gleich, größer oder kleiner der Flimmerfrequenz (= tatsächliche „Bildaufbaurate“ des Wiedergabegeräts) sein. Die Begriffe werden in der Praxis oft vermischt.

Bildwiederholrate Empfehlungen: • TV 50i • Film look 24p, 25PsF, evtl. 50p • Kino 24p • Sport/Action 50p

Zeilensprung und progressive Abtastung

Jedes Bild erzeugt ein Vollbild im Fall von progressive scan. Die Abtastung beginnt an der oberen linken Ecke des Bildes und endet an der rechten unteren Ecke.

Alternativ zum progressive scan können bei der Aufnahme zwei Bilder zu zwei verschiedenen Zeitpunkten abgetastet werden, wobei die Zeilen derart verschachtelt sind, dass geradzahlige und ungeradzahlige Zeilen jeweils ein eigenes sogenanntes Feld (engl. field) bilden. Dies wird als unteres bzw. oberes Halbbild (upper field, lower field) bezeichnet. Diese Abtastung nennt man interlaced (= Zeilensprungverfahren). Dabei entstehen ein zeitlicher Verschub und eine höhere zeitliche Auflösung (=flüssiger Bewegungseindruck bei gleicher Bandbreite). Dafür ist das einzelne Bild nicht so scharf und kann bei bewegungsreichen Aufnahmen kann Zeilenflimmern auftreten.

Bei der Wiedergabe wird das interlace-Material mittels de-interlacing (weave, bob) in Vollbilder umgewandelt.

Achtung: Bei 50i werden 50 Halbbilder abgetastet, die Datenmenge und Bildwiederholfrequenz entsprechen technisch jedoch 25p, weshalb auch 50i-Footage eine Bildwiederholfrequenz von 25 Bildern anzeigt (siehe zB. Premiere)

Bei PsF (Progressive Segmented Frame) speichert man Vollbildmaterial als Halbbilder. Jedes Vollbild wird dabei in zwei Halbbilder ohne zeitlichen Verschub der einzelnen Zeilen innerhalb eines Halbbildes geteilt.

Das HDTV-Format 1080i50 wird dann im PsF-Verfahren übertragen, wenn progressives Bildmaterial mit 25 Vollbildern pro Sekunde vorliegt und gesendet wird. Die Vorteile durch die höhere zeitliche Auflösung bei interlace-Abtastung entfallen jedoch.

Progressive Abtastung:

Interlace Abtastung

Weitere Infos

Analoge Videosignale

Trotz voranschreitender Digitalisierung finden wir im videotechnischen Bereich noch viele analoge Signale und Technologien, welche neben den digitalen Übertragungen in den folgenden Kapiteln dargestellt werden.

Primär ist das RGB-Komponentensignal von Bedeutung. In der folgenden Abbildung wird der Signalfluss von RGB bis FBAS dargestellt.

RGB-Signal

Diese Signalform ist meist der Ausgangspunkt für die Übertragung von Videosignalen. In der Theorie der analogen Videotechnik ist RGB die Video-Übertragungsnorm, die die höchste Bildqualität liefert, d.h. die geringsten Übertragungsverluste erzeugt. Doch in der Heimkino-Praxis liegt das Problem von RGB in seiner Variantenvielfalt. Bei dem im Computerbereich üblichen RGB HV werden zusätzlich noch die horizontalen (H) und vertikalen (V) Sync-Signale auf je einer weiteren Leitung getrennt übertragen. Im Videobereich wird das Sync-Signal mitunter auf nur einer separaten Leitung zusammengefasst oder auf Grün aufmoduliert (Sync-on-Green) - dann bleibt es bei drei Leitungen. Neueste Komponenten kommen ganz ohne Sync aus. Rot, Grün und Blau nehmen einen Pegelbereich von 0…700 mV ein; die Bandbreite beträgt jeweils 5 MHz.

YUV-Komponentensignal

YUV, auch Componenten- (vom englischen „Components“) Video genannt, ist das amerikanische Pendant zu RGB und funktioniert auch ähnlich. Wie RGB können Sie auf den ersten Blick auch YUV an drei rot/grün/blauen Video-Cinch-Buchsen erkennen. Dennoch ist das Signal nicht kompatibel zu RGB. Beim YUV-Signal wird die Bildinformation in ein Helligkeitssignal (Y = grün markierte Buchse) und zwei Farbdifferenzsignale (Cb = blau markierte Buchse und Cr = rot markierte Buchse) zerlegt.

Die Farbdifferenzsignale werden wie folgt gebildet: U = R - Y und V = B - Y. Aus G - Y ergäben sich nur geringe Pegel, da der Grünauszug dem Y-Signal sehr ähnlich ist. Aus diesem Grund genügt es, nur zwei Farbdifferenzsignale aus R - Y und B - Y zu bilden, um die gesamten Farbinformationen zu gewinnen.

YPBPR-Komponentensignal

Dieses Signal ist ähnlich dem YUV-Signal, nutzt jedoch einen anderen Farbraum und wird bei Component-Video-Anschluss übertragen bzw. als Ausgangspunkt für digitale Signale genutzt.

Y/C-Signal (S-VIDEO)

Y/C (auch bekannt als Separate Video, S-Video) bezeichnet die getrennte Übertragung von Lumi- nanz (=Helligkeit)- und Chrominanz(Farbinformation)-Informationen. Die beiden Farbdifferenzsignale U und V werden zu einem Chrominanzsignal (C) gemischt. Luminanz- und Chrominanzsignal werden getrennt

übertragen (Y/C). Es ermöglicht, vor allem beim Einsatz in preisgünstigen Geräten, qualitativ bes- sere Signale als Composite Video (FBAS), erreicht jedoch nicht die Qualität von RGB-Signalen oder Komponentensignalen.

Dieser Stecker ist ein 4-poliger DIN-Stecker

FBAS-Signal

Composite-Video - oft auch FBAS oder einfach nur „Video“ genannt- ist die einfachste der Videoverbindungen. Erkennbar ist FBAS an der meist gelb markierten Cinch-Buchse am Gerät. Bei FBAS wird das gesamte Videosignal mit allen seinen Komponenten wie z.B. Farb-, Helligkeits- oder Synchron-Signalen auf eine einzige Leitung moduliert. Daher stammt auch der zweite Name für diese Signalvariante, nämlich „Composite“, was soviel heißt wie „alles in einem zusammengefasst“. Entsprechend schlecht und störanfällig ist FBAS im Vergleich zu allen anderen Signalarten.

Gammakorrektur für RGB-Signale

Aus den RGB-Signalen vom Sensor wird mittels Gammakorrektur ein R’G’B‘-Signal erzeugt. Die Gammakorrektur ist nötig, damit die linear anwachsenden Größen die der Sensor liefert in ein dem menschlichen Sehsinn entsprechendes, nicht-lineares Signal konvertiert wird.

Die menschliche Wahrnehmung ist anatomisch so, dass dunklere Tonwerte heller und helle Ton- werte weniger hell wahrgenommen werden. Die Empfindlichkeit von Bildwandlern ist jedoch in den Lichtern höher als in den Tiefen, weshalb nach der Gammakorrektur mehr Tonwerte für die Tiefen zur Verfügung stehen.

Digitale Videosignale

Das analoge Y’P’bP’r-Signal wird mit der entsprechenden Abtastfrequenz digitalisiert und serialisiert.

Komprimierung

Bei der digitalen Kodierung wird meist eine Komprimierung zur Reduktion der Datenmenge angewandt. Dabei unterschiedet man zwischen verlustfreier (lossless) und verlustbehafteter (lossy) Komprimierung.

Digitale Komponentensignal YCBCR

Das YCbCr-Farbmodell entspricht weitestgehend dem in der Analogtechnik eingesetzten YUV-Farbmodell, resp. dem YPbPr-Farbmodell. Es wird in JPEG und der MPEG-Kompression benutzt, die in DVDs, Digital-TV, Video-CDs und in Camcordern eingesetzt werden und kann über die HDMI-Schnittstelle und die DVI-Schnittstelle übertragen werden. YCbCr ist ebenso wie das RGB-Farbmodell im ITU-Standard BT.601 beschrieben.

SDI - Serial Digital Interface

SDI wird von der SMPTE spezifiziert und ist eine Weiterentwicklung der analogen PAL- und

NTSC-Standards. Über alle HD-SDI-Verbindungen können Bild, Ton und Metadaten über- tragen werden.

Es dient primär zur Übertragung von unkomprimierten und unverschlüsselten Videodaten über Koaxialkabel oder Lichtwellenleiter. Es kommt hauptsächlich im Bereich professioneller Fernsehstudios und im Bereich von Fernsehsendern zum Einsatz.

Der Stecker für dieses Kabel heißt BNC und verfügt über einen Bajonettverschluss, der verhindert, dass sich Stecker und Buchse versehentlich lösen.

HDMI

HDMI ist in verschiedenen Spezifikationen im Laufe der Zeit erweitert worden und eine semi- professionelle AV (Audio & Video)-Schnittstelle. Folgende Übersicht zeigt die wichtigsten Features.

Grundwissen Film/Video