Zum Inhalt springen

Videokompression

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 22. Juni 2005 um 16:18 Uhr durch 212.202.45.200 (Diskussion) (Irrelevanzreduktion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Mit Hilfe der Videokompression lässt sich die Datenrate eines digitalisierten Videosignals beziehungsweise nach Speicherung der Platzbedarf einer Videodatei um ein Vielfaches verkleinern. Unter anderem standardisiert die Moving Picture Experts Group (MPEG) Verfahren zur Videokodierung und Audiokodierung.

Die Datenrate eines digitalisierten herkömmlichen Farbfernsehsignals inklusive Austastlücke liegt bei 216 Mbit/s (Megabit pro Sekunde); nach Weglassen der Austastlücke beträgt sie immer noch 166 Mbit/s. Die hohe Kompressionsrate – das heißt hohe Bildqualität in DVD-Auflösung bei einer Datenrate von nur etwa 1 Mbit/s – des MPEG-4 Standards und vergleichbarer neuer Verfahren ist in einer Reihe von Techniken zur Entfernung von irrelevanten und redundaten Informationen begründet.

Die Bildcodierung nach JPEG war ursprünglich für die Kompression von Standbildern (Photos etc.) festgelegt worden und legte auch ein Dateiformat fest, das mit Formaten aus dem Computerbereich wie zum Beispiel Postscript Level 2 oder Apple Quicktime übereinstimmte.

Für Bewegtbilder wurden daraus mehrere inkompatible Motion-JPEG-Verfahren entwickelt, die allerdings trotzdem im Bereich von Videoschnittsystemen zu finden sind. Bei Motion-JPEG wird jedes Bild eines Filmes einzeln als Standbild komprimiert, während bei echter Videokompression zusätzlich auch die meist hohe Ähnlichkeit direkt aufeinanderfolgender Bilder zur Informationsreduzierung ausgenutzt wird.

Physiologische Grundlage von Videokompression

Die Kompressionsalgorithmen beruhen auf den physiologischen Erkenntnissen des menschlichen Sehvermögens und des Gehörs.

Bei der Videokompression liegen bereits je nach Format bis zu 33% komprimierte digitale Eingangsdaten vor. Grund dafür ist, dass unsere Farbfernseher zwecks Abwärtskompatibilität zum Schwarzweißfernseher das YUV-Farbmodell verwenden. Bei den Bildern kann es, ähnlich wie bei Geräuschen, zu Schwingungsüberlagerungen kommen, welche für das Auge nicht sichtbar sind.

Mathematische Grundlagen

Die Begriffe Redundanzreduktion und Irrelevanzreduktion stammen aus der Informationstheorie und beschreiben zwei verschiedene Ansätze zur Reduktion der Datenmenge, auch Datenkompression genannt, bei der Übertragung von Information. Dabei wird auf ein Modell zurückgegriffen, bei dem Information von einer Quelle zur Senke übertragen wird. Auf den konkreten Fall der Videokodierung übertragen, entspricht die Quelle der Folge von Videobildern wie sie in der ursprünglichen Kamera entsteht, die Senke entspricht dem Auge des Betrachters. Analog trifft das auch für den Zuhörer zu.

Redundanzreduktion

Die Redundanzreduktion berücksichtigt Eigenschaften der Quelle mit dem Ziel, die zu übertragende Datenmenge zu reduzieren. Im Fall der Videokodierung werden statistische Eigenschaften des Bildsignals, zum Beispiel Korrelation zwischen zeitlich und räumlich benachbarten Bildpunkten, ausgenutzt, um möglichst kompakten Code zu erzeugen. Dabei kommt die Kodierung mit variabler Codewortlänge (VLC "variable length coding") zum Einsatz. Statt alle zu übertragende Symbole mit konstanter Codewortlänge zu kodieren, werden häufiger auftretende beziehungsweise wahrscheinlichere Symbole mit kürzeren Codewörtern kodiert als seltenere Symbole. Da keine Informationen verloren gehen, spricht man von verlustloser Kodierung.

Redundanzreduktion
Redundanzreduktion

Irrelevanzreduktion

Die .Irrelevanzreduktion zielt darauf ab, diejenige Information bei der Übertragung auszulassen, die für die Senke nicht relevant ist. Konkret bedeutet dies im Fall der Videokodierung, das nur ein Teil der Bilddaten übertragen werden. Dabei werden jene dadurch entstehenden Verzerrungen zugelassen, bei denen für den menschlichen Betrachter möglichst wenig Störung wahrgenommen wird. Da Informationen verloren gehen, spricht man von verlustbehafteter Kodierung.

Irrelevanzreduktion
Irrelevanzreduktion

Vorwärts gerichtete diskrete Kosinustransformation

Bei der vorwärts gerichteten diskreten Kosinustransformation (FDCT) wird das einzelne Videobild (Frame) in 8x8 große Pixel-Blöcke unterteilt, und diese werden nach ihrer Komplexität beurteilt. Dieser Schritt ist notwendig, damit der Codec "weiß", für welche (komplexen) Pixelblöcke er viel Speicherplatz benötigt und für welche (einfachen) Blöcke weniger Bits genügen. Dies ist die Voraussetzung für die Irrelevanzreduktion.

Bewegungsprädiktion

Eine weitere Möglichkeite zur Verkleinerung der Datenmenge ist die Bewegungsprädiktion (englisch motion estimation), in einfachen Worten verdeutlicht: das Entfernen von Zwischenbildern beziehungsweise das Ersetzen durch errechnete beziehungsweise geschätzte Differenzen zwischen zwei Bildern. Es wird nur nach Pixelblöcken gesucht, die sich gegenüber den letzten Frame verändert haben. Diese werden neu gespeichert, die unbewegten nur vom letzten Frame übernommen.

Siehe auch: Datenkompression, Audiokompression