Hinweis: Ich bin momentan leider anderweitig dermaßen ausgelastet, dass die Fortsetzung der AfterFX-Reihe momentan nicht vorangetrieben werden kann. Ich mache gerne weiter, sobald möglich (voraussichtlich irgendwann ab Juni/Juli). Bis dahin warten wir gemeinsam auf die Einführung der CS5 :-)
Herzlich Willkommen!
Hier ensteht zur Zeit ein Tutorial-Bereich für Boerse.bz. Thema sind zunächst die Video-Basics, in naher Zukunft aber einzelne Video-Editing- oder Compositing-Programme in Form von Video-Tutorials.
Sollte jemand einen sachlichen Fehler entdecken, bitte ich um Hinweis um diesen beseitigen zu können. Rechtschreibfehler sind so gewollt.
Wenn Ihr Fragen habt, fragt! Nutzt dafür aber bitte das Frageforum! Wir antworten und erstellen auf Anfrage auch Tutorials für einzelne Workflows oder Programme.
Ein Handhabungshinweis: Schaut euch hier gepostete Video-Tutorials bitte IMMER in HD an, auch wenn das mal eine kleine Ladezeit mit sich bringt. Wenn Ihr eine realitätsnahe Ansicht der Programme haben wollt und auch kleine Details sehen wollt (was teilweise echt wichtig ist!), geht es leider nicht anders. HD rocks!!!
Guten Tag, hi und hallo! Herzlich willkommen zu diesem nicht zu knappen Tutorial mit dem Grundthema „Video-Basics“.
Was wollen wir hier behandeln, und was nicht? Dieses erste Tutorial aus meiner AV-Basics-Reihe für Boerse.bz behandelt zunächst einmal die Basics der Basics. Sprich: Grundlagen. Was ist eigentlich der Unterschied zwischen Film und Video, was ist ein Codec, was bedeutet „Bitrate“? Einige der Fragen, die ich behandeln werde.
Wieviele i-Frames werden im MPEG-2-Kodierungsverfahren gesetzt und wieso? Diese Frage werde ich hier nicht beantworten. Jedenfalls nicht in dieser Präzision. Und hier kommen wir schon zu einem wichtigen Punkt: Ja, solche Fragen werden hier grundlegend behandelt, aber einige Infos werden stark vereinfacht um Einsteiger nicht zu überfordern. Wer tiefer einsteigen will und den Anspruch auf korrekte Infos im Detail hat, der sollte im Anschluss an dieses Tutorial den zweiten Teil - AV-Basics für Fortgeschrittene - lesen und durcharbeiten.
Eine wichtige Sache: Das ganze Tutorial enthält unglaublich viele Informationen, für die andere Leute viel Geld bezahlen. Die Community gibt jedem einzelnen Member sehr viel, weshalb ich hier auch mal etwas zurückgeben möchte. Wenn Ihr trotzdem das dringende Bedürfnis habt, meine Arbeit zu unterstützen, rate ich euch das Projekt „köln im profil“ (köln im profil) an, das ich direkt und indirekt unterstütze. Auch dieses Projekt wird der Allgemeinheit wieder viel geben und ist von daher unterstützenswert. Danke für die Hilfe an der Stelle.
Für wen ist das Tutorial, für wen nicht? Das Tutorial ist für alle, die besser verstehen wollen, was sie jeden Tag mit Ihren DVDs und den hier verfügbaren Videos machen. Wer den zweiten Teil auch noch durcharbeitet, wird schon ein brauchbares Grundwissen haben, mit welchem er selbstständig Filmmaterial halbwegs vernünftig bearbeiten kann. Wer nur einen einzelnen Workflow lernen will, kann sich an dieser Stelle ein dazu passendes Tutorial suchen oder mir eine PM schreiben, mit der Bitte ein Tut dazu zu schreiben. Aber ich verspreche euch: Wenn ihr dieses Tutorial (und die folgenden Teile) durcharbeitet, werdet Ihr nahezu jeden Alltags-Workflow (HD2DVD, DVD2Video, Video2DVD, usw.) selbstständig ausführen können, weil Ihr die Eingabemöglichkeiten und Fachbegriffe weitestgehend versteht.
Das Tutorial hat nicht den Anspruch, einen perfekten Einstieg in die Arbeitswelt als Cutter darzustellen. Ich will den Boerse-Usern (und jedem anderen, den es interessiert) Alltagssituationen erleichtern, aber zunächst nicht durch stumpfe Anleitung, sondern durch Erlernen der notwendigen Kenntnisse.
Auf ins Thema! Viel Spaß!
Einstieg
Zum Einstieg eine einfache, in der Einleitung bereits gestellte Frage: Was ist der Unterschied zwischen Film und Video?
Der Unterschied ist nicht allzu groß (immerhin zeigen beide bewegtes Bild) und doch elementar. Jeder Filmproduzent wird auf die Frage, ob er Film oder Video macht, energisch und direkt mit „Film“ antworten. Zu Grunde liegt dem ganzen (eigentlich) das Material, auf das aufgezeichnet wird. Nahezu jede größere Kinoproduktion wird momentan auf 35mm-Filmrollen aufgezeichnet (Filmrollen, auf denen jedes Einzelbild eine Diagonale von 35mm hat). Immer mehr wird digital „gefilmt“, teilweise wird direkt in ultrahochauflösend (mehr als 4000x4000 Px) digitalisiert, und das aufgenommene Material ist in diesem Moment Video, und kein Film mehr. Das ist der eigentliche technische Unterschied: Film wird auf Filmrolle aufgezeichnet, Video ist digital.
Das heisst für den normalen Boerse-User, dass ihr ausschließlich mit Videomaterial arbeitet. Wenn ihr mit Filmschaffenden oder Profis arbeitet oder sprecht, seid nicht zu sehr auf diese Begrifflichkeiten fixiert. Ein schöner Spruch, der diesbezüglich oft auftaucht: „Video zoomt, Film fährt.“ Der Filmschaffende ist sich zu schade, mit der Kamera zu zoomen (abgesehen davon dass es auch wirklich nicht gleichwertig ist), er legt Schienen und fährt zur Not mit der Kamera durch das ganze Haus um ein schönes Filmerlebnis zu haben. Es geht um Idealismen, Qualitätsanspruch und nicht zuletzt Geld. Ein schönes Beispiel hierzu ist dieser tolle Clip:
[ame=http://www.youtube.com/watch?v=lQ3D4CqHbJM]YouTube - Philips Carousel Commercial - Adam Berg Commercial of the Year Stink Digital[/ame]
Hier wurde (kein Witz) das gesamte Setting in drei Tagen gedreht und zusammengebastelt. Alle sichtbaren Personen stehen (oder hängen) in Realität in diesem Haus und werden abgefilmt, die Kamera fährt tatsächlich durch das Setting. Das Making Of lohnt sich, man sieht wies geht, aber: DAS ist Film! ;-P
Soviel an dieser Stelle zum Unterschied Video/Film, genauere Infos gibts nochmal im Fortgeschrittenen-Teil. Die Infos hier sind, wie schon gesagt, teilweise vereinfacht um besser verständlich zu sein, nagelt mich hier noch nicht auf Einzelheiten fest, es geht um Einsteiger!
Kaltstart/Definitionen
Nun wollen wir mal einige Grundlegende Definitionen erarbeiten, um in Zukunft mit Begriffen wie Datencontainer, Codec, Bitrate und ähnlichem umgehen zu können. Dies ist der Kaltstart. Ich will euch einfach mal ins kalte Wasser werfen, ihr müsst noch nicht alles verstehen.
Um das gleich vorweg zu nehmen: Die folgenden Infos sind so „basic“, dass es mir schwer fällt, sie für alle verständlich auszudrücken. Es ist durchaus möglich, dass euch einiges zu schnell geht. Sollte das der Fall sein, lest die Sachen einfach nochmal. Wenns dann immer noch nicht reicht, dann wartet einfach ein bisschen. Nach dem Einstiegskapitel fangen wir ganz klein an und dann sollte wirklich alles für jeden verständlich werden.
Ihr sollt hier einfach mal ein bisschen die Begriffe kennen lernen. Wir gehen auf die einzelnen Dinge nachher nochmal ein bisschen genauer ein, dann aber schon soweit im Detail, dass Ihr einige Begriffe zumindest mal gehört haben solltet. Viele werden euch auch schon bekannt sein.
Videoformat
Wenn Filmmaterial digitalisiert wird, müssen mehrere Entscheidungen getroffen werden. Ein Videoformat zeichnet sich für den normalen User normalerweise in erster Linie durch die Datei-Endung aus (Z.B.: .mkv, .avi, .mpg, .m4p, ...). Was genau hinter dieser Dateiendung steht ist allerdings mehr als ein Name und wird leider viel zu oft einfach mal ignoriert. Dahinter stehen all die Entscheidungen, die bei Digitalisierung oder späterer Codierung getroffen worden sind. Diese wollen wir hier grundlegend einmal durchgehen um sie demnächst bewusst zu treffen und die Ergebnisse zu verbessern.
Die Auflösung
Ein wichtiger Punkt. Jeder von euch hat schon den Begriff „Bildschirmauflösung“ gehört, die meisten werden ihre eigene kennen. Ich gehe jetzt mal von einer Standard-Auflösung aus, die momentan relativ beliebt ist: 1680x1050 Px. Was bedeutet das?
Diese Zahlen geben Auskunft darüber, wie viele Bildpunkte dargestellt werden. Das auf eurem Monitor dargestellte Bild besteht aus unglaublich vielen kleinen Punkten. Bei der genannten Auflösung sind es 1050 Reihen mit jeweils 1680 Bildpunkten, das macht 1.764.000 Bildpunkte - ganz schön viel. Die normale Standardauflösung einer DVD ist 720x576 Px, das sind also viel viel weniger. Sprich: Wenn ihr eine DVD auf einem Monitor mit obiger Auflösung (1680x1050) in der Vollbilddarstellung anschaut, wird das Bild automatisch vergrößert. Resultat: Das Bild wirkt leicht unscharf. Wenn ihr denselben Film mit einer Auflösung von 1920x1080 (FullHD), ist das Bild bedeutend schärfer.
Um das mal zu veranschaulichen: Links DVD-Qualität in Originalgröße, in der Mitte DVD-Qualität vergrößert, rechts im Vergleich dazu FullHD.
Klar ersichtlich: Ein vergrößertes Bild ist nicht so schön, wie das Bild, das nativ (= von sich aus) die Auflösung mitbringt.
Die Entscheidung, welche Auflösung gewählt wird, ist für den normalen Boerse-User nur soweit wichtig: Was möchte ich mit dem Film machen? Auf welchem Bildschirm will ich den Film nachher anschauen? Auf welches Medium will ich den Film brennen?
Das soll zum Verständnis des Begriffs „Auflösung“ zunächst reichen. Im Fortgeschrittenen-Tut gehen wir da noch mal etwas tiefer drauf ein, hier gehen wir später auch noch auf einige Details ein.
Das Seitenverhältnis
Der Name sagt eigentlich schon relativ viel. Verhältnis Breite zu Höhe. Die gängigsten Seitenverhältnisse sind 16:9, 16:10, 4:3. Diese Angaben sind sehr ungenau und tauchen vor allem in der Computer-Welt auf. Jeder Standard-Bildschirm wird entweder im Format 4:3, 16:9 oder 16:10 sein. Der Begriff „Breitbild“ fällt momentan sehr oft, hier ist meist 16:10 oder 16:9 gemeint.
Das Standard-Film-Format ist 16:9. Vergesst das direkt wieder! Ja, das Format ist momentan das, was allgemein am meisten verkauft wird (gehe in den Mediamarkt und du wirst nahezu ausschließlich 16:9-Fernseher kaufen können), aber nur, weil es die meisten Filmformate mit abdeckt (und nebenbei auch das Standard-Fernsehformat mittlerweile 16:9 ist, zunehmend ja nun auch HDTV).
Ich gehe hier davon aus, dass vor allem Kinofilme digitalisiert und nutzbar gemacht werden sollen, sprich umcodiert, auf DVD gebrannt oder möglichst sparsam (was Speicherplatz geht) verarbeitet werden sollen. Für Kinofilme gibt es keinen Format-Standard. Da reichen die Seitenverhältnisse von 16:9 bis 2,55:1 oder noch breiter. Es gibt zwar einige Standardseitenverhältnisse, aber es werden bei Bedarf auch einfach mal neue dazuerfunden um den Film wie gewünscht zu produzieren.
Der Punkt auf den ich hinaus will: Wenn ihr mit Video arbeitet, bedenkt auch das Seitenverhältnis und welches Format ihr wofür benötigt. Ein Beispiel: Ihr möchtet einen Kinofilm, der im Seitenverhältnis 19,7:10 produziert wurde, auf DVD brennen. DVD kennt aber nur 16:9 (oder 4:3, dazu kommen wir später noch), also müssen oben und unten noch schwarze Balken dazugepackt werden, um das Seitenverhältnis, welches benötigt wird, zu erreichen (hier kommt der Begriff „Letterbox“ ins Spiel, dazu auch später mehr). Gedanken, die man sich am Anfang schon machen muss, die aber auch mit unter den Begriff „Videoformat“ fallen.
Dem aufmerksamen Leser wird aufgefallen sein, dass die Standard-DVD-Auflösung von 720x576 Px nicht dem Seitenverhältnis von 16:9 entspricht. Dazu kommen wir im Fortgeschrittenen-Teil, hier sei nur soviel dazu gesagt: Es geht um Fortschritt. Das Seitenverhältnis 16:9 wurde beliebt, aber leider hatten alle 4:3-Fernseher. Also musste die vorhandene Auflösung genutzt werden um auch 16:9 darzustellen. Wer dazu mehr wissen will, kann das Fortgeschrittenen-Tutorial lesen, da wird es einige Infos dazu geben. Hier geht es wie gesagt darum Begrifflichkeiten zu erklären, jeder Einsteiger soll nachher mit den Begriffen umgehen können. Zum Verständnis reicht es, die Begriffe auseinanderhalten zu können, mehr wollen wir hier noch nicht.
Die Bitrate
Jetzt wirds interessant. Die Bitrate wird unterschätzt. Normalerweise wird sie angegeben mit KB/s. Was heißt das? Gehen wir nochmal 3 Meter zurück: Wofür stehen die Buchstaben? Das „s“ sollte klar sein, steht für Sekunden. Das „K“ steht für Kilo, wird übersetzt mit drei Nullen, die an die Zahl angehängt werden. Beispiel: 1000g sind 1Kg, das wird bei Formaten aufgegriffen. Die nächste Stufe über KB ist jedem bekannt, das sind die MBs, „MegaByte“. Eine Millionen Bytes. Zurück zu den KB/s macht das „KiloByte pro Sekunde“.
Was ist eigentlich ein Byte? Ein Byte sind 8 Bit. Was ist ein Bit? Ein Bit ist die kleinstmögliche Schalteinheit, eine binäre. Ist vergleichbar mit einem Lichtschalter: Es gibt zwei Zustände, nämlich „an“ und „aus“. „Bi“ steht für Zwei, daher Binär. 8 von diesen Bits werden zusammengefasst zu einem Byte. Das zum Verständnis, tiefer gehen wir da im Fortgeschr.-Teil rein.
Die Bitrate gibt also an, wieviel Daten pro Sekunde fließen. Um mal ein Beispiel zu geben: Wir haben einen Kinofilm in FullHD heruntergeladen. Dieser dauert genau 90 Minuten und ist 8 Gigabyte groß. Runtergerechnet sind das 8.000.000 KiloByte in 5400 Sekunden, das macht eine Bitrate von ca. 1481 KB/s.
Die Bitrate wird euch auch in KBit/s begegnen, das wären in diesem Fall 11.815 KBit/s. (1 Byte sind 8 Bit, also 8x1481)
Was man mit der Bitrate anfangen kann und wie man sie beeinflussen kann sehen wir später im Detail, hier nur die logische Schlussfolgerung: Es geht um Speicherplatz. Kleinere Bitrate = weniger Speicherplatz. Wenn ich den genannten Spielfilm mit kleinerer Bitrate codiere, kann ich viel Speicherplatz sparen. Was es dabei zu bedenken gibt, kommt später.
Die Datei-Endung
Tja, jetzt kommen wir doch noch dazu. Die Dateiendung sagt einerseits etwas aus, kann aber andererseits komplett nichtssagend, bzw. unrelevant sein. Es gilt hier eine empfindliche Unterscheidung zu treffen. Ein Beispiel: .AVI - eine recht bekannte Datei-Endung.
Hier kommt der erste Begriff ins Spiel. AVI ist ein „Datencontainer“. Was heißt das? Das kann man sich vorstellen wie eine Flasche. In jeder Flasche ist etwas drin, sonst ist sie wertlos. In der Flasche wird normalerweise ein Getränk sein. Dieses Getränk wird der Flasche ihren Wert geben und uns helfen, sie von anderen zu unterscheiden.
In einem Video-Datencontainer befindet sich im Optimalfall eine Video-Spur und mindestens eine Audio-Spur. Somit kann man etwas sehen und etwas hören. Leider sagt die Dateiendung AVI jetzt aber nicht direkt etwas über ihren Inhalt aus, da sie eine ganze Menge an verschiedenen Dingen enthalten kann. Sie gibt einige Vorgaben, aber zu wenige, um den Inhalt genau zu definieren.
Um das zurückzubringen zu den Flaschen: Allein daran, dass man eine weiße 1-Liter-Flasche hat, kann man nicht erkennen, was darin ist. Man weiß zwar, dass maximal 1 Liter drin ist, aber was genau, kann man erst durch probieren erfahren.
Die Unterschiede ergeben sich bei den Video-Datencontainer vor allem durch den verwendeten „Codec“. Auch hier direkt zum Verständnis der Vergleich zu den Getränken. Man kann das Getränk brauen, brennen, filtern, usw.. Sprich: Der Inhalt unterscheidet sich in erster Linie durch seine Entstehungsgeschichte. Es gibt eine ganze Menge an Video-Codecs die alle so ihre Stärken und Schwächen mitbringen, genauer werden wir diese später kennenlernen. Einige Beispiele: DivX, XviD, mp4, mpeg-2, usw.
Dazu kommt in den Datencontainer noch eine oder mehrere Audiospuren, die sich ebenfalls durch die Entstehungsgeschichte unterscheiden. Beispiele: AC3, MP3, WAV, AIFF, usw.
Nun gibt es nicht nur unterschiedliche Inhalte, sondern auch unterschiedliche Flaschen. So gibt es auch mehrere Video-Datencontainer. Als Beispiel sei an dieser Stelle mal neben AVI noch der momentan recht beliebte .MKV-Container genannt. Dieser ist nicht umsonst so beliebt, mehr dazu aber auch später.
Lasst euch von den vielen Begriffen nicht verwirren. Ich hoffe, dass Ihr bis hierhin einigermaßen folgen konntet. Vieles wird nachher noch sehr viel genauer erläutert, bis dahin soll das hier mal reichen.
Ich würde gerne noch viele viele Begriffe mehr erklären, aber das ist hier einfach noch nicht angebracht. Deswegen fangen wir hier einfach mal an, die Grundlagen zu erarbeiten.
Anzeige auf einem Standard-Monitor
Einleitung
Wer das Einstiegskapitel komplett gelesen hat und immer noch weiter liest darf sich nun ein wenig entspannen. Ab jetzt wird alles etwas einfacher, wir gehen auf alles haarklein ein. Ziel der ganzen Sache ist es, neben den Grundlagen auch hier und da noch ein bisschen Zusatzwissen zu „generieren“ um später nicht bei der kleinsten Unregelmäßigkeit aus dem Konzept geworfen zu werden.
Das Kapitel beschäftigt sich mit der Anzeige von Video, bzw. mit Anzeige im Generellen. Ich beschränke mich hier ausdrücklich auf den Standard-Computer mit dem Standard-LCD-Bildschirm, den mittlerweile jeder zu Hause stehen haben sollte. In einigen Punkten gibt es bei Röhrenmonitoren oder anderen „andersartigen“ Rechnern und Monitoren kleine Unterschiede zum hier Erläuterten, aber das deckt den Normalfall ab.
Wir werden in Fortgeschrittenen Teilen dazu kommen, was der Unterschied zwischen Coputerbildschirmen und Fernsehern ist, für den Moment beschränken wir uns auf Computerbildschirme. Daran lassen sich viele Dinge gut erklären, in den meisten Fällen sollten damit auch viele Bereiche alltagstauglich abgedeckt werden.
Seht diese Grundlagenkapitel bitte noch nicht zu sehr als Referenz an. Es geht darum, fundierte Grundlagen zu schaffen, die in weiteren Schritten dann zusammenhängend vieles ermöglichen. Und lasst euch von den vielen Dingen nicht abschrecken! :-)
Pixel
Pixel ist ein Begriff, den jeder schonmal gehört hat, sei es im Zusammenhang mit Fotokameras, Bildschirmen oder Videobearbeitung.
Beginnen wir mit einer kleinen Definition:
Pixel, Bildpunkt, Bildzelle oder Bildelement (selten Pel) bezeichnet sowohl die kleinste Einheit einer digitalen Rastergrafik als auch deren Darstellung auf einem Bildschirm mit Rasteransteuerung. „Pixel“ (Nominativ Singular: das Pixel; Genitiv: des Pixels; Plural: die Pixel) ist ein Kunstwort aus der Abkürzung der englischen Wörter pictures (umgangssprachlich verkürzt „pix“) und element. Es wird oft mit px abgekürzt. (Quelle: Wikipedia)
Um das ein wenig besser zu verstehen, reduzieren wir das mal auf die eigentlich wichtige Aussage: „die kleinste Einheit einer Digitalen Rastergrafik und deren Darstellung auf einem Bildschirm“.
Eine Rastergrafik ist eine Grafik, die durch ein Raster von Punkten dargestellt wird. Jedes digitale Bild, sprich: jedes Bild, was Ihr auf eurem Computer habt, wird als Rastergrafik dargestellt. Ein schönes Beispiel:
Dieses Bild besteht aus 581 Reihen mit jeweils 326 Pixeln, hat also eine Auflösung von 581x326 Px, das macht 189.406 Pixel.
Ein Pixel ist also die Grundlage der digitalen Darstellung von allem was auf einem Computer-Bildschirm dargestellt wird.
RGB
Drei Buchstaben, die unseren Alltag beherrschen. Es geht um das additive Farbsystem.
Um die Pixel mit Farbe zu füllen und das Bild entstehen zu lassen, müssen den einzelnen Pixeln einzelne Farb- und Helligkeitswerte zugeschrieben werden. Dies geschieht auf einem Standard-LCD-Bildschirm über vier „Subpixel“. Ein Pixel besteht dort also eigentlich aus 4 Pixeln. Aber Wozu?
Hier kommt der Kunstunterricht der 5. Klasse zum Einsatz. Die Buchstaben RGB stehen für Rot Grün Blau. Aus diesen drei Farben kann man jede beliebige andere Mischen - im Additiven Farbsystem. Das Prinzip ist bekannt: Mische Rot und Blau und du bekommst Violett (genauer: Magenta). Grün und Rot ergeben Gelb. Blau und Grün ergeben Türkis (man spricht im additiven Farbsystem von Cyan). Mische alle drei zusammen und du erhälst weiß.
Somit erhält man schon mal 6 Farben und Weiss. Nimmt man keine Farbe, erhält man Schwarz noch dazu. Das normale Video, was ihr so alle Tage vor euch seht, hat aber ca. 16 Mio Farben (ungefähr, genau sinds 16.777.216). Wie kommen wir dazu?
R - G - B. Jeder Farbe wird eine Skala von 0-255 zugeordnet. Das sind 256 unterschiedliche Werte (0 gehört dazu). 256x256x256= 16.777.216.
Ich möchte hier ein bisschen tiefer in die Materie gehen. Wir kommen zu einem Begriff, der euch vielleicht bei der Einstellung eures Monitors schonmal begegnet ist: Die Farbtiefe. Diese ist bei vielen Dingen 24-Bit.
Was ein Bit ist, hatten wir ja schon. Intern wird dieses Bit mit 1 oder 0 abgespeichert, daher kommt der Binärcode. Jede der Farben hat, wie gerade gelernt, 256 unterschiedliche Werte. Wenn man 8 Bit hintereinander stellt, gibt es genau 256 verschiedene Möglichkeiten, diese „einzustellen“, sprich 11111111, 11111110, 11111100, 11111000, usw.
Also hat jede Farbe eine Farbtiefe von 8-Bit. 3x8 sind 24, daher kommen die 24 Bit. Nun haben wir mit diesen 16 Mio Farben aber nur recht wenig Farben. Unser Auge unterscheidet täglich in mehr als 14 Billionen Farben. Dagegen ist der Monitor also in der Farbdarstellung sehr schwach, weshalb Bilder bis dato auch einfach nicht so aussehen wie die Realität, der Bildschirm kann sie einfach noch nicht darstellen.
Um mehr Farben darstellen zu können wird seid einigen Jahren mit einer vierten Farbe gearbeitet: Weiss. Sprich: Zu dem eigentlichen Farbwert kommt jetzt noch ein Helligkeitswert, der jede der 16 Mio Farben noch einmal in 256 Abstufungen unterteilt. Somit haben wir jetzt 32-Bit Farbtiefe und etwas über 4,2 Milliarden Farben.
Da haben wir auch unsere 4 Subpixel. Rot-Grün-Blau-HellDunkel.
Ein Standard-Pixel kann also jede beliebige Farbe annehmen und sieht in etwa so aus:
So stellt unser Monitor mit vielen Bildpunkten und vielen Farbwerten ganze Bilder dar. Wir reden hier von Monitoren, die tatsächlich 32-Bit-Farbtiefe darstellen können, aber das ist momentan auch der Standard.
Da wir hier immer noch im Einsteiger-Teil sind, beschäftigen wir uns zunächstmal nicht mehr weiter damit, was der Unterschied zwischen Subtraktivem und Additivem Farbsystem ist. Dazu kommen wir... ratet mal wo... richtig, im Fortgeschrittenen-Tutorial.
Wir wissen also jetzt, wie der Monitor ein Bild darstellen kann. Der nächste Schritt ist ja jetzt, zu wissen, was man anzeigen will und warum überhaupt. Das kommt im nächsten Schritt.
Kompression
Wir kommen zu einem weiteren wichtigen Thema, spätestens hier wird es auch für den Alltag interessant. Die Kompression. Jedes auf Boerse herunterladbare Video ist in irgendeiner Weise komprimiert. Warum ist das so?
Datenraten - Bitrates
Womit wir wieder beim Thema wären. Die liebe Bitrate. Das Thema hatten wir weiter oben schonmal angerissen, wollen hier aber nochmal etwas tiefer einsteigen.
Eine kleine Rechenaufgabe: Wie viel Daten haben wir pro Sekunde bei einem FullHD-Video?
Ich muss hier mal ein wenig vorgreifen, das kommt im Einsteiger-Teil noch nicht wirklich vor. Pro Sekunde wird ein „normales“ FullHD-Video mit 24 Bildern pro Sekunde abgespielt. Woran das liegt, sei im Moment mal einfach dahingestellt. Für den Moment soll es erstmal reichen, dass 24 Bilder pro Sekunde als Rechengrundlage dienen.
Soweit so gut. Was „Farbtiefe“ bedeutet, haben wir ja schon erlernt. Vom Standard-Video ausgehend, welches mit 24-Bit-Farbtiefe gespeichert werden soll, können wir folgende Grundlagen zusammenfassen:
Wir haben 1920x1080 Bildpunkte, das macht 2.073.600 Punkte. Jeder dieser Punkte hat eine Farbinformation, diese nimmt jeweils 24 Bit Speicherplatz ein. Das macht bis hierher schon 49.766.400 Bit für die Farbinformationen. Rechnen wir das kurz in bekannte Größen um, das sind ca. 6,02 MB (1 Byte = 8 Bit, siehe oben). Zu diesen Farbinformationen kommen jetzt noch ein paar Informationen, z.B. welcher Farbraum verwendet wird, wie groß das Bild ist, usw., wir kommen insgesamt auf etwa 6,25 MB. Wir sind beim Speicherplatz für ein unkomprimiertes Einzelbild!!! Pro Sekunde haben wir davon 24! Übersetzt heisst das: 154MB pro Sekunde unkomprimierte Video-Information in FullHD, 24-Bit, 24 fps („frames per second“, Bilder pro Sekunde).
Das Problem ist denke ich klar, Spielfilmlänge wird zu einem unüberwindbaren Hindernis. 105 Minuten Spielfilm mit denselben Eigenschaften ist damit größer als ein Terabyte. Qualitativ natürlich unschlagbar, leider kann man dann nur noch einen Film auf der Festplatte haben, abspielen können das auch nur noch die wenigsten Rechner. Hier ein kurzer Einschub: Bei einer Filmproduktion in FullHD ist das Problem allgegenwärtig. Ein Erfahrungswert: Wir haben eine Imagefilmproduktion, der Film soll 10 Minuten lang werden. Wir haben 3 Drehtage, arbeiten mit einem Chroma-Subsampling (dazu kommen wir evtl. später nochmal) von 4:4:4, haben insgesamt Video-Material von fast 300 Minuten. Um dieses zu speichern brauchen wir schon mehr als 3 TB Speicherplatz. Was das für eine längere Produktion bedeutet, liegt auf der Hand.
Videomaterial ist also, unkomprimiert, unglaublich speicherbedürftig. Der Standard-Spielfilm von Boerse.bz ist aber momentan zwischen 7 und 12 GB groß, da liegen Welten zwischen. Wo kommen diese Welten her? Hier kommen Kompressions-Algorithmen ins Spiel. Wir werden hier noch nicht genau auf alle eingehen, aber ihr sollt das Grundprinzip verstehen.
Komprimieren
Hier bedienen wir uns einer schönen Veranschaulichung, allerdings müssen wir dafür jetzt mal voraussetzen, dass Bienen ihre Farbe wechseln können. Ich hoffe, ihr verzeiht mir diesen Anflug von Surrealismus.
Wir haben als eine Gruppe von 5 Bienen, davon sind 3 rot, 2 grün.
Die Alpha-Biene möchte nun, dass alle Bienen blau werden. Sie hat mehrere Möglichkeiten. Sie könnte zum Beispiel ganz unkomprimiert zu jeder Biene hingehen und ihr sagen: „Du bist jetzt Blau!“. Sie hätte am Ende einen einwandfrei blauen Bienenschwarm, müsste dafür aber auch 5 mal was sagen.
Um jetzt Informationen zu sparen geht die Alpha-Biene nun hin und sagt: „Werdet einfach alle blau!“. Das ist eine schöne Theorie, funktioniert aber nur, weil wir bei den Bienen Intelligenz voraussetzen. Wir setzen hier voraus, dass die Bienen wissen, welche Farbe sie aktuell haben und welche Veränderung sie vornehmen müssen, um blau zu werden. Ein Pixel ist leider nicht intelligent, so müssen wir dem Pixel beide Informationen geben.
Nehmen wir ab hier mal an, Bienen hätten die Intelligenz eines Pixels. Das Alpha-Tier muss nun also in einem ersten Schritt hingehen, und jeder Biene sagen, welche Farbe sie hat. Hier hat sie wieder einmal 5 mal etwas gesagt, bis hierhin also keine Informationen gespart. Der nächste Schritt fällt dafür aber nun etwas einfacher aus. Das Alpha-Tier kann in Gruppen vorgehen. „Alle Roten werden blau“, „Alle Grünen werden blau“, fertig. Statt jeder Biene zu sagen, du bist jetzt blau, sprich 5 mal was sagen, nur noch zwei mal was sagen, schonmal mehr als 50% Einsparung.
Dieser kleine Vergleich soll nun erstmal nur dazu dienen, die folgenden Ausführungen besser zu verstehen. Wir beschreiben hier vereinfacht dem Komprimierungs-Vorgang, vertieft und technisch dann auch exakt gehen wir im Fortgeschrittenen-Teil drauf ein.
Wir haben nicht 5 Pixel, sondern (wir bleiben bei FullHD) mehr als 2 Millionen Pixel. Wir haben 24 fps, müssten also 24 Mal pro Sekunde die Farbwerte für alle 2 Millionen Punkte angeben. Ein Kompressions-Algorithmus verhält sich weitestgehend wie die Alpha-Biene. Zunächst mal werden im ersten Frame alle Farbwerte für die Pixel angegeben. Dieser Frame heißt „i-Frame“.
In den folgenden Frames („BoP-Frames“) wird jetzt nur noch Veränderung mitgeteilt. Sprich: Pixel, die sich nicht verändern, bekommen keine Information, alle anderen bekommen eine. Das an sich spart noch nicht so schrecklich viel Informationen. Das wirklich großartige ist, dass die Pixel einfach zu Gruppen zusammengefasst werden. Im Normalfall fällt das nicht auf, weil die Pixel sich innerhalb der Gruppe nicht viel tun. Objekte erstrecken sich im Bild fast immer über mehrere hundert Pixel, sodass, wenn sie sich bewegen, mehrere hundert Pixel eine ähnliche Veränderung durchmachen. Man kann sie also ohne sichtbaren Schaden am Bild, sprich Qualitätsverlust, zusammenfassen und ihnen sagen „Verändert euren Rot-Wert um 10 nach oben, den Grün-Wert um 187 und den Blau-Wert um 58 nach oben.“ Zusätzlich zur Gruppierung der Pixel werden diese Gruppen auch nochmal gruppiert (wenn möglich), um Informationen möglichst sparsam zu verpacken.
Somit wird nicht in jedem Frame die gesamte Information rausgehauen, manchmal sogar nur einmal in 2-3 Sekunden, vor allem, wenn sich nicht viel verändert. Zwischen den verschiedenen Kompressions-verfahren gibt es noch Unterschiede, aber das generelle Vorgehen ist meistens ähnlich. Meistens wird zusätzlich noch die Helligkeits-Information von der Farb-Information getrennt, sodass man dort zusätzlich nochmal Datenmengen sparen kann.
MPEG
Es gibt eine Menge von unterschiedlichen Codecs, auf die wir hier (noch) nicht eingehen werden. Später. ;-)
All diese Codecs sind aber standardisiert. Die Standards werden festgelegt von einer Gruppe von Experten, der Moving Pictures Experts Group, kurz MPEG. Wir werden nun kurz einige der von der MPEG festgelegten Standards anschauen.
h.261
Der erste jemals festgelegte Standard ist überraschenderweise kein Video-Standard, jedenfalls keiner, der für jedermann nutzbar ist. Es geht hier um Video-Telefonie über eine normale ISDN-Leitung, ist für uns also uninteressant. Wurde 1990 festgelegt.
MPEG-1
Dies ist der erste brauchbare Video-Standard, der von der MPEG festgelegt wurde. Er wurde in den 80ern entwickelt und dann 1993 eingeführt.
Ziel war es, einen Spielfilm auf die Daten-Menge und -Rate einer normalen Audio-CD zu bekommen. Das ist gelungen, das Ergebnis ist als Video-CD, kurz VCD, bekannt geworden. Technisch heute leicht veraltet, aber immer noch nicht aus dem Alltag verschwunden.
Die Codierungsform der Audiodaten ist auch im Verfahren festgelegt, ebenso wie bei MPEG-2 und späteren Standards.
MPEG-2
Die Weiterentwicklung von MPEG-1, wurde schon 1995 endgültig eingeführt. DVDs arbeiten ausschließlich mit MPEG-2, der DVD-Datencontainer „.vob“ enthält MPEG-2-kodierte Video-Daten. Der Standard enthält zudem das gleichzeitig festgelegte „h.262“.
Eigentlich sollte für HDTV ein neuer Standard entwickelt werden, MPEG-3. Letztlich hat es diesen MPEG-3-Standard nie gegeben, es wurde lediglich MPEG-2 weiterentwickelt. Neben digitalem TV (DVB-T) arbeitet also auch HDTV mit MPEG-2.
MPEG-4
Die erste Version kam 1998 raus, mittlerweile sind wir bei Version 3 von 2001. Ist gegenüber MPEG-2 mit wesentlich höheren Datenraten gesegnet und kann wesentlich stärker komprimieren, sprich wesentlich mehr Speicherplatz sparen.
Das soll für den Moment reichen. Eine wichtige Information dazu noch: H.264 ist die offizielle Bezeichnung für MPEG-4 Teil 10, wie es offiziell heisst. H.264 ist also kein eigener Codec, sondern eigentlich viel mehr, nämlich ein Teil des MPEG-4-Standards. Das wird oft fehlgedeutet, auch wenn es meistens egal ist.
Es gibt neben diesen 3 wichtigen auch noch eine Menge anderer von der MPEG festgelegten Standards, diese sind aber für den Video-Bereich meist uninteressant und für uns mal sowieso. ;-)
Codecs und Container
Codecs und Container sind ein sehr weitreichendes Thema. In seiner Gänze ist es glaube ich hier im Moment nicht zu erschöpfen. Ich möchte euch aber ein grundsätzliches Verständnis der Dinge vermitteln und einige Codecs und Container vorstellen.
Ziel der Geschichte ist, wie im gesamten AV-Basics-Bereich, euch den Alltag zu erleichtern. Im Fortgeschrittenen-Teil gehen wir auf viele Dinge vertieft ein, gerade auch auf technische Einzelheiten, hier will ich mich in erster Linie aufs Grundverständnis konzentrieren.
Grundsätzliches
Eine wichtige Unterscheidung in diesem Thema ist zwischen MPEG-2 und MPEG-4 zu machen. Wie wir ja wissen, sind das zwei unterschiedliche Kompressions-Standards. Diese Standards haben nicht nur die Funktion der Standardisierung, sprich: eine gemeinsame Arbeitsbasis schaffen, sondern sind auch Grundlage für viel weitreichendere Entscheidungen.
Jeden Tag werden in Deutschland mehrere hunderttausend DVDs ausgeliehen. In 98 % der Fälle wissen die ausleihenden Personen nicht, wie die Daten auf der Scheibe codiert sind, was der DVD-Player damit tut und wie die Daten aus dem DVD-Player in das TV-Gerät kommen. Interessanterweise interessiert es die meisten auch nicht.
Mal angenommen, man hätte keinen Standard für die Codierung einer DVD. Man müsste, nachdem man die DVD ausgeliehen hat, am DVD-Player, der natürlich mit der ausgeliehenen DVD kompatibel sein müsste, erstmal einstellen, welche Kompression verwendet wurde, welcher Codec, welcher Farbraum verwendet werden soll, und so weiter und so fort. Es geht also auch darum, die mediale Unterhaltung massentauglich und somit vermarktbar zu machen. Jede Video-DVD (erkennbar am Video-DVD-Logo) drauf ist, muss eine ganz genau definierte Datenstruktur haben. Diese enthält unter anderem MPEG-2 codierte Video-Daten in einem speziellen Datencontainer.
MPEG-4 kommt unter anderem bei Blu-Ray-Discs zum Einsatz, hat auch noch andere fixe Verwendungszwecke, aber dazu im nächsten Abschnitt mehr. Hier soll es erstmal um die Codecs und Container an sich geht.
Codecs
Einleitung
Es gibt eine Menge Codecs. Viele sind nicht MPEG-2 oder MPEG-4 konform, entsprechen also nicht diesen Standards, haben dafür aber ganz tolle Vorteile oder sonstwas. Auf diese Codecs möchte ich hier nur sehr kurz eingehen. Wer mehr über einen bestimmten Codec wissen möchte, kann sich gerne selber Informieren, meistens sind die Herstellerseiten sehr informativ.
Die meisten Codecs sind mir für den Moment zu unwichtig. Ich werde später noch auf FLV eingehen, was aber schon ein Container ist, daher später mehr.
Beginnen wir etwas grundlegender. Was ist ein Codec? Die allgemeine Definition von Codec ist: Kompressor. Viele Codecs nutzen jedoch die vorhanden MPEG-Algorithmen und Standards, sodass wir die Definition leicht abändern müssen, um sie wahrheitsgetreu zu behandeln. Das Wort „Codec“ kommt nicht umsonst vom englischen „code“. Es gibt Encoder und Decoder. Der Codec ist beides. Ein Video wird mit einem Codec komprimiert und bereitgestellt. Wenn dieser Codec bei euch nicht installiert ist, kann dieses Video dann nicht wiedergegeben werden. Das Problem tritt in Zeiten von allumfassenden Playern wie dem VLC-Player oder dem M-Player nur selten auf, aber wer diese Player nicht hat, kennt die Probleme. Der passende Decoder fehlt also in manchen Fällen.
Man kann sich den Codec in etwa vorstellen wie einen Übersetzer. Ein Freund möchte euch einen Text zur Verfügung stellen. Leider ist der Text 100.000 Seiten lang. Das ist euch viel zu viel, deshalb übersetzt euer Freund den Text in eine Kurzsprache, die mit 150 Seiten auskommt. Wenn ihr nun diesen Text lesen wollt (immerhin enthält er 100.000 Seiten tolle Information!!! ) benötigt ihr einen Übersetzer, der das auch wieder zurückübersetzen kann.
Der Codec übernimmt jeweils die Übersetzerfunktion. Einmal beim encoden und dann beim abspielen (=decoden).
MPEG-2
MPEG-2 ist der Standard für Video-DVDs. Wie genau eine Video-DVD aufgebaut ist, das kommt erst im nächsten Abschnitt, aber wir wollen doch nochmal einen schnellen Blick auf MPEG-2 werfen.
Es gibt einige Codecs, die mit MPEG-2 arbeiten. Der wichtigste sei hier auch namentlich genannt: FFmpeg MPEG-2. Dieser Codec steckt unter sehr vielen Hauben im Bereich der DVD-Authoring Programme. FFmpeg ist mehr als nur ein Codec. Diese Information soll hier reichen, mehr Infos auch unter FFmpeg.
Die wichtige Info ist aber, dass viele Programme damit arbeiten. Das oben beschriebene Kompressionsverfahren entspricht weitestgehend dem MPEG-2 Verfahren. Das Verfahren ist schon sehr mächtig, wenn auch nicht ganz so toll wie MPEG-4. Es werden Unmengen an Daten gespart, die anders gar nicht auf eine DVD zu bekommen wären.
Über MPEG-2 gibt es für den Moment noch nicht einmal so viel zu berichten, die heute verbreiteten Codecs sind fast alle MPEG-4-konform oder basieren komplett auf MPEG-4. Deswegen:
MPEG-4
Hier kommen schon mehr bekannte Abkürzungen auf den Bildschirm: DivX, Xvid, H264. Jeder Boersianer wird die drei Abkürzungen regelmäßig sehen. Fangen wir vorne an.
DivX. Die Geschichte des DivX sei nur kurz umrissen. Microsoft hatte einen eigenen MPEG-4-Codec entwickelt der in den damaligen Windows-Media-Player implementiert wurde. Leider gab es findige Hacker, die diesen Codec schon in einer Beta-Version gehackt haben und unter dem Projektnamen „Mayo“ selber veröffentlichten. Daraus wurde sehr schnell eine Firma namens DivXNetworks Inc., später DivX Inc. Der Name ist wohl eine Anspielung an einen amerikanischen DVD-Verleih der nur sehr kurz existierte, den „Digital Video Express“.
Das MPEG-4-Verfahren ist um ein Vielfaches besser als das MPEG-2-Verfahren. Das hat viele Gründe, einige davon werden wir im Fortgeschrittenen-Teil mal „anfassen“. Wichtige Grundinfo: MPEG-4 ist besser, weil sparsamer.
Ab der Version 4 war der DivX-Codec dann vollständig MPEG-4-konform. Das hat in erster Linie den Vorteil, dass es weitreichend verwendbar ist. Leider haben die Macher sich dann irgendwann überlegt, dass sie mit DivX auch Geld verdienen könnten (das hat sich später relativiert, jetzt ist es weitestgehend wieder kostenlos) und haben eine Art Lizenzgebühr eingeführt. Viele wollten den Schritt nicht mitgehen und haben eine eigene Anpassung geschaffen, die weiterhin OpenSource sein sollte. Heute allgemein bekannt als XviD.
XviD ist DivX nicht nur vom Namen her sehr ähnlich, sondern auch vom Inhalt. Der Kompressionsvorgang ist insgesamt sehr ähnlich, auch der zu erreichende Effekt, sprich: die zu erreichende Platzeinsparung.
2003 kam dann der momentan beste Standard raus: h264. Wie schon gelernt handelt es sich um ein Verfahren, das als 10. Teil der MPEG-4-Standardisierung bekannt gegeben wurde. Entwickelt wurde es nicht vollständig von der MPEG, sondern zunächst mal von der VCEG (Video Coding Experts Group) als h.26L.
H264 ist nicht nur der neueste MPEG-4-Codec, sondern auch der beste. Er unterscheidet sich grundlegend von ganz vielen anderen Standards und Codecs: Er wurde nicht entwickelt, um einen speziellen Zweck zu erfüllen. MPEG-1 wurde entwickelt, um einen Spielfilm auf eine normale Audio-CD zu bekommen. MPEG-2 wurde entwickelt, um auf die Größe und Datenrate einer DVD zu kommen. MPEG-4 wurde ursprünglich entwickelt, um BluRay und zu bearbeiten. H264 wurde entwickelt um gut zu sein. Das reichte auch erstmal.
Im Moment findet es bei HDTV 1080 starken Anklang (Übertragung über DVB-S2), ebenso bei PortableVideo-Lösungen, sprich iPhone und Handy-Videos, u.ä.
Der Unterschied zwischen MPEG-2 und MPEG-4 ist gravierend, lässt sich aber einigermaßen verständlich auf ein Key-Feature reduzieren. Es wird nicht mehr in Quadraten zusammengefasst, sondern diagonal. Das hat den großen Vorteil, dass es nicht mehr so schnell zu Blöckchenbildung kommt. Wenn wir nochmal schnell zurückdenken in den Kompressionsbereich: Die Farb- und Helligkeits-Informationen werden getrennt und in Gruppen zusammengefasst. Wenn ich nun einem ganzen Quadrat (bei MPEG-2 sind es normalerweise 8x8 Pixel, also Quadrate mit je 64 Pixeln) dieselbe Veränderung gebe, kann es sein, dass das Kästchen als solches zu erkennen ist, wie es bei schlechter Codierung auch oft auftritt.
Hier ein kleiner Einwurf: Durch die Bitrate wird oft auch definiert, wie groß diese Pixelgruppen sind. Höhere Bitrate heisst also: Kleinere Gruppen, mehr i-Frames, dadurch weniger Artefakte, aber auch mehr Daten.
Wenn wir keine Quadrate zusammenfassen, sondern diagonale Linien, entstehen unter Umständen kleine „Striemen“ von einem Pixel Breite, diese sind aber viel schwerer sichtbar als Quadrate. Das hört sich simpel an, ist aber ganz elementar und, wie ich finde, genial.
Container
Was ist ein Container?
Was ein Container ist, haben wir ja weiter oben schonmal angerissen. In den meisten Fällen wird euch ein Video in Form eines Datencontainers begegnen. Die bekanntesten sind wohl AVI, MKV und MOV. Oftmals sind sie schon an der Dateiendung zu erkennen.
Container dienen dazu, Audio- und Video-Daten zu vereinen und nutzbar zu machen. Sie definieren nicht den Inhalt sondern lediglich die Struktur. Man kann sich das etwas besser vorstellen, wenn man an diese schönen IKEA-Bilderrahmen denkt. Ich meine die mit Platz für mehrere Bilder. Es wird festgelegt: „In diesen Bilderrahmen passen 5 Bilder die genau folgende Eigenschaften haben müssen: Höhe x Breite.
Genauso verhält sich ein Datencontainer. „In diesen Datencontainer passen eine Video-Spur und 2 Audiospuren.“ So in etwa müsste sich ein Datencontainer äußern.
Die verschiedenen Datencontainer haben unterschiedliche Eigenschaften und Kapazitäten. Allen gemein ist ihre Grundstruktur. Es gibt immer einen Datei-Header. Dieser enthält Informationen über die Dateigröße, den Inhalt und ist dafür da, die gesamte Datei anzusteuern und im Video-Player zu „etablieren“.
Datencontainer können unterschiedlichste Daten beinhalten. Wenn wir mal kurz an nicht film-spezifische Datencontainer denken können sie theoretisch sogar jede Art von Daten enthalten. Ein recht bekannter und verbreiteter Datencontainer ist das PDF-Format. Ein PDF-Dokument enthält immer einen Datei-Header. Im Normalfall kommen Text, Vektor- und Pixelgrafiken und ne Menge anderer Daten wie Video- oder Audio-Daten vor, denkbar wären aber auch andere Inhalte.
Ein Video-Datencontainer ist da natürlich viel spezialisierter. Es geht darum, dem Zuschauer Video- und Audio-Daten in möglichst hoher Qualität zu zeigen, dabei möglichst platzsparend zu arbeiten und gleichzeitig möglichst alle gängigen Formate zu unterstützen. Deswegen ist die Grundstruktur bei allen gängigen Containern: Videodaten, Audiodaten, evtl. Untertitel.
Die wichtigsten Container und ihre Eigenschaften
AVI
AVI ist ein etwas älterer Container. Es ist quasi der Urvater der modernen Datencontainer und immer noch weit verbreitet. AVI steht für „Audio Video Interleave“, heisst soviel wie „Verzahntes Audio- und Video-Material“. Der Container wurde von Windows erfunden um kurze Clips abspielen zu können.
Mittlerweile sind wir bei AVI 2.0 - und das ist auch gut so. Es werden recht viele Video- und Audio-Formate unterstützt, alle gängigen Multimedia-Player, Festplatten-Recorder, BD-Player etc unterstützen AVI, somit ist das Format eigentlich der Standard. Ein großer Nachteil von AVI: Es wurde nicht für komprimierte Video-Daten geschaffen. Von Anfang an war es nicht eingeplant, von BOP-Frames auf frühere Frames zu referenzieren. Das heißt, eine Kompression wie oben beschrieben ist eigentlich gar nicht möglich.
Es gab einige Hacks und Anpassungen, die jetzt die Nutzung von DivX in den aktuellen AVI-Containern ermöglichen. Im Normalfall werden in eine AVI-Datei keine Untertitel eingebaut (die Unterstützung ist da auch nur rudimentär eingebaut, eigentlich nicht wirklich brauchbar), sondern nur eine Video- und eine Audio-Spur (Mehrere Spuren, aber eine Sprache). Wenn man mehr will nimmt man im Moment eigentlich immer MKV.
MKV
MKV ist ein Open-Source-Projekt, mit vollem Namen „Matroska“, vom russischen Matruschka. Die Dateiendung steht für MatrosKaVideo, genauso gibt es eine reine Audio-Form des Containers (.mka). Matroska hat viele Vorteile gegenüber AVI. Zunächst mal ist der Container einfach viel moderner, sprich näher an unseren heutigen Bedürfnissen und Möglichkeiten.
Matroska unterstützt alle gängigen Codecs und Formate, mehrere Audio-Spuren und Sprachen, Untertitelspuren und sogar Menüs. Die Menüs werden noch wenig verwendet, es ist aber durchaus denkbar, dass das in Zukunft viel mehr kommt.
Zudem kann MKV auch als Streaming-Format eingesetzt werden. Das ist ein Feature was sehr zukunftsträchtig ist, da denken Leute voraus.
MOV
MOV ist ein Format von Apple. Die zugrunde liegende Technilogie ist Quicktime. Das Format ist höchst leistungsfähig und trotzdem recht wenig verbreitet. Mittels Quicktime können sogar Multimedia-Präsentationen à la Powerpoint realisiert werden, zudem werden fast alle Video- und Audio-Codecs unterstützt. Auf dem Mac ist dieses Format die Arbeitsgrundlage für fast alles, sobald man auf einen Windows-Rechner geht, bekommt man Probleme.
So toll das Format auch sein mag, es benötigt den Quicktime-Player, der natürlich nur von Apple kommt. Mal wieder die alte Monopolisierungs-Politik von Apple, mit der die Open-Source-Community wenig anfangen kann. Das Format verbreitet sich nicht, obwohl es seit Jahren immer wieder weiterentwickelt wird und mit Matroska auf jeden Fall mithalten kann.
FLV
FlashVideo. Dieser Container wird von euch nur seltenst verwendet werden, allerdings begegnet er euch jeden Tag wahrscheinlich mehrfach. Der Adobe Flash-Player ist mittlerweile auf 98% aller Rechner installiert, das machen sich viele Webseitenbetreiber zu nutze.
Der Flash-Player unterstützt leider keine Videoformate, wie wir sie gerade kennengelernt haben. Er wurde erfunden, um sowohl „normale“ Flash-Animationen wie kleine Werbebanner o.ä. als auch Action-Script-Dateien ausführen zu können. Als der Player sich dann immer mehr verbreitete hat man einen eigenen Datencontainer für die Video-Wiedergabe im Flash-Player erfunden, der FlashVideo-Container, kurz FLV.
Er beinhaltet mittlerweile fast immer MPEG-4 Daten (h.264-konform), und kommt immer häufiger zum Einsatz. Er begegnet euch wie gesagt jeden Tag wahrscheinlich mehrfach, fast überall dort, wo ihr im Internet eine Video-Werbung oder einen Webclip anschaut.
Um dieses Einsteiger Tutorial abzuschließen, wollen wir uns noch mit einem letzten Thema beschäftigen, und zwar:
Datenträger
Um das Einsteiger-Tutorial abzuschließen, wollen wir noch kurz auf Datenträger und ihre Eigenschaften und Eigenheiten eingehen. Die wichtigsten Datenträger sind momentan sicherlich DVDs und Blu-Ray (man beachte die korrekte Schreibweise, es heisst NICHT „Blue-Ray“!!!). Aber alle modernen Datenträger haben Ihre Grundlage in der CD, bzw ursprünglich in der Laserdisc.
Technologie
Das Grundlage aller modernen Datenträger ist die Laser-Abtastung. Die Laser-Abtastung wurde in den späten 60ern entwickelt und „gipfelte“ in der ersten halbwegs spruchreifen Form von Speichermedium mit Laser-Abtastung, die DV (DiscoVision). Weil das nicht wirklich gut funktionierte (anfällige Reflexions-Schicht) wurde sie weiterentwickelt zur LaserVision, später zur CD (CompactDisc).
Wie immer mussten Standards her, die definieren, wie eine CD aufgebaut sein muss, um z.B. das CD-Rom-Logo tragen zu dürfen. Diese Standards sind definiert in den Rainbow-Books.
Da die CD schon wieder fast out ist will ich hier nicht groß drauf eingehen, es gibt aber sehr gute Informationsquellen. Generell will ich Wikipedia nicht als Informationsstandard propagieren, aber der Artikel zu den Rainbow-Books [ame]http://de.wikipedia.org/wiki/Rainbow_Books[/ame] ist gut aufgebaut und sehr informativ.
DVD
Die DVD (DigitalVersatileDisc) ist ein Produkt was aus der Not entstanden ist. Im Normalfall sind immer mehrere Hersteller daran beteiligt solche Datenträger zu entwickeln, in erster Linie natürlich um Geld zu gewinnen (wie jetzt bei der Blu-Ray). Bei der DVD waren das Sony und Philips, die die Multimedia-CD rausbringen wollten, auf der anderen Seite Toshiba und Time Warner die die SuperDensity-CD. Auf Druck der Filmbranche haben sich letztlich alle Parteien zusammen getan und die DVD entwickelt, die zunächst unter dem Namen VideoDisc geführt wurde.
Wie die DVD sich weiterentwickelt und verbreitet hat ist hinlänglich bekannt, deswegen gehen wir kurz noch auf die Technik ein. Es gibt mittlerweile sehr viele verschiedene DVD-Formate, die sich in erster Linie durch ihre Speicherkapazität unterscheiden. Die normale 1-Layer-DVD hat eine Kapazität von 4,7 GB. Es gibt Adaptionen mit einem Layer auf jeder Seite, zwei Layern auf einer Seite oder gar auf beiden Seiten, usw., es gibt sogar eine Kombination von DVD und CD (dieses Speichermedium ist nicht normgerecht weil zu dick), nennt sich DVD+.
Es gibt auch hier sowas ähnliches wie die Rainbow-Books, sprich es gibt definierte Standards. Diese haben Gemeinsamkeiten und Unterschiede, allen gemein ist zum Beispiel die äußere Erscheinung der DVD. Sie ist 1,2mm dick, 120mm Durchmesser und besteht aus einer Lead-In-Area (16mm breit), einer Data-Area (36mm) und einer Lead-Out-Area (2mm). Beschrieben wird jede DVD in Binärcode, sprich mit Einsen und Nullen. Ab da unterscheiden sich die Datenträger.
Es gibt Audio-DVDs (und tatsächlich braucht man dafür einen speziellen Player), Daten-DVDs und Video-DVDs (und noch ein paar andere, aber das reicht erstmal). Für uns ist erstmal die Video-DVD wichtig, deswegen noch ein paar schnelle Informationen dazu. Auf einer Video-DVD sitzen im Normalfall MPEG-2-kodierte Videodateien mit Audiodateien (normalerweise AC3) in .VOB-Container-Dateien. Die maximale Bitrate liegt bei knapp 10 MB/s für Audio und Video, im Normalfall wird Video mit ca. 6-8MB/s aufgespielt. Das heisst aber auch, dass ein ganzer Spielfilm plus Bonus-Material nicht auf eine DVD passen. Deswegen kommen hier im Normalfall DVD9 zum Einsatz (2-Layer-DVDs, 8,5GB). Dieses plus an Speicherplatz kommt der Qualität aber nicht zu Gute, weil die maximale Datenrate sich dadurch nicht erhöht.
Eine kurze Information noch am Rande: Wahrscheinlich begegnet euch oft die Maximale Datenmenge von 4,37 GB. Auf eine DVD passen insgesamt zwar 4,7GB, aber die Lead-In- und Lead-Out-Areas nehmen natürlich auch noch Platz ein, sodass letztlich „nur“ 4,37GB auf eine DVD zu brennen sind.
Blu-Ray
Diese 4,37GB sind zu wenig. Der stark komprimierte FullHD-Film hat im Schnitt ungefähr 8GB Daten, in besserer Qualität sind das (MPEG-4) 20GB oder mehr. Deswegen musste die Blu-Ray her.
Eine neue Disc mit mehr Speicherplatz wird benötigt, lasst uns eine entwickeln. Und wenn wir schon dabei sind, lasst uns viel Geld damit verdienen. Während der Entwicklungsphase gab es hauptsächlich drei Bewerber um die Nachfolge der DVD, nämlich die HD DVD, die VMD und die Blu-Ray. Am Ende stritten nur noch HD DVD und Blu-Ray, heute nur noch Blu-Ray.
Die Blu-Ray wurde entwickelt von der Blu-Ray-Group, die heute aus einem Konsortium von Firmen-Vertretern besteht. Beteiligt sind Acer, Apple, Dell, Panasonic, Philips, Pioneer, Hitachi, LG Electronics, Samsung, Sharp, Sony, und Thomson. Der Hauptgewinner der ganzen Angelegenheit ist aber Sony.
Warum ist eine Blu-Ray so viel teurer als eine DVD und warum gibt es nur große Spielfilme auf BD und keine kleinen Dokumentationen? Geld! Sony verdient viel Geld an der BD. Die Lizenzgebühren sind vor kurzem ein ganzes Stück gekürzt worden, sind aber immer noch hoch genug. Um überhaupt eine Blu-Ray vermarkten zu dürfen fielen bis vor kurzem erstmal 2000€ an, um diese Disc zu brennen. Dazu kommen noch Lizenzgebühren für den Namen und das Logo und ein paar andere Gebühren, zudem die Produktion der Discs, die auch noch einmal teurer ist als DVD. Bis 2008 war die Marktabdeckung an BD-Playern bei weniger als 7% (DVD liegt bei fast 96%), sodass der Doku-Produzent mit nem Kapital von 60.000€ für den gesamten Produktionsabschluss (Pressung, Verpackung, Marketing) sich fünf mal überlegt, ob er 5000€ dafür zahlen will, eine BD brennen zu dürfen, unabhängig davon, wie viele er davon nachher verkauft.
Kurze Überlegung hinterher: Wie hoch muss die Auflage sein, um die Lizenzgebühren wieder reinzubringen??? Da müssen schon mindestens 500 Stk verkauft werden, um die Gebühren zu rechtfertigen. Wenn man jetzt die Marktabdeckung von Playern dagegenhält erklärt sich von selbst, warum sich das nicht wirklich verbreitet. So langsam kommt Sony da ein bisschen nach und die Lizenzgebühren wurden umstrukturiert und ein wenig verringert (jetzt noch ca. 2000€ Gesamtgebühren für einen einzelnen Film, bei vielen Produktionen weniger), aber immer noch dauert das an, sodass noch nicht klar ist, ob die BD jemals wirklich durchstarten wird (zumal der Nachfolger mit bis zu 10TB (auf einer Disc!!!!) schon in der Entwicklung ist).
Es gibt noch ganz viel, was man zu diesen Datenträger-Formaten erzählen kann, aber das soll für den Moment reichen. Ich hoffe, Ihr konntet etwas aus diesem kleinen Tutorial mitnehmen und freue mich auf Fortsetzungen.
Herzlich Willkommen bei der Videotutorial-Reihe zu After Effects. Die Reihe wird in den kommenden Tagen und Wochen aufgebaut und ist gerade erst am Anfang, aber immerhin: Der erste Teil steht schon! :-) Viel Spaß damit!
Sollte Fullscreen hier nicht funktionieren, klickt ins Bild und Ihr kommt zu Youtube, wo das dann auch funktioniert.