vorheriges KapitelInhaltsverzeichnisIndexInfoseitenächstes Kapitel


Einführung in digitalen Sound

Gebräuchliche Soundformate

Sounddateien beschaffen

Sound-Sampling

Konvertieren von Sounddateien

Audio im Web

Einführung in digitales Video

Filmformate

Filmkomprimierung

Codec-Formate

Videos digitalisieren

Video bekommen, erstellen und konvertieren

Video im Web

Weitere Informationen

Zusammenfassung

Fragen und Antworten



Tag 5


Kapitel 10 - Sound- und Videodateien

Nach einem Nachmittag im Web haben Sie vielleicht eine Seite mit einer langen Liste von Filmbeispielen, die Sie sich herunterladen können. Nett, denken Sie sich. Das Problem dabei ist jedoch, daß neben den einzelnen Datei-Namen eine Beschreibung steht, die irgendwie so aussieht:


,Luther's Banana' ist eine 1.2 Megabyte AVI-Datei mit CinePac-Codec und einem 8-bit 22Khz Zwei-Kanal Audiotrack.


Wenn Sie das verstehen, brauchen Sie dieses Kapitel nicht durchzuarbeiten. Wenn Sie dagegen an Informationen über Sound und Video interessiert sind und wie sie im Web verwendet werden oder wenn Sie festgestellt haben, daß Sie nichts von diesen seltsamen Wörtern und Zahlen verstanden haben, dann lesen Sie weiter.


In diesem Kapitel sprechen wir über digitales Audio und Video: die Grundlagen, die gebräuchlichsten Dateiformate im Web und in der Industrie sowie Tips, wie Sie Sound und Video auf Ihren Computer bringen und in Ihren Webseiten verwenden können. Unter anderem lernen Sie in diesem Kapitel die folgenden Dinge:



Einführung in digitalen Sound

Wollen Sie wissen, wie Sound auf dem Computer funktioniert? Wollen Sie eigene Audio-Clips für das Web erzeugen (sei es Musik, Stimme, Soundeffekte oder seltsame Töne)? Dann sind Sie hier richtig. Im ersten Teil dieses Kapitels lernen Sie, was digitales Audio ist und welche Formate im Web verwendet werden. Außerdem erhalten Sie einen schnellen Überblick, wie Sie den Sound in Ihren Computer bekommen, so daß Sie ihn im Web einsetzen können.



Schallwellen

Vielleicht erinnern Sie sich aus Ihrem Physikunterricht an die grundsätzliche Definition von Schall: Er entsteht durch Störungen in der Luft, die Wellen erzeugen. Diese Druckwellen nimmt das menschliche Ohr als Schall wahr. In ihrer einfachsten Form sieht eine Schallwelle wie in Abbildung 10.1 dargestellt aus.


siehe Abbildung

Abbildung 10.1:
Eine einfache Schallwelle

Zu dieser elementaren Schallwelle gibt es zwei wichtige Informationen. Erstens, sie hat eine Amplitude, das ist der Abstand zwischen der X-Achse (Ruhe) und der Spitze oder dem Tal der Welle. Je höher die Amplitude, desto lauter der Ton.


Außerdem hat sie eine Frequenz, das ist die Geschwindigkeit, in der sich die Welle fortbewegt (genauer gesagt, die Anzahl der Wellen, die in einem bestimmten Zeitintervall einen bestimmten Punkt durchlaufen). Hohe Frequenzen (d.h. Wellen, die sich schneller durch diesen Punkt bewegen) erzeugen hohe Töne und umgekehrt.


Echte Töne mit vielen verschiedenen, komplexen Wellenformen, die einen Ton so erzeugen, wie Sie ihn hören, sind sehr viel komplizierter zu erklären. Bei der Kombination vieler Schallwellen und den unterschiedlichen Beschreibungen gibt es viele neue Begriffe und Konzepte, die ich hier definieren könnte. Aber die Frequenz und die Amplitude sind die beiden wichtigsten Begriffe, die auch im nächsten Abschnitt wieder auftauchen werden.



Umwandlung von Schallwellen in digitale Samples

Eine analoge Schallwelle (etwa die, die Sie in Abbildung 10.1 gesehen haben) ist eine fortlaufende Linie mit einer unendlichen Anzahl von Amplitudenwerten. Um sie in ein digitales Signal umzuwandeln, mißt Ihr Computer zu bestimmten Zeitpunkten die Amplitude der Welle. Die einzelnen Messungen nennt man Samples, deshalb spricht man beim Konvertieren von analogem Schall in digitales Audio auch vom Sampeln. Abbildung 10.2 zeigt, wie die Werte entlang der Welle gesampelt werden.


siehe Abbildung

Abbildung 10.2:
Sampeln einer Schallwelle

Je mehr Samples Sie erzeugen, desto mehr Amplitudenwerte liegen Ihnen vor und desto genauer können Sie die ursprüngliche Schallwelle nachbilden. Da die Originalwelle jedoch eine unendliche Anzahl von Werten aufweist, können Sie sie niemals exakt kopieren. Mit sehr hohen Sampling-Raten erzeugen Sie jedoch eine so gute Darstellung der Welle, daß das menschliche Ohr den Unterschied nicht erkennen kann.


Die Anzahl der Samples pro Sekunden nennt man auch die Sampling-Rate. In der Regel wird sie in Kilohertz (kHz) gemessen. Heute werden verschiedene Sampling-Raten eingesetzt, die gebräuchlichsten sind jedoch 11, 22 und 44 kHz.


Diese Zahlen wurden der Einfachheit halber gerundet. Es handelt sich eigentlich um 11,025, 22,050 und 44,1 kHz.

Neben der Sampling-Rate gibt es auch eine Sampling-Größe, manchmal auch Sampling-Auflösung genannt. Im allgemeinen wählt man zwischen zwei Sampling-Auflösungen: 8 Bit oder 16 Bit. Sie können sich die Sampling-Auflösung auch als die Inkrementschritte (Zuwachsschritte) zwischen dem Tal und der Welle vorstellen. Die Werte ändern sich dabei nicht, aber 16-Bit-Inkremente sind kleiner und bieten deshalb mehr Details als 8-Bit-Inkremente (siehe Abbildung 10.3). Das ist dem Prinzip, wie sich 8- im Vergleich zu 16- oder 24-Bit-Farbe verhält, sehr ähnlich. Mit einer höheren Farbauflösung erhält man ein viel breiteres Farbspektrum, aber im Prinzip erfolgt immer eine Annäherung an dieselbe Farbe.


siehe Abbildung

Abbildung 10.3:
Sampling-
Auflösung

Die Sampling-Rate ist die Anzahl der Sound-Samples, die pro Sekunde genommen werden; sie wird in kHz gemessen. Die Sampling-Auflösung beträgt normalerweise 8 oder 16 Bit; 16 Bit liefert feinere »Sounddetails«.

Bei einem Sampling wird der gemessene Amplitudenwert zum nächsten Inkrement gerundet (man sagt auch quantisiert). Bei einem 16-Bit-Sample liegen Sie dabei näher am Originalwert als bei einem 8-Bit-Sample, weil die Inkrementschritte kleiner sind (siehe Abbildung 10.4).


Die Differenz zwischen dem tatsächlichen Amplitudenwert und dem gerundeten Wert nennt man auch den Quantisierungsfehler (noch mehr Fachchinesisch). Viele Quantisierungsfehler ergeben ein Rauschen in der aufgezeichneten Sounddatei.


All das drückt auf komplizierte Weise aus, daß 16 Bit besser sind als 8 Bit. (Warum ich das nicht gleich gesagt habe? Weil Sie jetzt wissen, warum es besser ist.) Die Gesamtqualität einer digitalen Audioaufzeichnung hat sowohl mit ihrer Sampling-Auflösung als auch mit der Sampling-Rate zu tun. Weil das menschliche Ohr jedoch Quantisierungsfehler in einer geringen Sampling-Auflösung schneller erkennt, ist es immer besser, 16 Bit zu verwenden.


Wenn Sie 8 Bit verwenden, sollten Sie die höchstmögliche Sampling-Auflösung einsetzen, um die Fehler zu verringern.


siehe Abbildung

Abbildung 10.4:
Aufzeichnung eines
Samples

Sound kann auf mehreren Kanälen aufgezeichnet werden, so daß Stereoeffekte entstehen. Ein Kanal ist Mono, zwei Kanäle sind Stereo, vier Kanäle sind Quadro usw., so wie Sie es von Ihrer Musikanlage her kennen.


Je höher Sampling-Rate und -Auflösung sind und je mehr Kanäle verwendet werden, desto besser ist die Qualität des resultierenden Sounds. Ein 8-Bit-Sound-Sample mit 8 kHz entspricht etwa der Qualität, die Sie über das Telefon empfangen, während 16-Bit-Stereo mit 44 kHz CD-Qualität bringt. Leider bedeuten bessere Soundqualitäten gleichzeitig größere Dateien. Eine Minute Musik bei 22 kHz mit 8-Bit-Sample-Auflösung belegt auf Ihrer Platte 1,25 Mbyte, während eine Minute Musik in CD-Qualität (16 Bit, 44 kHz) Sie 10 Mbyte kostet. Stereo ist natürlich doppelt so umfangreich wie Mono.


Was ist mit der Komprimierung? Wenn diese Dateien so viel Platz belegen, warum geht man nicht vor wie die Leute aus der Bildverarbeitung und erstellt Komprimierungsalgorithmen, die die Dateigrößen reduzieren? Die Experten sagen, daß Audio sehr schwierig zu komprimieren sei.


(Das ist logisch. Anders als Bilder sind Schallwellen sehr komplex, und es gibt keine wiederholten Muster und konsistente Variationen, die eine einfache Komprimierung erlauben würden.) Wenige der gebräuchlichen Dateiformate für Sound verwenden eine eingebaute Komprimierung.


Die beiden wichtigsten Ausnahmen sind das AIFF-C-Format, das eine 3:1- und 6:1-Komprimierung ermöglicht, sowie MPEG-Audio, das je nach Dateigröße und Tonqualität eine Komprimierung zwischen 6:1 und 20:1 bringt. Beide Formate werden im Abschnitt »Gebräuchliche Soundformate« später in diesem Kapitel beschrieben.



Vom Digitalen zurück zum Analogen

Jetzt haben Sie einen analogen Ton digital auf Ihrem Computer aufgezeichnet, und Sie wollen ihn abspielen. Dabei übersetzt der Computer die digitalen Samples zurück in eine analoge Schallwelle.


Da ein digitales Sampling Millionen einzelner Einheiten enthält, die die Schallwelle repräsentieren, die jeweils genau so lang gehalten werden, wie der Original-Sound gesampelt wurde, kann dadurch eine Schallwelle mit vielen Treppenstufen entstehen, die sich recht seltsam anhört (siehe Abbildung 10.5).


siehe Abbildung

Abbildung 10.5:
Ein analoges Signal mit vielen Treppenstufen

Analoge Filter sollen die Stufen in der Welle glätten (siehe Abbildung 10.6), die an Ihre Lautsprecher geschickt wird.


siehe Abbildung

Abbildung 10.6:
Die stufige Welle
wurde geglättet


Gebräuchliche Soundformate

Jetzt wissen Sie, wie digitaler Sound funktioniert, und wir wollen nun betrachten, wie er gespeichert wird. Leider gibt es noch immer keinen Standard für Audio im Web, der mit dem für GIF- und JPEG-Bilder vergleichbar wäre. Statt dessen existieren unzählige Formate, die in den unterschiedlichsten Situationen eingesetzt werden. Dieser Abschnitt soll Ihnen einen Eindruck verschaffen, was es alles gibt und was es bedeutet.



m-law

Das gebräuchlichste und das am längsten verfügbare Format für alle Plattformen ist m-law. Sowohl Sun als auch NEXT verwenden es als Standard-Audioformat. Ursprünglich wurde es für die Telefonindustrie in den Vereinigten Staaten geschaffen. Das europäische Äquivalent heißt A-law und stellt im wesentlichen dasselbe Format dar. Es gibt mehrere Variationen von m-law, die alle unter demselben Namen existieren, aber sie alle können von einem Gerät abgespielt werden, das m-law unterstützt. m-law-Dateien werden aufgrund ihrer Datei-Namenerweiterung .au manchmal auch als AU-Dateien bezeichnet.


Samples im m-law-Format liegen in Mono, 8 Bit und 8 kHz vor. Aber die Kodierung des Samples unterscheidet sich von den meisten anderen Formaten. Sie ermöglicht, daß m-law einen breiteren Dynamik-Bereich (Variation zwischen leisen und lauten Abschnitten eines Sounds) unterstützt als die meisten anderen Sounds, die mit einer solch geringen Sampling-Größe und -Rate aufgezeichnet werden. Andererseits weisen n-law-Samples häufig ein stärkeres Rauschen auf als andere Formate.


Einige Sound-Applikationen bieten die Möglichkeit, m-law-Samples mit einer höheren Sampling-Rate als 8 kHz aufzuzeichnen. Beachten Sie jedoch, daß sie damit nicht mehr uneingeschränkt kompatibel für alle Plattformen sind. Wenn Sie m-law verwenden, sollten Sie bei dem Standard-Sample mit 8 Bit und 8 kHz bleiben.

Der einzige Vorteil von m-law-Sound-Samples ist die allgemeine Unterstützung auf allen Plattformen. Viele Sites, die Sound-Samples in einem HiFi-Format wie etwa AIFF oder MPEG anbieten, stellen auch ein m-law-Sample zur Verfügung, um ein breiteres Publikum ansprechen zu können.



AIFF/AIFC

AIFF steht für Audio Interchange File Format. AIFF wurde von Apple entwickelt und ist deshalb primär ein Macintosh-Format, aber auch SGI hat es übernommen. Hinsichtlich der Flexibilität stellt AIFF ein ausgezeichnetes Format dar, das für 8- oder 16-Bit-Samples zahlreiche Sampling-Raten in Mono oder Stereo ermöglicht. AIFF-Dateien haben die Datei-Namenerweiterung .aiff oder .aif.


AIFC ist AIFF mit eingebauter Komprimierung. Der grundlegende Komprimieralgorithmus ist MACE (Macintosh Audio Compression/Expansion) mit den beiden Variationen MACE3 (3:1-Komprimierung) und MACE6 (6:1-Komprimierung). Beide Komprimierungen arbeiten mit Verlust, deshalb können AIFC-komprimierte Dateien nicht die Qualität des Originals bieten. Da die meisten AIFF-Player aber auch AIFC abspielen, ist die Wahl zwischen den beiden Formaten nur von Ihren Vorlieben bezüglich Dateigröße und Klangqualität abhängig.



Macintosh-SND-Dateien

Das SND-Format, das manchmal auch nur Macintosh System Sound genannt wird, ist das Format, das nur auf dem Macintosh für viele einfache Klänge wie Piep- und Quaktöne verwendet wird, die mit dem System geliefert werden. SND-Dateien sind tatsächlich Dateien mit SND-Ressourcen (der Macintosh hat für viele Dateien eine Ressourcen- und Datenverzweigung). Diese SND-Ressourcen enthalten entweder digitale Samples oder eine Serie von Befehlen, die vom Macintosh-Sound-Manager abgespielt werden. SND-Dateien sind auf dem Web nicht weit verbreitet, da sie auf den Macintosh beschränkt sind, sind aber trotzdem erhältlich und können mit Leichtigkeit in andere Klangformate umgewandelt werden.



Windows WAVE

Das Format WAVE oder RIFF WAVE, manchmal aufgrund der Datei-Namenerweiterung .wav auch als WAV bezeichnet, wurde von Microsoft und IBM entwickelt. Seine Einbindung in Windows 3.1 hat es zum Audiostandard auf dem PC gemacht. WAVE und AIFF sind sich sehr ähnlich, insbesondere hinsichtlich der Flexibilität. WAVE-Dateien können Samples in jeder Rate, Größe und mit beliebig vielen Kanälen aufzeichnen. Darüber hinaus gibt es unterschiedliche Komprimierungsarten.



MPEG-Audio

MPEG steht für Moving Picture Experts Group, eine Standardisierungsorganisation, die sich insbesondere für die Komprimierung von digitalen Videos interessiert. Da jedoch Videos in der Regel auch eine Audiospur beinhalten, beschäftigt man sich dort auch mit der Audiokomprimierung. Der Komprimier-algorithmus von MPEG-Audio ist viel zu kompliziert, als daß ich ihn hier erklären könnte (mit anderen Worten, ich habe ihn nicht verstanden). Sie erhalten jedoch alle technischen Informationen im MPEG FAQ, verfügbar auf fast allen Sites, auf denen es Usenet FAQs gibt (einer davon ist am Ende dieses Kapitels aufgelistet).


MPEG-Audio ist auf dem Web weit verbreitet, weil das Internet Underground Music Archive es für seine Sound-Samples verwendet (besuchen Sie IUMA unter http://www.iuma.com/IUMA/). Mit MPEG erhalten Sie eine ausgezeichnete Tonqualität, ohne daß dazu Unmengen von Plattenspeicher erforderlich wären. Die Dateien sind zwar noch groß, aber die Qualität ist wirklich hervorragend. Allerdings benötigen Ihre Leser (Zuhörer) auf ihrer Plattform ein MPEG-Gerät zum Abspielen der Sounds, und möglicherweise müssen sie ihren Browser neu konfigurieren.



RealAudio

Das RealAudio-Format, das mit dem RealAudio Player oder Plug-In in Verbindung mit dem RealAudio-Server abgespielt werden kann, gibt es momentan in zwei Ausführungen: Das 14.4-Format, das über 14,4-Kbyte-Modems abgespielt wird, liefert »Klang mit Mono-LW-Qualität«. Das 28.8-Format, das über 28,8-Kbyte-Modems oder noch schnellere Verbindungen abgespielt wird, liefert »Mono-Klang mit beinahe UKW-Qualität«.


Sowohl das 14.4- als auch das 28.8-Format sind durch einen verlustreichen Komprimieralgorithmus eigener Herstellung komprimiert. RealAudiodateien sind im allgemeinen viel kleiner als ihre Gegenstücke im AIFF- oder WAVE-Format, jedoch ist ihre Klangqualität nicht so gut.



Sounddateien beschaffen

Wo können Sie sich Sounddateien für die Verwendung auf dem Web beschaffen? Von einer Vielzahl von Quellen:


Beachten Sie, daß Sounds, die Sie auf dem Netz finden, genauso wie Bilder jemandem gehören können, der es vielleicht nicht leiden kann, wenn Sie sie benutzen. Seien Sie deshalb vorsichtig bei der Verwendung von »gefundenen« Klängen.


Sound-Sampling

Die interessantesten Sounds für Ihre Web-Präsentation sind selbstverständlich die, die Sie selber produzieren. Wie ich schon vorher erwähnt habe, heißt der Prozeß, mit dem Sie Sounds in digitale Dateien bringen, Sampling. In diesem Abschnitt lernen Sie die Ausrüstung sowie die Software kennen, die Sie zum Aufzeichnen und Speichern von Sound benötigen.


Sampling ist der Vorgang, mit dem man analogen Sound in ein digitales Format kodiert.

Will man wirklich gute Aufnahmen erzielen, muß man sehr viel Geld für eine professionelle Ausrüstung ausgeben. Die Auswahl ist groß. Außerdem wird mit fortschreitender Zeit die Technologie immer weiter verbreitet und kostengünstiger, so daß ich Ihnen hier höchstens einen allgemeinen Überblick über die Technologie verschaffen kann. Durchforschen Sie Ihre örtlichen Computerläden und Magazine für mehr Informationen.



Sampling auf PCs

Um auf einen PC Sound zu sampeln, benötigen Sie natürlich eine Soundkarte.


Die meisten Soundkarten bieten Ihnen Audiomöglichkeiten von 8 Bit Mono mit 11 oder 22 kHz bis zu 16 Bit 44 kHz Stereo. Sie sollten sich eine 16-Bit-Karte kaufen. Sie erhalten damit nicht nur eine bessere Qualität für Ihre Aufnahmen: Viele Spiele und Multimedia-Titel für den PC verwenden 16-Bit-Sound, und die bessere Qualität ist sehr beeindruckend.


Wenn Sie eine Soundkarte haben, können Sie Ihr Kassettendeck oder ein Mikrofon in den auf der Karte eingebauten Buchsen anschließen. Ab dann ist alles eine Frage der Software.


Windows enthält ebenfalls ein einfaches Programm zur Aufzeichnung von Sound, den sogenannten Soundrecorder. Mit diesem Programm können Sie einfache Töne in 8 Bit Mono mit 11 kHz aufzeichnen. Für sehr einfache Aufzeichnungen wie etwa von Stimmen oder kurzen Klangeffekten kann das schon ausreichend sein (siehe Abbildung 10.7).


siehe Abbildung

Abbildung 10.7:
Der Klangrecorder von Windows

Zusammen mit Ihrer Soundkarte erhalten Sie Tools, die Sie beim Aufzeichnen und Bearbeiten von Sounds unterstützen sollen. Die Standard-Sound-Blaster-Karte bietet dazu mehrere Applikationen für die Aufnahme sowie die Bearbeitung von Sound, unter anderem das Programm WaveEditor (siehe Abbildung 10.8), mit dem Sie Sound über große Bandbreiten und mit verschiedenen Sampling-Raten und -Größen aufzeichnen können.


siehe Abbildung

Abbildung 10.8:
Der WaveEditor von Sound-Blaster

Für eine ernsthafte Bearbeitung und Verarbeitung von Sound sollten Sie CoolEdit ausprobieren. CoolEdit ist ein Shareware-Sound-Editor mit unzähligen Funktionen (er wurde übrigens auch von Bobby Prince für Doom verwendet). Er unterstützt die Aufzeichnung auf den verschiedensten Soundkarten, kann zahlreiche Soundformate lesen, konvertieren und schreiben und bietet sogar eingebaute Steuerelemente für Ihren CD-Player. Mehr über CoolEdit finden Sie unter http://www.netzone.com/syntrillium/.


Wenn Sie vorhaben, Sounds und Videos häufiger einzusetzen, sollten Sie sich Adobe Premiere anschauen. Viele Multimedia-Entwickler auf dem Macintosh verwenden ihn, weil er eine leistungsfähige Integration von Audio und Video bietet und darüber hinaus mit den meisten Soundkarten eingesetzt werden kann. Er ist zwar teuer, aber auch eines der besten Tools überhaupt.



Sampling auf dem Macintosh

Auf dem Macintosh sind eingebaute Soundfähigkeiten seit Jahren Standard, und die meisten Macs werden zusammen mit einem eingebauten oder einem separaten Mikrofon verkauft. Sie können direkt mit dem Mikrofon aufnehmen (Mono 22 kHz 8 Bit) oder einen Standard-Stereo-Audiostecker hinten am Computer anschließen. Die meisten neueren Macs sind in der Lage, 16-Bit-Stereo bis zu 48 kHz aufzuzeichnen (44 kHz ist CD-Qualität, 48 kHz ist DAT-Qualität [Digital Audio Tape]). Lesen Sie in der Beschreibung Ihres Geräts nach, was es kann.


Für grundlegenden Sound mit 8-Bit-Mono, 22 kHz, der weniger als 10 Sekunden lang ist, können Sie das Sound-Dialogfeld benutzen, das Teil der Standardsystem-Software für den Mac ist (siehe Abbildung 10.9).


siehe Abbildung

Abbildung 10.9:
Sound auf dem Mac aufzeichnen

siehe Abbildung

Abbildung 10.10:
Audiooptionen bei Premiere

Wenn Sie mehr Kontrolle über Ihren Sound haben wollen, brauchen Sie eine spezielle Software. Es gibt zahlreiche Pakete zur Aufzeichnung von Sound auf dem Mac, von der ausgezeichneten SoundMachine (zum Aufzeichnen und Konvertieren; Freeware) und SoundHack (zur Bearbeitung; Shareware) bis hin zu kommerziellen Werkzeugen, die beide Funktionen übernehmen, wie etwa SoundEdit 16 von MacroMedia. Wie ich im Windows-Abschnitt bereits erwähnt habe, ist auch Adobe Premiere ein ausgezeichnetes Werkzeug, insbesondere, wenn Sie auch mit Videos arbeiten wollen (siehe Abbildung 10.10).



Sampling auf Unix-Workstations

Die meisten neueren Unix-Workstations werden mit eingebauten Mikrofonen, die 16-Bit-Sampling-Raten für Audio bieten, geliefert. Fragen Sie den Hersteller nach Einzelheiten.



Konvertieren von Sounddateien

Wenn Sie nun endlich Ihre Sounddatei haben, ist sie vielleicht noch nicht im richtigen Format - das heißt, nicht in dem, das Sie wollen. Die in diesem Abschnitt erwähnten Programme können viele bekannte Soundformate lesen und umwandeln.


Für Unix- und PC-kompatible Systeme kann ein Programm namens SOX von Lance Norskog zwischen vielen Soundformaten umwandeln (einschließlich AU, WAV, AIFF und Macintosh SND) und bietet auch einige rudimentäre Bearbeitungsfunktionen einschließlich Filtern, Wechseln der Sampling-Rate und Umkehren des Sample.


Auf DOS konvertiert WAVany von Bil Neisius von den meisten gewöhnlichen Soundformaten (einschließlich AU und Macintosh SND) zum WAV-Format.


Waveform Hold and Modify (WHAM) ist eine exzellenter Sound Player, Editor und Konverter für Windows, der auch sehr gut als Hilfsprogramm für Ihren Browser eingesetzt werden kann.


Für den Macintosh gibt's SoundApp von Norman Franke als Freeware, der die meisten Soundformate liest und abspielt und zu WAV, Macintosh SND, AIFF und NeXT konvertiert (komischer Weise jedoch nicht zu Sun AU). Das Freeware-Programm m-law konvertiert Macintosh Sounds (SND) zum AU-Format.


FTP-Quellen für diese Programme werden in Anhang A, »Weitere Informationsquellen«, angegeben.


Um beliebige Soundformate zum RealAudio-Format umzuwandeln, brauchen Sie den RealAudio Encoder. Dieser liegt dem RealAudio-Server-Paket bei, oder Sie können sich auch eine Kopie vom RealAudio Site von http://www.realaudio.com/ herunterladen.



Audio im Web

Damit habe ich Ihnen alle Möglichkeiten kurz vorgestellt, die Ihnen zum Aufzeichnen und Bearbeiten von Audio zur Verfügung stehen. Jetzt will ich Ihnen noch einige Hinweise für die Verwendung von Audiodateien im Web näherbringen.


So wie es auch für die Bilder der Fall war, können Sie auf Ihren Webseiten nie so viel unterbringen, wie Sie gerne möchten, bedingt durch die Einschränkungen der Systeme Ihrer Leser sowie die Geschwindigkeit ihrer Verbindungen.


Hier einige Hinweise für die Verwendung von Audio im Web:



Einführung in digitales Video

Digitales Video ist momentan eines der aufregendsten Themen für viele Gruppen in der Computerindustrie, von Hardware-Herstellern über Sofware-Entwickler (insbesondere für Spiele und Multimedia-Titel) bis hin zu Leuten, die einfach nur gerne mit neuen Technologien herumspielen. Im Web erscheint das digitale Video in der Regel in Form kleiner Filmclips, die man häufig in Medienarchiven findet.


Ich kann Ihnen in diesem Buch keinen vollständigen Überblick über diese Technologie bieten, insbesondere deshalb nicht, weil sie zum Teil sehr komplex ist, aber größtenteils, weil es in der Entwicklung ständig irgendwelche Neuerungen gibt, fast wie beim Web. Aber für die Produktion von kleinen, kurzen Videos, die auf dem Web veröffentlicht werden sollen, kann ich Ihnen einige der Grundlagen vermitteln und Hinweise geben, wie Sie digitales Video erzeugen und anwenden können.



Analoges und digitales Video

Analoges Video ist genau wie analoges Audio ein fortlaufender Strom von Tönen und Bildern. Um ein analoges Video in Ihren Computer zu erstellen, benötigen Sie eine Videokarte, die analoges Video in bestimmten Abständen sampelt, um einen digitalen Film zu erzeugen. Dabei handelt es sich um dasselbe Prinzip wie bei den Soundkarten. Zu den jeweiligen Sampling-Zeitpunkten zeichnet die Videokarte ein einzelnes Bild mit einer bestimmen Auflösung auf, einen sogenannten Frame (auch Einzelbild genannt). Beim Abspielen des Videos werden die Frames nacheinander abgespielt und erzeugen somit den Eindruck von Bewegung. Die Anzahl der Frames pro Sekunde - die Geschwindigkeit, in der die Frames angezeigt werden - nennt man auch die Frame-Rate. Sie entspricht vom Prinzip her der Sampling-Rate bei digitalem Audio. Je höher die Frame-Rate ist, desto genauer bilden Sie die analoge Quelle nach.


Neben der Frame-Rate spielt dabei auch die Frame-Größe (die Größe des Frame auf Ihrem Bildschirm, angegeben in Pixeln) eine Rolle (siehe Abbildung 10.11).


siehe Abbildung

Abbildung 10.11:
Frame-Raten und
-Größen

Ein Frame ist ein einzelnes Bild in einer Videodatei. Die Frame-Rate gibt an, wie viele Frames pro Sekunde gezeigt werden, während die Frame-Größe die tatsächlichen Dimensionen des Frame in Pixeln angibt.

Die Frame-Rate des Standard-Ganzbildschirm-Videos, also das, was Sie auch auf Ihrem Videorecorder sehen, beträgt 30 Frames pro Sekunde. Das nennt man manchmal auch Full-Motion-Video. Diese Art Video - das, was man mit jedem mittleren Camcorder erzeugen kann - ist der Heilige Gral für Programmierer und Autoren, die sich mit digitalem Video beschäftigen. Größtenteils müssen sie sich mit sehr viel geringeren Frame-Raten und Frame-Größen zufriedengeben, um eine glatte Wiedergabe erzielen zu können.


Warum? In einem analogen Video sind 30 Frames pro Sekunde nichts Weltbewegendes. Die Frames kommen an und werden angezeigt. Beim digitalen Video muß jeder Frame von der Platte gelesen, gegebenenfalls dekomprimiert und dann so schnell wie möglich auf dem Bildschirm ausgegeben werden. Deshalb braucht man sehr viel Rechenleistung, eine schnelle Festplatte sowie ein noch schnelleres Grafiksystem im Computer, um richtig arbeiten zu können. Das Ganze steigert sich mit größeren Frames und höherer Geschwindigkeit.


Was passiert also, wenn der Film schneller abgespielt wird, als Ihr Computer das verfolgen kann? Normalerweise verliert er bestimmte Frames, d.h., sie werden verworfen, ohne angezeigt worden zu sein. Und wenn Frames verlorengehen, sinkt die Frame-Rate, und es entstehen ruckartige Bewegungen oder vorübergehende Standbilder. Für Ihren Video-Clip ist das nicht wünschenswert.


Sie werden erkennen, daß bei der Arbeit mit digitalem Video häufig viele Kompromisse geschlossen werden müssen, damit Sie jeder Plattform gerecht werden können. Mehr über diese Kompromisse erfahren Sie später in diesem Abschnitt.



Komprimierung und Dekomprimierung (Codecs)

Bild- und Audioformate belegen enorme Mengen an Speicherplatz. Wenn Sie beides kombinieren - Hunderte, wenn nicht Tausende von Bildern sowie eine Audiospur -, können Sie sich vorstellen, wieviel Plattenspeicher ein digitales Video verbrauchen kann. Je größer die Datei ist, desto schwieriger ist es für das Computersystem, sie mit einer ausreichenden Geschwindigkeit zu verarbeiten, und desto wahrscheinlicher ist es, daß die Abspielqualität leidet. Aus diesen Gründen sind insbesondere Komprimierung und Dekomprimierung für digitale Videodateien wichtig. Auf diesem Gebiet hat sich viel getan.


Beim digitalen Video bezeichnet man den Algorithmus für die Komprimierung und Dekomprimierung in der Regel als eine Einheit, den Codec (für COmpression/DECompression, sprich Ko-Deck). Anders als bei der Bildkomprimierung richten sich die Video-Codecs nicht ausschließlich nach den Videodateiformaten. Ein typisches Format kann mehrere verschiedene Codecs verwenden. Häufig erfolgt die Dekomprimierung erst beim eigentlichen Abspielen.


Ein Video-Codec ist ein Algorithmus, der für die Komprimierung und Dekomprimierung einer Videodatei eingesetzt wird.

Mehr über die Codecs, wie sie funktionieren und welche es gibt, erfahren Sie später in diesem Abschnitt unter der Überschrift »Filmkomprimierung«.



Filmformate

Digitales Video in einer auf dem Computer abspielbaren Datei wird häufig auch als Film (Movie) bezeichnet. Ein Film enthält digitale Videodaten (so wie eine Sounddatei digitale Audiodaten enthält). Diese Daten können einen realen Film oder aber eine Animation enthalten. »Film« ist einfach nur ein allgemeiner Begriff, der sich auf die Datei selbst bezieht.


Momentan gibt es drei wichtige Filmformate im Web und in der Computerindustrie: QuickTime, Video für Windows (VfW) und MPEG.



QuickTime

Ursprünglich wurde QuickTime von Apple für den Macintosh entwickelt, aber heute stellen QuickTime-Formate im Web ein plattformübergreifendes Standard-Filmformat dar (wobei MPEG das zweithäufigste ist). Die Apple-System-Software umfaßt QuickTime sowie ein einfaches Abspielprogramm (den MoviePlayer oder SimplePlayer). Auf PCs können QuickTime-Dateien über das Paket QuickTime for Windows (QTfW) abgespielt werden, und das frei verfügbare Programm Xanim spielt sie unter X Window und Unix ab. QuickTime-Filme haben die Datei-Namenerweiterung .qt oder .mov.


QuickTime unterstützt verschiedene Codecs, insbesondere CinePak und Indeo, die beide auf unterschiedlichen Plattformen eingesetzt werden können. Informationen über diese Formate finden Sie im Abschnitt »Codec-Formate« später in diesem Kapitel.


Wenn Sie QuickTime-Videos auf dem Macintosh erzeugen, sollten Sie sicherstellen, daß sie entsprechend konvertiert werden (»flattened«), bevor sie auf anderen Plattformen zur Verfügung gestellt werden. Beachten Sie den Abschnitt »Videos beschaffen und umwandeln« später in diesem Kapitel, wo es sich um Programme dreht, die QuickTime-Dateien für Sie konvertieren.


Video für Windows

Video für Windows (VfW) wurde von Microsoft entwickelt und stellt den PC-Standard für Desktop-Video dar. VfW-Dateien werden manchmal auch als AVI-Dateien bezeichnet, nach ihrer Datei-Namenerweiterung .avi (AVI steht für Audio/Video Interleave).


VfW-Dateien sind auf PCs sehr verbreitet, und es gibt unzählige Dateien im AVI-Format. Außerhalb der PC-Welt gibt es jedoch nur sehr wenige Programme zum direkten Abspielen von AVI-Dateien. Dadurch ist VfW für Video im Web weniger geeignet als QuickTime.



Das MPEG-Videoformat

MPEG ist sowohl ein Dateiformat als auch ein Codec für digitales Video. Es gibt drei Arten von MPEG: MPEG Video, nur für Bilder, MPEG-Audio, das bereits im letzten Abschnitt vorgestellt wurde, und MPEG Systems, das sowohl Audio- als auch Videospuren beinhaltet.


MPEG-Dateien erzeugen eine hervorragende Bildqualität, allerdings kann ihre Dekomprimierung sehr lange dauern. Aus diesem Grund haben viele MPEG-Dekodiersysteme eine Hardware-Unterstützung, d.h., Sie brauchen eine spezielle Karte, um MPEG-Dateien zuverlässig abspielen zu können, ohne Frames zu verlieren. Es gibt zwar Software-Decoder (und sogar einige sehr gute), aber in der Regel benötigen diese sehr viel Rechenleistung auf Ihrem System und unterstützen außerdem nur MPEG Video (also ohne Audiospur).


Ein dritter Nachteil von MPEG Video als Standard für das Web ist, daß es sehr teuer ist, MPEG-Filme zu kodieren. Sie brauchen dazu eine spezielle Hardware, die mehrere tausend Mark kosten kann. Mit der Zeit und dem wachsenden Verbreitungsgrad von MPEG werden diese Preise sicher irgendwann fallen. Aber momentan ist ein Software-basiertes Format für Sie sicher besser, es sei denn, Sie haben Zugriff auf eine derartige Hardware, oder Sie sind wirklich ernsthaft an digitalem Video interessiert.


Eine Alternative zur Kodierungs-Hardware ist die Inanspruchnahme der Dienste eines Video-Produktionsservice. Einige Agenturen besitzen diese Hardware und können für Sie eine MPEG-Kodierung durchführen. Die Gebühr wird in der Regel minutenweise berechnet. So wie bei der MPEG-Hardware fallen auch hier die Preise, so daß eine Agentur eine vernünftige Alternative darstellen kann, wenn Sie unbedingt MPEG haben wollen.


Filmkomprimierung

Wie für Bilder und Audio ist auch für das digitale Video die Komprimierung sehr wichtig. Vielleicht sogar noch wichtiger, weil Filmdateien so große Datenmengen enthalten. Glücklicherweise gibt es zahlreiche Komprimierungstechniken, so daß Sie die Wahl haben.


Wie ich bereits erwähnt habe, werden die Methoden zur Videokomprimierung Codecs genannt, wobei Komprimierung und Dekomprimierung als eine Einheit betrachtet werden. Die Komprimierung erfolgt in der Regel, wenn ein Film gespeichert oder erzeugt wird. Die Dekomprimierung erfolgt während des Abspielens. Der Codec ist nicht Teil der eigentlichen Filmdatei. Es kann ein beliebiger Codec verwendet werden, und Sie können in der Regel wählen, welcher das sein soll, wenn Sie Ihren Film zum ersten Mal speichern. (Beim Abspielen des Films wird automatisch die richtige Dekomprimierung gewählt.)


In diesem Abschnitt sprechen wir über die Methoden der Videokomprimierung, im nächsten über die Codecs, die Ihnen für Ihre eigenen Dateien zur Verfügung stehen.



Asymmetrische und symmetrische Codecs

Codecs werden oft in symmetrisch oder asymmetrisch unterschieden (siehe Abbildung 10.12). Diese Begriffe beziehen sich auf den Ausgleich der Geschwindigkeiten für Komprimierung und Dekomprimierung. Ein symmetrischer Codec benötigt für die Dekomprimierung dieselbe Zeit, die er auch für die Komprimierung benötigt hat, was gut bei der Produktion, aber schlecht für den Abspielvorgang ist. Ein asymmetrischer Codec braucht normalerweise sehr lange für die Komprimierung, dafür bietet er eine sehr schnelle Dekomprimierung (und, je schneller die Dekomprimierung, desto besser die Frame-Rate, weshalb asymmetrische Codecs wünschenswert sind). Die meisten Codecs sind zumindest leicht asymmetrisch auf der Komprimierungsseite, einige davon sogar sehr.


Symmetrische Codecs benötigen zum Komprimieren von digitalen Videodateien genau so lange, wie zum Dekomprimieren. Bei asymmetrischen Codecs dauert entweder die Komprimierung oder die Dekomprimierung länger als der entgegengesetzte Vorgang.

siehe Abbildung

Abbildung 10.12:
Symmetrische und asymmetrische Codecs


Frame-Differenzierung

Aber wie arbeiten die Codecs für Video? Sie können entweder nach dem Prinzip der Bildkomprimierung vorgehen, wobei einzelne Frames komprimiert und beim Abspielen wieder dekomprimiert werden, oder sie können eine Differenzbildung für die einzelnen Frames durchführen. Das ist eine ganz einfache Methode der Filmkomprimierung, die von vielen Codecs eingesetzt wird. Es handelt sich dabei jedoch nicht um einen Codec.


Ein Großteil der Rechenzeit für digitales Video beim Abspielen wird für die Dekomprimierung und das Zeichnen der einzelnen Frames verbraucht. Wenn die CPU beim Erzeugen der Frames in Rückstand gerät, kann es sein, daß einzelne Frames verlorengehen, so daß eine ruckartige Bewegung entsteht. Durch das Bilden von Frame-Differenzen wird die Zeit verkürzt, die es dauert, einen Frame zu dekomprimieren und zu zeichnen. Ein solcher Frame enthält nicht alle Informationen eines Standard-Frame. Statt dessen werden nur die Informationen aufgezeichnet, die sich von dem vorhergehenden Frame unterscheiden. Da diese Differenzen normalerweise sehr viel kleiner als der vollständige Frame sind, braucht Ihr Computer für die Verarbeitung nicht so lange, so daß nicht so viele Frames verlorengehen. Damit wird natürlich gleichzeitig auch die Größe der Filmdatei reduziert. Abbildung 10.15 zeigt ein einfaches Beispiel für diese Methode.


Frame-Differenzierung (Frame Differencing) ist eine Methode der Komprimierung, bei der nur die Teile von Frames gespeichert werden, die sich seit dem vorigen Frame geändert haben, anstatt den gesamten Frame zu speichern.

siehe Abbildung

Abbildung 10.13:
Frame-Differenzbildung

Diese Methode funktioniert am besten für Filme mit viel statischem Hintergrund und nur einem kleinen bewegten Abschnitt, der sich zwischen den einzelnen Frames ändert. Für Filme mit vielen Veränderungen zwischen den einzelnen Frames ist die Frame-Differenzbildung nicht so gut geeignet.



Schlüssel-Frames

Die Frame-Differenzierung basiert auf dem Prinzip der sogenannten Schlüssel-Frames (Key Frames) in der Filmdatei. Schlüssel-Frames stellen die vollständigen Frames dar, für die dann die Unterschiede zu weiteren Frames gebildet werden. Dabei werden jeweils die Unterschiede zum vorhergehenden Frame berechnet, der wiederum aus dem vorhergehenden Frame berechnet wurde usw. bis zum Schlüssel-Frame. Abbildung 10.14 zeigt, wie das System funktioniert.


siehe Abbildung

Abbildung 10.14:
Schlüssel-
Frames und Differenzbildung

Schlüssel-Frames (Key Frames) sind die vollständigen Frames, von denen sich die differenzierten Frames unterscheiden. Schlüssel-Frames sind immer vollständig und werden in gewissen Abständen in der Datei untergebracht.

Je weiter Sie sich vom Schlüssel-Frame wegbewegen, desto mehr Informationen unterscheiden sich und desto mehr Informationen muß Ihr Computer für jeden Frame beobachten und desto wahrscheinlicher ist es, daß Sie wieder sehr viel Rechenzeit in Anspruch nehmen und damit Frames verlieren. Es ist also wichtig, in bestimmten Abständen Schlüssel-Frames abzulegen, so daß stets der beste Grad an Komprimierung erzielt werden kann und Ihr Film glatt und konsistent abgespielt wird. Da jedoch Schlüssel-Frames sehr viel mehr Informationen enthalten als Frames, die mit Hilfe der Differenzbildung erzeugt wurden, sollten Sie auch nicht zu viele davon verwenden, weil sie mehr Rechenleistung verbrauchen. In der Regel können Sie die Anzahl der in einem Film verwendeten Schlüssel-Frames in Ihrer Filmbearbeitungs-Software selbst festlegen. Die Faustregel gibt einen Schlüssel-Frame pro Videosekunde vor (d.h., alle 15 Frames einen Schlüssel-Frame für Filme mit 15 Frames pro Sekunde).



Hardware-Unterstützung

Wie ich bereits erwähnt habe, können nur sehr schnelle und leistungsfähige Computer hochqualitatives Video mit hoher Frame-Rate und -Größe realisieren, weil bei der Aufnahme, bei der Komprimierung und beim Abspielen riesige Datenmengen verarbeitet werden müssen. Es gibt zwar Software-Codecs, die für Video mit geringen Frame-Raten und -Größen auch häufig eingesetzt werden, aber wenn Sie die Technologie professionell einsetzen wollen, sollten Sie in einen Hardware-Codec investieren.


Hardware-Unterstützung erfolgt meistens in Form einer Videokarte, die Sie in Ihren Computer einstecken können und die spezielle Chips für die Verarbeitung von digitalem Video enthält - normalerweise Dateien mit MPEG- oder JPEG-Codecs, wie Sie später in diesem Kapitel noch erfahren werden. In Zukunft sind solche Chips möglicherweise bereits als Standard in den Computern enthalten. Momentan ist die Hardware-Unterstützung auf Computern im Web recht selten vorhanden, und Sie sollten sich beim Erstellen Ihrer Videos nicht darauf verlassen.



Codec-Formate

Für digitales Video gibt es heute mehrere ausgezeichnete Codecs, sowohl für rein Software-gesteuertes als auch für Hardware-unterstütztes Aufzeichnen und Abspielen. Die beiden wichtigsten, CinePak und Indeo, sind plattformübergreifend (Mac, Windows, Unix), aber Motion JPEG ist ebenso verbreitet, insbesondere bei der Verwendung von Videokarten.



CinePak

CinePak, früher auch als Compact-Video bezeichnet, ist der bekannteste Codec für QuickTime-Dateien und steht auch in VfW zur Verfügung. CinePak ist eine Komprimierung mit Verlust, deshalb sollten Sie Ihr Original in der bestmöglichen Qualität bereitstellen.


CinePak unterstützt die Frame-Differenzbildung und ist höchst asymmetrisch, d.h., die Komprimierung dauert extrem lange. (Ich habe einen 15-Sekunden-Film gesehen, für den die Komprimierung eine Stunde gedauert hat). Wenn die Komprimierung jedoch abgeschlossen ist, ist der Abspielvorgang sehr glatt, und die Dateigrößen sind ausgezeichnet.



Indeo

Etwas weniger verbreitet als CinePak, aber ihm dicht auf den Fersen, ist Indeo. Indeo wurde von Intel als Teil des Intel Smart Video Recorders entwickelt, einer ausgezeichneten Videokarte. Indeo arbeitet verlustlos oder mit Verlust, unterstützt die Frame-Differenzbildung und ist sehr viel weniger asymmetrisch als CinePak. Es macht jedoch mehr Rechenzeit für die Dekomprimierung erforderlich, so daß auf leistungsschwächeren Computern eher Bilder verlorengehen.


Indeo stand ursprünglich nur für VfW-Dateien zur Verfügung, aber QuickTime 2.0 unterstützt es jetzt ebenfalls, so daß es bereits den Platz als zweitbeliebtester Codec für digitales Video eingenommen hat und schnell aufholt.



JPEG

JPEG-Komprimierung? Ist das nicht der Bildstandard? Ja, und es verwendet dieselbe Komprimierungsart für digitales Video (hier nennt man es manchmal auch Motion JPEG). Beachten Sie, daß es sich bei einem Film um eine Menge von Frames handelt, die jeweils ein einzelnes Bild darstellen - meistens in der Art eines Fotos. Jedes dieser Bilder kann mit Hilfe der JPEG-Komprimierung gut komprimiert werden.


Die JPEG-Komprimierung als Codec hat jedoch zwei Nachteile: Die Frame-Differenzbildung wird nicht unterstützt, und die Dekomprimierung ist sehr langsam. Da es bei JPEG um eine Komprimiermethode für Standbilder geht, behandelt es jeden Frame so, als handelte es sich dabei um ein solches, und bietet deshalb keine Differenzbildung für die Gesamtheit der Frames. Das bedeutet, daß beim Abspielen jeder Frame einzeln dekomprimiert und angezeigt werden muß, so daß sehr wahrscheinlich Frames verlorengehen und die Performance leidet. Mit Hardware-Unterstützung jedoch kann die JPEG-Dekomprimierung sehr viel schneller sein als die von Software-basierten Codecs mit Frame-Differenzbildung. Mit Hardware-Unterstützung bietet JPEG wahrscheinlich die beste Qualität und das gebräuchlichste Videoformat. Aber wie bei allen Hardware-unterstützten Codecs gilt, daß nur wenige Computer im Web diese Möglichkeit haben, deshalb ist die Verwendung von JPEG-Dateien fürs Web nicht unbedingt zu empfehlen.


JPEG könnte dagegen für die Videoaufzeichnung gut geeignet sein. Viele Videokarten unterstützen JPEG-Komprimierung für Videoaufzeichnungen. Wenn Sie CinePak als Codec verwenden wollen, sollten Sie bei der Aufnahme JPEG verwenden (wenn Sie über genügend Plattenspeicher verfügen, um den Film vor der Komprimierung zu speichern).



MPEC-Codec

MPEG soll hier ebenfalls erwähnt werden, weil es sowohl ein Format als auch einen Codec darstellt. Wie im Abschnitt über Formate bereits erwähnt, bietet MPEG eine exzellente, professionelle Komprimierung für digitales Video, wozu aber in der Regel eine Hardware-Unterstützung erforderlich ist. Außerdem sind MPEG-Kodierer sehr teuer, so daß das Erstellen von MPEG-Filmen sehr aufwendig ist. Für Web-Zwecke sollten Sie besser einen Software-Codec wie etwa CinePak oder Indeo verwenden.


MPEG-Komprimierung ist hochkompliziert und übersteigt den Rahmen dieses Buchs; wenn Sie sich für MPEG und seine Funktionsweise interessieren, empfehle ich Ihnen dringend, daß Sie sich die MPEG-FAQs durchlesen (auf die am Ende dieses Kapitels verwiesen wird).


Videos digitalisieren

Sind Sie bereits so anspruchsvoll, daß Sie Ihr eigenes Video fürs Web produzieren wollen? Der Prozeß der Videoaufzeichnung in Ihrem Computer ist mit der richtigen Ausrüstung eigentlich ganz einfach. Sie installieren eine Videokarte, schließen Ihren Videorecorder oder eine Kamera an, rufen Ihre Software zum Aufzeichnen auf, und los geht's.


Die Einzelheiten variieren zwischen den verschiedenen Plattformen, und in den vergangenen paar Monaten gab es eine regelrechte Explosion verfügbarer Produkte. Hier folgt ein allgemeiner Überblick über die Technologie; für mehr Informationen über spezifische Produkte können Sie sich an Ihren örtlichen Computerladen wenden oder sich die Berichte in den einschlägigen Magazinen ansehen.



Analoge Videosignale und Formate

Sie müssen nicht sehr viel über analoges Video wissen, es sei denn, Sie wollen tiefer in die Videoproduktion einsteigen. Sie sollten jedoch zwei Videostandards kennen: das Videosignal und das Broadcast-Format.


Wie Sie Ihre Videoausrüstung an Ihren Computer anschließen, wird durch das verwendete Videosignal bestimmt. Es gibt zwei Arten von Videosignalen: zusammengesetzte (composite) und S-Videosignale.


Zusammengesetzte Videosignale sind der Standard auf Ihrem Fernseher, Videorecorder oder Camcorder, ebenso bei Video im allgemeinen. S-Video, das ein anderes Signalkabel erfordert, ist ein professionellerer Standard, der Farben und Helligkeit trennt, so daß eine höhere Bildqualität entsteht. Mit S-Video erzeugen Sie Videos mit besserer Qualität. Dazu benötigen Sie jedoch auch eine spezielle Ausrüstung.


Nachdem Sie alles angeschlossen haben, müssen Sie wissen, welches Broadcast-Format Sie an Ihren Computer senden. Es gibt drei Standards: NTSC (National Television Standards Committee), das in Nordamerika und Japan eingesetzt wird, PAL (Phase Alteration Line), das in Westeuropa, Großbritannien und dem Mittleren Osten Verwendung findet, sowie SECAM (Système Électronique Pour Couleur Avec Mémoire), das in Frankreich und Rußland verwendet wird.


Die meisten Videokarten unterstützen NTSC und PAL, deshalb müssen Sie sich nur selten um das Format kümmern, das in Ihrer Kamera oder in Ihrem Videorecorder eingesetzt wird. Wenn Sie sich nicht sicher sind, welches Format Sie verwenden, und Sie sich in den Vereinigten Staaten befinden, dann handelt es sich wahrscheinlich um NTSC. Außerhalb der Vereinigten Staaten sollten Sie feststellen, was verwendet wird und ob Ihre Videokarte es verarbeiten kann.



Video auf dem PC

Der Markt für Desktop-Video auf dem PC ist geradezu explodiert. Wenn Sie sich für Video auf dem PC interessieren, sollten Sie sich in den einschlägigen Zeitschriften informieren, um zu erfahren, was es gerade gibt und was empfehlenswert ist.


Für einfache Videoproduktion gibt es ein hervorragendes Tool auf dem PC (und dem Mac), das sich QuickCam von Connectix nennt. Diese kleine Kamera, die für ca. 100 US-Dollar zu haben ist, können Sie sich auf Ihren Schreibtisch stellen, und Sie können damit sowohl Audio als auch Video aufnehmen und Standbilder erzeugen. Die Kamera unterstützt keine Farben, sondern lediglich Graustufen, und die Frame-Rate ist sehr niedrig, auch wenn Sie sehr kleine Bilder verwenden. Die Kamera eignet sich jedoch hervorragend für einfache Anwendungen wie zum Erstellen von kleinen Dateien fürs Web oder auch für Videokonferenzen.


VidCap und VidEdit sind im Video-für-Windows-Paket enthalten. VidCap wird für die Videoaufzeichnung im VfW-Format verwendet und bietet mehrere Optionen hinsichtlich der Codecs. Außerdem kann man damit Standbilder aufzeichnen. VidEdit (siehe Abbildung 10.15) wird verwendet, um existierende Video-Clips zu bearbeiten. Sie können damit beispielsweise die Frame-Rate, die Frame-Größe, den verwendeten Codec oder die Audioqualität verändern und Teile des eigentlichen Films ausschneiden, kopieren und einfügen.


siehe Abbildung

Abbildung 10.15:
VidEdit

Darüber hinaus steht SmartVid von Intel zu Verfügung, als Teil des Indeo-Videosystems und des Intel-Smart-Video-Recorders (siehe Abbildung 10.16). Eine Testversion von SmartVid Beta, die Sie zum Aufnehmen, Umwandeln und Bearbeiten von Videodateien verwenden können, erhalten Sie im Intel-FTP-Site (ftp://ftp.intel.com/pub/IAL/Indeo_video/smartv.exe). SmartVid ist VidCap außerdem etwas überlegen, weil es unter Verwendung des Indeo-Codec sowohl VFW- als auch QuickTime-Dateien aufzeichnen kann.


siehe Abbildung

Abbildung 10.16:
SmartVid von Intel

Schließlich gibt es noch Adobe Premiere, dessen Aufzeichnungsoptionen der Version 3.0 in Abbildung 10.17 gezeigt sind (es gibt inzwischen auch schon die Version 4). Es ist vor allem bei Videoprofis auf dem Mac sehr verbreitet, und wenn Sie vorhaben, viel mit Video zu arbeiten, sollten Sie sich diese Applikation einmal ansehen. Es kann sowohl Audio als auch Video aufzeichnen und bearbeiten und beides aus jeweils unterschiedlichen Quellen zusammenschneiden, Titel einfügen und Dateien mit anderen Schlüssel-Frames und Codecs speichern.


siehe Abbildung

Abbildung 10.17:
Adobe Premiere


Video am Mac

Viele neuere Macs haben eine eingebaute Videokarte, mit der Sie eine Videokamera mit zusammengesetztem Signal oder einen Videorecorder verbinden können. Videosysteme für den Mac beginnen preislich bei ein paar hundert Mark und enden bei ein paar tausend Mark.


Die QuickCam von Connectix, die ich bereits in diesem Abschnitt erwähnt habe, gibt es auch für Macintosh, und sie ist optimal für sehr einfache Schwarzweiß-Videoaufzeichnungen geeignet.


Für die Software-Aufzeichnung und einfache Bearbeitung gibt es auf den AV-Macs den FusionRecorder, mit dem Sie einfache Audio- und Videodateien aufzeichnen, bearbeiten und speichern können. Für eine ernsthaftere Bearbeitung ist Adobe Premiere die beste Wahl für den Mac, es wird auch von den meisten Profis eingesetzt. Darüber hinaus gibt es VideoShop von Avid, das billiger und angeblich einfacher in der Handhabung ist, sowie VideoFusion von Radius (das Sie zusammen mit dem Video-Vision-System erhalten).



Video auf dem Unix-System

Abhängig davon, was für eine Workstation Sie haben, haben Sie vielleicht schon Videofähigkeit in Ihr Gerät eingebaut oder Sie müssen sich noch eine spezielle Karte dazu kaufen. Profesionelle SGI- und Sun-Systeme werden jetzt mit Video-Eingabebuchsen, Videoaufzeichungs-Software und manchmal sogar mit kleinen Farbvideokameras geliefert. Fragen Sie den Hersteller nach Einzelheiten.



Video bekommen, erstellen und konvertieren

So wie bei Bildern und Klängen können Sie auch an die Video-Clips kommen, indem Sie sie selber produzieren, sie vom Netz herunterladen oder zur Benutzung freigegebene Cips kaufen, die mit Ihrer Plattform kompatibel sind. Manchmal müssen Sie eine Videodatei von einem Format zum anderen umwandeln oder von einem Codec zum anderen. Für diese Art von Umwandlung ist oft die Software am besten geeignet, mit der Sie das ursprüngliche Video digitalisiert haben. Wenn Sie jedoch diese Software nicht besitzen oder es sich um eine Videodatei aus einer fremden Quelle handelt, brauchen Sie einfachere Werkzeuge.


Um Videodateien zwischen den verschiedenen Formaten auf Windows-Systemen zu konvertieren, können Sie ein kommerzielles Programm namens XingCD einsetzen, das AVI-Dateien in MPEG umwandelt. Es gibt auch AVI-zu-QuickTime-Konvertierer; ein solches Programm heißt SmartCap von Intel und kann zwischen AVI- und QuickTime-Dateien konvertieren, die die Indeo-Komprimierungsmethode verwenden. Um AVI-Dateien einzusetzen, brauchen Sie das Video-für-Windows-Paket, das von Microsoft erhältlich ist. Für QuickTime-Filme brauchen Sie das QuickTime-für-Windows-Paket, das es von Apple gibt. Sie brauchen beide, um in beide Richtungen konvertieren zu können.


Um verschiedene Videoformate auf dem Macintosh konvertieren zu können, können Sie ein Freeware-Programm namens Sparkle einsetzen. Sparkle kann sowohl MPEG- als auch QuickTime-Dateien lesen und zwischen ihnen konvertieren. Außerdem kann das AVI->Quick AVI-(Video-für-Windows-)Dateien ins QuickTime-Format umwandeln.


Wenn Sie QuickTime für Ihre Filmdateien einsetzen und den Film für eine andere Plattform als den Macintosh verfügbar machen wollen, müssen Sie ihn »flach machen« (flatten-movie-Befehl). Auf dem Macintosh enthalten Dateien Ressourcen und Datenverzweigungen für unterschiedliche Teile der Datei. Das Flachmachen einer QuickTime-Datei besteht darin, daß alle Daten aus der QuickTime-Datei in die Datenverzweigung verschoben werden, so daß die Datei auch auf anderen Plattformen lesbar wird. Ein kleines Freeware-Programm namens FastPlayer übernimmt das Flachmachen von QuickTime-Filmen auf dem Mac; unter Windows versuchen Sie's doch einmal mit Qflat. FTP-Archive und andere Informationen über diese Programme finden Sie in Anhang A.



Video im Web

Mit einem normalen Desktop-Computer und einer einfachen Videoausrüstung werden Sie niemals in der Lage sein, wirklich professionelle Videos mit hoher Frame-Rate und -Größe zu erzeugen. Selbst professionelle Entwickler haben Probleme, dieses Ziel zu erreichen, und sie geben Tausende dafür aus.


Sie können jedoch mit Ihrer ganz normalen Ausrüstung ein kurzes Video-Sample (weniger als eine Minute) in einem kleinen Fenster erzeugen, das eine ausreichende Frame-Rate besitzt, um zu ruckartige Bewegungen auszuschließen. Aber auch dann noch werden Sie ziemlich große Dateien herausbekommen. Wie ich immer wieder gesagt habe, sollten Sie über das Web keine Dateien schicken, deren Übertragung zu lange dauert.


Stellen Sie sich also auf Kompromisse ein. Die physikalische Größe von Desktop-Videodateien hängt von mehreren Faktoren ab:


Die Dateigröße ist natürlich nicht der einzige wichtige Aspekt. Die Bildqualität und die Abspielgeschwindigkeit sind wesentliche Faktoren, die einige oder all diese Kompromisse beeinflussen können. Vielleicht geben Sie einen Teil der Bildqualität für eine glattere Anzeige auf, oder Sie opfern die Farbe, damit Sie neben Ihrem Video auch noch Platz für Audioinformationen haben.


Wenn Sie Video produzieren wollen, gibt es mehrere Tips zur Verbesserung der Bild- und Tonqualität, wobei die Dateigröße so klein gehalten wird, daß sie leicht über das Web übertragen werden kann:



Weitere Informationen

Informationen über Dateiformate und Tools zum Abspielen von Audio und Video finden Sie in Multimedia File Formats on the Internet von Alison Zhang. Schauen Sie mal unter http://ac.dal.ca/~dong/contents.htm. nach.


Informationen über Audioformate finden Sie in den FAQs zu Audioformaten, etwa unter ftp://rtfm.mit.edu/pub/usenet/news.answers/ und ftp://ftp.uu.net/usenet/news.answers.


Eine technischere Einführung in digitales Audio und Video finden Sie in dem Buch Desktop Multimedia Bible von Jeff Burger im Addison-Wesley-Verlag. Es ist sehr ausführlich und deckt alle Aspekte von analogem und digitalem Audio und Video sowie von Audio- und Videoproduktion ab.


Wenn Sie mehr über digitales Video und die Videoproduktion erfahren wollen, empfehle ich Ihnen das Buch How to Digitize Video von Nels Johnson, Fred Gault und Mark Florence bei John Wiley & Sons. Dieses Buch stellt eine ausführliche Referenz für alle Aspekte des digitalen Videos dar, enthält unzählige Informationen über Hardware- und Software-Lösungen sowie eine CD mit Software für Mac und Windows.


Wenn Sie sich für MPEG interessieren (das im obigen Buch nicht besonders genau beschrieben wird), finden Sie wichtige Informationen im MPEG FAQ, das Sie fast überall im Usenet finden, unter anderem in http://www.cis.ohio-state.edu/hypertext/faq/usenet/mpeg-faq/top.html.


Weitere Informationen über QuickTime finden Sie unter http://quicktime.apple.-com/. Dieser Site bietet zahlreiche Informationen über QuickTime selbst sowie zahlreiche Beispielfilme, das QuickTime-FAQ, und Sie können hier QuickTime-Software sogar online bestellen.



Zusammenfassung

Selbst wenn es sich bei Sound- und Videodateien momentan einfach nur um Dateien handelt, die heruntergeladen und von einer Webseite aus abgespielt werden können, verleihen sie Ihren Webseiten das gewisse Etwas. Mit den einfachen, relativ günstigen Lösungen, die ich in diesem Kapitel beschrieben habe, können Sie Sound und Videos erstellen, auch wenn Sie nicht viel Geld dafür ausgeben wollen und wenig über Audio und Video wissen.


Hier noch einmal ein kurzer Überblick über die Themen in diesem Kapitel:


Für digitale Audiodateien gibt es momentan keinen plattformübergreifenden Standard. AU-Dateien können auf den meisten Plattformen abgespielt werden, aber die Tonqualität ist nicht besonders gut. AIFF und WAVE sind hinsichtlich der Tonqualität in etwa gleich, aber sie werden außerhalb ihrer eigenen Plattform (Mac bzw. Windows) kaum unterstützt. MPEG-Audio wurde mit dem Internet Underground Music Archive weiter verbreitet, aber die MPEG-Kodierung ist sehr kostspielig. Schließlich gibt es noch RealAudio, das schon beim Herunterladen abgespielt werden kann, das aber eigens Software sowohl auf der Server- als auch auf der Browser-Seite benötigt.


Die wichtigsten Formate für digitales Video sind QuickTime und MPEG, wobei QuickTime aufgrund seiner Plattformunabhängigkeit und seinen Software-basierten Abspielgeräten einen leichten Vorteil hat.


Für QuickTime-Dateien sind die Codecs CinePak oder Indeo am besten geeignet. CinePak ist gebräuchlicher, insbesondere unter Unix.


Sie sollten sowohl für Audio als auch für Video immer die bestmögliche Ausrüstung zur Aufzeichnung verwenden und dann mit der höchstmöglichen Rate aufnehmen. Anschließend reduzieren Sie die Bildqualität und -größe bis zu einem Grad, der eine für die Veröffentlichung im Web akzeptable Dateigröße erzielt. Achten Sie stets darauf, eine gute Beschreibung der verwendeten Datei auf Ihrer Webseite anzugeben, insbesondere hinsichtlich Format und Größe, zumal es sich bei Sound und Video um sehr große Dateien handelt.



Fragen und Antworten

Frage:

Ich will eine dieser Seiten erzeugen, die eine versteckte Kamera einsetzen, welche alle paar Minuten ein Bild von mir, vom Aquarium, vom Waschbecken oder von was auch immer aufnimmt. Wie mache ich das?

Antwort:

Das hängt natürlich von Ihrem System und seiner Ausrüstung ab. Wenn Sie an Ihrem Computer eine Kamera angeschlossen haben, die Videostandbilder aufnehmen kann, brauchen Sie eine Lösung, mit der Sie alle paar Minuten ein Bild aufnehmen können. Auf Unix-Systemen verwenden Sie dazu cron. Auf Macs und PCs könnten Sie beispielsweise den Makrorecorder oder Programme verwenden, die Ihre Maus- und Tastaturbewegungen erkennen (vielleicht hat Ihre Video-Software auch einen Timer, obwohl ich das noch nie gesehen habe).


Copyright ©1998 by SAMS, einem Imprint der Markt&Technik Buch- und Software-Verlag GmbH.
Elektronische Fassung des Titels: HTML 4 in 14 Tagen, ISBN: 3-8272-2019-X


vorheriges KapitelTop Of PageInhaltsverzeichnisIndexInfoseitenächstes Kapitel