Digitales Video - Digital video

Digitales Video ist eine elektronische Darstellung bewegter visueller Bilder ( Video ) in Form von codierten digitalen Daten . Dies steht im Gegensatz zu analogem Video , das bewegte visuelle Bilder in Form von analogen Signalen darstellt . Digitales Video umfasst eine Reihe von digitalen Bildern, die in schneller Folge angezeigt werden.

Digitales Video wurde erstmals 1986 mit dem Sony D1- Format kommerziell eingeführt , das ein unkomprimiertes Standard-Definition- Component- Videosignal in digitaler Form aufzeichnete . Zu den gängigen komprimierten digitalen Videoformaten zählen heute neben unkomprimierten Formaten auch H.264 und MPEG-4 . Moderne Verbindungsstandards, die für die Wiedergabe von digitalem Video verwendet werden, umfassen HDMI , DisplayPort , Digital Visual Interface (DVI) und Serial Digital Interface (SDI).

Digitales Video kann ohne Qualitätsverlust kopiert und reproduziert werden. Im Gegensatz dazu kommt es beim Kopieren von analogen Quellen zu einem Generationsverlust . Digitales Video kann auf digitalen Medien wie Blu-ray-Discs oder Computerdatenspeichern gespeichert oder über das Internet an Endbenutzer gestreamt werden , die Inhalte auf einem Desktop-Computerbildschirm oder einem digitalen Smart-TV ansehen . Heute enthalten digitale Videoinhalte wie Fernsehsendungen und Filme auch einen digitalen Audio- Soundtrack.

Geschichte

Digitale Videokameras

Die Basis für digitale Videokameras sind Metall-Oxid-Halbleiter (MOS) -Bildsensoren . Der erste praktische Halbleiter -Bildsensor war das Charge-Coupled Device (CCD), das 1969 von Willard S. Boyle erfunden wurde, der für seine Arbeiten in Physik den Nobelpreis erhielt. basierend auf MOS-Kondensatortechnologie . Nach der Kommerzialisierung von CCD-Sensoren in den späten 1970er bis frühen 1980er Jahren begann die Unterhaltungsindustrie in den nächsten zwei Jahrzehnten langsam, von analogem Video auf digitale Bildgebung und digitales Video umzusteigen. Dem CCD folgte der in den 1990er Jahren entwickelte CMOS- Aktiv-Pixel-Sensor ( CMOS-Sensor ). CMOS sind aufgrund ihrer geringen Größe, ihrer hohen Geschwindigkeit und ihres geringen Stromverbrauchs von Vorteil. CMOS findet man heute am häufigsten in den Digitalkameras in iPhones, die als Bildzensur für das Gerät verwendet werden.

Eine Betacam SP-Kamera, die ursprünglich 1986 von Sony entwickelt wurde.

Digitale Videocodierung

Die frühesten Formen der digitalen Videocodierung begannen in den 1970er Jahren mit unkomprimiertem Pulscode-Modulation (PCM)-Video, das hohe Bitraten zwischen 45 und 140 Mbit/s für Standardauflösungsinhalte (SD) erforderte . Eine praktische digitale Videocodierung wurde schließlich mit der diskreten Kosinustransformation (DCT), einer Form der verlustbehafteten Komprimierung, ermöglicht . Die DCT-Komprimierung wurde erstmals 1972 von Nasir Ahmed vorgeschlagen und dann 1973 von Ahmed zusammen mit T. Natarajan und KR Rao an der University of Texas entwickelt . In den 1980er Jahren wurde DCT zum Standard für die digitale Videokomprimierung .

Der erste digitale Videocodierungsstandard war H.120 , der 1984 vom (International Telegraph and Telephone Consultative Committee) oder CCITT (jetzt ITU-T) geschaffen wurde. H.120 war aufgrund der schwachen Leistung nicht praktikabel. H.120 basierte auf differentieller Pulscode-Modulation (DPCM), einem Kompressionsalgorithmus, der für die Videocodierung ineffizient war. In den späten 1980er Jahren begannen eine Reihe von Unternehmen mit DCT zu experimentieren, einer viel effizienteren Form der Komprimierung für die Videocodierung. Das CCITT erhielt 14 Vorschläge für DCT-basierte Videokompressionsformate, im Gegensatz zu einem einzigen Vorschlag, der auf Vektorquantisierungs- (VQ)-Kompression basiert . Der H.261- Standard wurde basierend auf der DCT-Komprimierung entwickelt und wurde zum ersten praktischen Videocodierungsstandard. Seit H.261 wurde die DCT-Komprimierung von allen folgenden wichtigen Videocodierungsstandards übernommen.

MPEG-1 , entwickelt von der Motion Picture Experts Group (MPEG), folgte 1991 und wurde entwickelt, um Videos in VHS- Qualität zu komprimieren . Es wurde 1994 von MPEG-2 / H.262 abgelöst , das zum Standard-Videoformat für das digitale DVD- und SD- Fernsehen wurde . 1999 folgte MPEG-4 / H.263 , und 2003 folgte H.264/MPEG-4 AVC , der sich zum am weitesten verbreiteten Videocodierungsstandard entwickelt hat.

Digitale Videoproduktion

Ab Ende der 1970er bis Anfang der 1980er Jahre wurden Videoproduktionsgeräte eingeführt , die im Inneren digital waren. Dazu gehörten Zeitbasiskorrektoren (TBC) und digitale Videoeffekte (DVE). Sie arbeiteten, indem sie einen analogen Standard- Composite-Videoeingang nahmen und ihn intern digitalisierten. Dies machte es einfacher, das Videosignal entweder zu korrigieren oder zu verbessern, wie im Fall eines TBC, oder im Fall einer DVE-Einheit, das Video zu manipulieren und mit Effekten zu versehen. Die digitalisierten und verarbeiteten Videoinformationen wurden dann zur Ausgabe wieder in analoges Standardvideo umgewandelt.

Später in den 1970er Jahren, Hersteller von professioneller Video - Broadcast - Ausrüstung, wie zum Beispiel Bosch (durch ihre Fernseh Division) und Ampex entwickelten Prototyp digitale Videorecordern (VTR) in ihren Forschungs- und Entwicklungslabors. Die Maschine von Bosch verwendete einen modifizierten 1-Zoll-Videobandtransport vom Typ B und zeichnete eine frühe Form von CCIR 601- Digitalvideo auf. Der Prototyp des digitalen Videorekorders von Ampex verwendete einen modifizierten 2-Zoll-Quadruplex-Videoband- VTR (ein Ampex AVR-3), der mit einer benutzerdefinierten digitalen Videoelektronik und einem speziellen "Octaplex" 8-Kopf-Kopfrad ausgestattet war (normale analoge 2"-Quad-Maschinen verwendeten nur 4 Köpfe). Wie bei einem normalen 2"-Quad, nahm das Audio auf dem Ampex-Prototyp-Digitalgerät, das von seinen Entwicklern als "Annie" bezeichnet wurde, das Audio immer noch analog als lineare Spuren auf dem Band auf. Keine dieser Maschinen dieser Hersteller wurde jemals kommerziell vermarktet.

Digitales Video wurde erstmals 1986 mit dem Sony D1- Format kommerziell eingeführt , das ein unkomprimiertes Standard-Definition- Component- Videosignal in digitaler Form aufzeichnete . Komponentenvideoverbindungen erforderten 3 Kabel, aber die meisten Fernsehgeräte wurden mit einem Kabel für Composite-NTSC- oder PAL-Video verkabelt. Aufgrund dieser Inkompatibilität und der Kosten für den Rekorder wurde D1 hauptsächlich von großen Fernsehnetzen und anderen komponentenvideofähigen Videostudios verwendet.

Ein professionelles Fernsehstudio in Chile.

1988 entwickelten und veröffentlichten Sony und Ampex gemeinsam das digitale Videokassettenformat D2 , das Videos digital ohne Komprimierung im ITU-601- Format aufzeichnete , ähnlich wie D1. Im Vergleich dazu hatte D2 den Hauptunterschied in der Codierung des Videos in Composite-Form nach dem NTSC-Standard, wodurch nur Einkabel-Composite-Videoverbindungen zu und von einem D2-VCR erforderlich waren. Dadurch passte es perfekt zu den meisten Fernseheinrichtungen zu dieser Zeit. D2 war in den späten 80er und 90er Jahren ein erfolgreiches Format in der Fernsehbranche . D2 wurde in dieser Zeit auch häufig als Masterbandformat zum Mastern von Laserdiscs verwendet .

D1 & D2 wurden schließlich durch billigere Systeme mit Videokompression ersetzt , allen voran Sonys Digital Betacam , die in den Fernsehstudios des Netzwerks eingeführt wurden . Andere Beispiele für digitale Videoformate, die Kompression verwenden, waren das DCT von Ampex (das erste, das eine solche bei seiner Einführung im Jahr 1992 einsetzte), der Industriestandard DV und MiniDV und seine professionellen Varianten, Sonys DVCAM und Panasonics DVCPRO sowie Betacam SX , eine kostengünstigere Variante von Digital Betacam mit MPEG-2- Komprimierung.

Das Sony-Logo, Schöpfer der Betacam.

Eines der ersten digitalen Videoprodukte, das auf PCs lief, war PACo: Der PICS Animation Compiler von The Company of Science & Art in Providence, RI. Es begann im Jahr 1990 entwickelt und erstmals im Mai ausgeliefert 1991 PACO könnten aus einer einzigen Datei (mit der „.CAV“ mit synchronisiertem Ton unbegrenzter Länge Video - Stream - Dateierweiterung ) auf CD-ROM. Für die Erstellung war ein Mac erforderlich, und die Wiedergabe war auf Macs, PCs und Sun SPARCstations möglich .

QuickTime , das Multimedia-Framework von Apple Computer , wurde im Juni 1991 veröffentlicht. Audio Video Interleave von Microsoft folgte 1992. Die ersten Tools zur Erstellung von Inhalten auf Verbraucherebene waren grob und erforderten die Digitalisierung einer analogen Videoquelle in ein computerlesbares Format. Während die Qualität zunächst von geringer Qualität war, nahm die Qualität von Consumer-Digitalvideos schnell zu, zunächst mit der Einführung von Wiedergabestandards wie MPEG-1 und MPEG-2 (für die Verwendung in Fernsehübertragungen und DVD- Medien übernommen) und der Einführung des DV- Bandes -Format ermöglicht die direkte Übertragung von Aufnahmen im Format in digitale Videodateien über einen FireWire- Anschluss an einem Schnittcomputer. Dies vereinfachte den Prozess und ermöglichte den kostengünstigen und breiten Einsatz von nichtlinearen Schnittsystemen (NLE) auf Desktop-Computern, ohne dass externe Wiedergabe- oder Aufnahmegeräte erforderlich sind.

Die weit verbreitete Einführung von digitalem Video und begleitenden Komprimierungsformaten hat die für ein hochauflösendes Videosignal benötigte Bandbreite (mit HDV und AVCHD sowie mehreren kommerziellen Varianten wie DVCPRO- HD, die alle weniger Bandbreite als ein analoges Signal in Standardauflösung benötigen) reduziert ). Diese Einsparungen haben neben anderen Innovationen und Effizienzen die Anzahl der verfügbaren Kanäle auf Kabelfernseh- und Direktübertragungssatellitensystemen erhöht , Möglichkeiten zur Neuzuweisung des Spektrums terrestrischer Fernsehübertragungsfrequenzen geschaffen und bandlose Camcorder auf Flash-Speicherbasis ermöglicht.

Digitales Video und Kultur

Kulturell hat digitales Video dazu geführt, dass Video und Film weit verbreitet und beliebt geworden sind, was für Unterhaltung, Bildung und Forschung von Vorteil ist. Digitales Video wird in Schulen immer häufiger eingesetzt, wobei Schüler und Lehrer daran interessiert sind, zu lernen, wie man es auf relevante Weise verwendet. Digitales Video bietet auch Anwendungen für das Gesundheitswesen, mit denen Ärzte die Herzfrequenz und den Sauerstoffgehalt von Säuglingen verfolgen können.

Darüber hinaus wirkte sich der Wechsel von analogem zu digitalem Video auf verschiedene Weise auf die Medien aus, beispielsweise auf die Verwendung von Kameras für die Überwachung durch Unternehmen. Das Closed Circuit Television (CCTV) stellte auf die Verwendung digitaler Videorekorder (DVR) um und stellte die Frage, wie Aufzeichnungen für die Beweiserhebung gespeichert werden können. Heutzutage kann digitales Video komprimiert werden, um Speicherplatz zu sparen.

Digitales Fernsehen

Digitales Fernsehen , auch bekannt als DTV, ist die Produktion und Übertragung von digitalem Video von Netzwerken an Verbraucher. Diese Technik verwendet digitale Codierung anstelle von analogen Signalen, die vor den 1950er Jahren verwendet wurden. Im Vergleich zu analogen Verfahren ist DTV schneller und bietet mehr Möglichkeiten und Optionen für die Übertragung und gemeinsame Nutzung von Daten.

Überblick

Digitales Video umfasst eine Reihe von digitalen Bildern, die in schneller Folge angezeigt werden. Im Zusammenhang mit Videos werden diese Bilder als Frames bezeichnet . Die Rate, mit der Bilder angezeigt werden, wird als Bildrate bezeichnet und wird in Bildern pro Sekunde (FPS) gemessen. Jeder Frame ist ein digitales Bild und besteht somit aus einer Pixelformation . Pixel haben nur eine Eigenschaft, ihre Farbe. Die Farbe eines Pixels wird durch eine feste Anzahl von Bits dieser Farbe dargestellt. Je mehr Bits, desto subtilere Farbvariationen können reproduziert werden. Dies wird als Farbtiefe des Videos bezeichnet.

Verschachtelung

Bei Interlaced-Video besteht jeder Frame aus zwei Hälften eines Bildes. Die erste Hälfte enthält nur die ungeradzahligen Zeilen eines Vollbildes. Die zweite Hälfte enthält nur die geraden Zeilen. Diese Hälften werden einzeln als Felder bezeichnet . Zwei aufeinanderfolgende Halbbilder bilden ein Vollbild. Wenn ein Interlaced-Video eine Bildrate von 30 Bildern pro Sekunde hat, beträgt die Halbbildrate 60 Halbbilder pro Sekunde, obwohl beide Teile des Zeilensprungvideos, Bilder pro Sekunde und Halbbilder pro Sekunde separate Zahlen sind.

Eine Fernsehkamera im Pavek Museum in Minnesota.

Bitrate und BPP

Per Definition ist die Bitrate ein Maß für die Rate des Informationsinhalts aus dem digitalen Videostrom. Bei unkomprimiertem Video entspricht die Bitrate direkt der Qualität des Videos, da die Bitrate proportional zu jeder Eigenschaft ist, die die Videoqualität beeinflusst . Die Bitrate ist eine wichtige Eigenschaft bei der Videoübertragung, da die Übertragungsstrecke diese Bitrate unterstützen muss. Die Bitrate ist auch bei der Speicherung von Videos wichtig, da, wie oben gezeigt, die Videogröße proportional zur Bitrate und der Dauer ist. Die Videokomprimierung wird verwendet, um die Bitrate stark zu reduzieren, während die Qualität kaum beeinträchtigt wird.

Bits per Pixel (BPP) ist ein Maß für die Effizienz der Komprimierung. Ein True-Color-Video ohne jegliche Komprimierung kann eine BPP von 24 Bit/Pixel haben. Chroma-Subsampling kann den BPP auf 16 oder 12 Bit/Pixel reduzieren. Das Anwenden der JPEG- Komprimierung auf jeden Frame kann die BPP auf 8 oder sogar 1 Bit/Pixel reduzieren. Die Anwendung von Videokompressionsalgorithmen wie MPEG1 , MPEG2 oder MPEG4 ermöglicht die Existenz von fraktionierten BPP-Werten.

Konstante Bitrate versus variable Bitrate

BPP repräsentiert die durchschnittlichen Bits pro Pixel. Es gibt Kompressionsalgorithmen, die den BPP während der gesamten Dauer des Videos nahezu konstant halten. In diesem Fall erhalten wir auch eine Videoausgabe mit einer konstanten Bitrate (CBR). Dieses CBR-Video eignet sich für nicht gepuffertes Echtzeit-Videostreaming mit fester Bandbreite (zB bei Videokonferenzen). Da nicht alle Frames gleich komprimiert werden können, da die Qualität bei Szenen mit hoher Komplexität stärker beeinträchtigt wird, versuchen einige Algorithmen, den BPP ständig anzupassen. Sie halten den BPP hoch, während komplexe Szenen komprimiert werden, und niedrig für weniger anspruchsvolle Szenen. Auf diese Weise bietet es die beste Qualität bei der kleinsten durchschnittlichen Bitrate (und entsprechend der kleinsten Dateigröße). Dieses Verfahren erzeugt eine variable Bitrate, da es die Variationen des BPP verfolgt.

Technische Übersicht

Standardfilmmaterial zeichnet normalerweise mit 24 Bildern pro Sekunde auf . Für Video gibt es zwei Bildratenstandards: NTSC mit 30/1,001 (etwa 29,97) Bilder pro Sekunde (etwa 59,94 Halbbilder pro Sekunde) und PAL , 25 Bilder pro Sekunde (50 Halbbilder pro Sekunde). Digitale Videokameras gibt es in zwei verschiedenen Bilderfassungsformaten: Interlaced und Progressive Scan . Zeilensprungkameras zeichnen das Bild in abwechselnden Zeilensätzen auf: Die ungeradzahligen Zeilen werden abgetastet, dann werden die geraden Zeilen abgetastet, dann werden die ungeradzahligen Zeilen erneut abgetastet und so weiter.

Ein Satz ungerader oder gerader Zeilen wird als Halbbild bezeichnet , und eine aufeinanderfolgende Paarung zweier Halbbilder entgegengesetzter Parität wird als Rahmen bezeichnet . Progressive Scan-Kameras zeichnen alle Zeilen in jedem Bild als eine Einheit auf. Somit erfasst Interlaced-Video die Szenenbewegung doppelt so oft wie Progressive-Video bei gleicher Bildrate. Progressive Scan erzeugt im Allgemeinen ein etwas schärferes Bild, die Bewegung ist jedoch möglicherweise nicht so glatt wie bei Interlaced-Video.

Digitales Video kann ohne Generationsverlust kopiert werden; was die Qualität in analogen Systemen verschlechtert. Eine Änderung von Parametern wie der Bildgröße oder eine Änderung des digitalen Formats kann jedoch die Qualität des Videos aufgrund von Bildskalierungs- und Transkodierungsverlusten beeinträchtigen . Digitales Video kann auf nichtlinearen Bearbeitungssystemen manipuliert und bearbeitet werden.

Digitales Video hat deutlich geringere Kosten als 35-mm-Film. Im Vergleich zu den hohen Kosten für Filmmaterial sind die für die digitale Videoaufzeichnung verwendeten digitalen Medien wie Flash-Speicher oder Festplatten sehr günstig. Digitales Video ermöglicht auch das Betrachten von Filmmaterial vor Ort ohne die teure und zeitaufwändige chemische Verarbeitung, die bei Filmen erforderlich ist. Die Netzwerkübertragung von digitalem Video macht die physische Lieferung von Bändern und Filmrollen überflüssig.

Ein Diagramm eines 35-mm-Films, wie er in Cinemscope-Kameras verwendet wird.

Digitales Fernsehen (einschließlich HDTV in höherer Qualität ) wurde in den meisten Industrieländern Anfang der 2000er Jahre eingeführt. Heute wird digitales Video in modernen Mobiltelefonen und Videokonferenzsystemen verwendet. Digitales Video wird für die Internetverteilung von Medien verwendet, einschließlich Streaming-Video und Peer-to-Peer -Filmverteilung.

Es gibt viele Arten von Videokomprimierung , um digitales Video über das Internet und auf optischen Platten bereitzustellen. Die Dateigrößen von digitalem Video, die für die professionelle Bearbeitung verwendet werden, sind für diese Zwecke im Allgemeinen nicht praktikabel, und das Video erfordert eine weitere Komprimierung mit Codecs, die für Freizeitzwecke verwendet werden sollen.

Ab 2011 beträgt die höchste für die digitale Videoerzeugung demonstrierte Auflösung 35 Megapixel (8192 x 4320). Die höchste Geschwindigkeit wird in industriellen und wissenschaftlichen Hochgeschwindigkeitskameras erreicht , die in der Lage sind, Videos von 1024 x 1024 mit bis zu 1 Million Bildern pro Sekunde für kurze Aufnahmezeiten zu filmen.

Technische Eigenschaften

Digitales Live-Video verbraucht Bandbreite. Aufgezeichnetes digitales Video verbraucht Datenspeicher. Die erforderliche Bandbreite bzw. Speicherkapazität wird durch die Bildgröße, Farbtiefe und Bildrate bestimmt. Jedes Pixel verbraucht eine Anzahl von Bits, die durch die Farbtiefe bestimmt wird. Die zum Darstellen eines Datenrahmens erforderlichen Daten werden durch Multiplizieren mit der Anzahl der Pixel im Bild bestimmt. Die Bandbreite wird durch Multiplizieren des Speicherbedarfs für einen Frame mit der Framerate bestimmt. Der Gesamtspeicherbedarf für ein Programm kann dann durch Multiplizieren der Bandbreite mit der Dauer des Programms bestimmt werden.

Diese Berechnungen sind für unkomprimiertes Video genau , aber aufgrund der relativ hohen Bitrate von unkomprimiertem Video wird die Videokomprimierung häufig verwendet. Bei komprimiertem Video benötigt jeder Frame nur einen kleinen Prozentsatz der ursprünglichen Bits. Beachten Sie, dass es nicht notwendig ist, dass alle Frames gleich um denselben Prozentsatz komprimiert werden. Betrachten Sie stattdessen den durchschnittlichen Komprimierungsfaktor für alle Frames zusammen.

Schnittstellen und Kabel

Speziell entwickelte digitale Videoschnittstellen

Universalschnittstellen zur Übertragung von digitalem Video

Die folgende Schnittstelle wurde für die Übertragung von komprimiertem MPEG- Transport-Video entwickelt:

Komprimierte Video wird auch unter Verwendung UDP - IP über Ethernet . Dafür gibt es zwei Ansätze:

Andere Methoden zum Übertragen von Video über IP

Speicherformate

Codierung

  • CCIR 601 verwendet für Rundfunkstationen
  • MPEG-4 gut für die Online-Verteilung von großen Videos und Videos, die im Flash-Speicher aufgezeichnet wurden
  • MPEG-2 wird für DVDs, Super-VCDs und viele Fernsehformate verwendet
  • MPEG-1 für Video-CDs
  • H.261
  • H.263
  • H.264, auch als MPEG-4 Part 10 oder als AVC bekannt , wird für Blu-ray-Discs und einige Fernsehformate verwendet
  • Theora für Videos auf Wikipedia verwendet

Bänder

  • Betacam SX , Betacam IMX , Digital Betacam oder DigiBeta — kommerzielle Videosysteme von Sony , basierend auf der ursprünglichen Betamax- Technologie
  • D-VHS — Daten im MPEG-2-Format, die auf einem S-VHS- ähnlichen Band aufgezeichnet wurden
    Ein archiviertes B-Format-Videoband, das im dänischen Rundfunk verwendet wird.
  • D1 , D2 , D3 , D5 , D9 (auch bekannt als Digital-S) – verschiedene kommerzielle SMPTE- Digitalvideostandards
  • Digital8 — Daten im DV-Format, die auf Hi8- kompatiblen Kassetten aufgezeichnet wurden ; weitgehend ein Consumer-Format
  • DV , MiniDV — wird in den meisten heutigen Videoband-basierten Consumer-Camcordern verwendet; entworfen für hohe Qualität und einfache Bearbeitung; kann auch High-Definition-Daten ( HDV ) im MPEG-2-Format aufnehmen
  • DVCAM , DVCPRO — wird im professionellen Sendebetrieb verwendet; ähnlich wie DV, aber allgemein als robuster angesehen; Obwohl DV-kompatibel, haben diese Formate eine bessere Audioverarbeitung.
  • DVCPRO 50, DVCPRO HD unterstützen im Vergleich zu Panasonics DVCPRO höhere Bandbreiten.
  • HDCAM wurde von Sony als High-Definition-Alternative zu DigiBeta eingeführt.
  • MicroMV — MPEG-2-Format-Daten, die auf einer sehr kleinen Kassette in Streichholzschachtelgröße aufgezeichnet sind; obsolet
  • ProHD – Name, der von JVC für seine MPEG-2-basierten professionellen Camcorder verwendet wird

Discs

Die Blu-ray-Disc, eine Art optischer Disc, die zur Medienspeicherung verwendet wird.

Siehe auch

Anmerkungen

Verweise

Externe Links