Zum Inhalt springen

„Videokamera“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Änderungen von 217.224.153.148 (Beiträge) rückgängig gemacht und letzte Version von 84.190.11.79 wiederhergestellt
typo
 
(186 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden)
Zeile 1: Zeile 1:
[[Datei:Betacam SP camera.jpg|mini|Videokamera (Sony [[Betacam]] SP)]]
Eine '''Videokamera''' ist ein Aufzeichnungsgerät, bei dem die Bildaufnahmen in elektrische Signale umgewandelt werden, im Gegensatz zur [[Filmkamera]], die auf [[Fotografie|fotografischer]] Technik basiert. Zur Aufzeichnung des Tones muss noch ein [[Mikrofon]] verwendet werden, welches jedoch oft bereits integriert ist.
Eine '''Videokamera''' ist ein Gerät zur Aufnahme von Bildern in Form elektrischer Signale. Im Gegensatz zur [[Filmkamera]], die auf [[Fotografie|fotografischer]] Technik basiert, lassen sich die elektronisch gespeicherten Bildsignale sofort wieder als Bilder sichtbar machen.

Eine Videokamera mit integriertem [[Videorekorder]] nennt man [[Camcorder]].


Zur Aufzeichnung des Tones ist bei [[Consumer]]- und [[Prosumer]]-Modellen ein [[Mikrofon]] integriert; professionelle Kameras (z. B. für Broadcasting) haben stattdessen [[Steckverbindung|Anschlussbuchsen]]. Daran werden je nach Aufnahmesituation unterschiedlich spezialisierte Mikrofone angeschlossen. Im weiteren Sinne werden auch [[Digitalkamera]]s als [[Still-Video-Kamera|Video-Kameras]] bezeichnet. Auch viele [[Smartphone]]s können Videos aufnehmen. Eine Videokamera mit integriertem [[Videorekorder]] nennt man [[Camcorder]].


== Bildaufnehmer ==
== Bildaufnehmer ==
=== CCD-Chip ===
[[CCD-Sensor|CCDs]] stellten einen wichtigen Schritt zur Verkleinerung von Videokameras dar. Inzwischen übertreffen sie die Qualität von [[Ikonoskop]]en deutlich. Bei besonders hochwertigen Kameras werden die Bildsensoren gekühlt und ermöglichen damit wesentlich rauschärmere Bilder. Billige Kameras haben keine [[Blende (Optik)|Blende]], sondern regeln die Belichtung über die Ladungszeit.

Je größer die Fläche des eingesetzten [[Bildsensor]]s, desto mehr Licht kann „eingefangen“ werden. Dadurch steigt die Lichtempfindlichkeit des eingesetzten Chips, das besonders bei schlechten Lichtverhältnissen auftretende Bildrauschen verringert sich. Gängige Größen sind {{Bruch|6}}[[Zoll (Einheit)|″]],{{Bruch|4}}″, {{Bruch|3,4}}″, {{Bruch|3}}" oder {{Bruch|2}}" (1″ = 2,54 cm).
Die Auflösung des Bildwandlers sagt nicht unbedingt etwas über die tatsächlich gebotene Auflösung aus. Die Pixelangabe auf dem Gehäuse bezieht sich meist auf die reine Fotofunktion. Welche Anzahl für Videoaufnahmen verwendet wird, wird meist nicht so deutlich hervorgehoben.

Ein Teil der angegebenen Pixel wird gerne für den digitalen Bildstabilisator verwendet. Interessant ist hier immer nur die Netto-Pixelmenge, die tatsächlich zum Filmen verwendet wird. Üblicherweise liegen diese Werte im Megapixel-Bereich oder knapp darunter. 800.000 Pixel ist ein üblicher Wert für PAL-Kameras. Bei diesen können ohnehin nur 720×576 Pixel gespeichert werden (europäische PAL-Norm).
Bei hochwertigen Kameras und professionellen Geräten zur Filmproduktion, wie [[HDCAM]], werden drei {{Bruch|2|3}}″-Sensoren mit jeweiligen Auflösungen von deutlich über 2.000.000 Pixel eingesetzt.

=== CMOS-Sensoren ===
Diese Art der Bildaufnehmer, auch als [[Active Pixel Sensor]] bekannt, nutzt die [[Complementary Metal Oxide Semiconductor|CMOS]]-Technik. Diese Sensoren waren anfangs vor allem in sehr billigen Kameras zu finden. Nach der inzwischen stattgefundenen Weiterentwicklung werden sie aber auch für anspruchsvolle Beobachtungsaufgaben und für die Bildverarbeitung genutzt.
Der CMOS-Chip nimmt das Bild kontinuierlich auf, kann also zu beliebiger Zeit ausgelesen werden. Die Zahl der Bilder pro Sekunde hängt davon ab, wie hoch die Pixel-Frequenz und die Zahl der Pixel des ausgelesenen Bildausschnittes sind, liegt aber höher als beim CCD-Chip. Einzelne Pixel können in ihrer Funktionalität programmiert und einzeln oder in Gruppen ausgelesen werden. Die Dynamik (die Spannweite zwischen dem schwächsten und dem stärksten noch einwandfrei aufgenommenen Signal) des CMOS-Chips liegt bedeutend höher als beim CCD-Chip, extreme Beleuchtungssituationen (z. B. aufgeblendete Autoscheinwerfer nachts in einem unbeleuchteten Tunnel) können mit bisher nicht erreichter Präzision dargestellt werden. Der sogenannte [[Smear]]-Effekt tritt bei CMOS-Sensoren kaum oder überhaupt nicht auf.
Darüber hinaus zeichnet sich die CMOS-Technik durch geringen Stromverbrauch und hohe Bildübertragungsraten aus (bis zu 300 kb/s gegenüber 100 kb/s bei der CCD-Technik). Trotz dieser beachtlichen Vorzüge ist die CMOS-Technik der CCD-Technik nicht in jeder Beziehung überlegen.


=== Nipkow-Scheibe ===
=== Nipkow-Scheibe ===
Die ersten Kameras basierten auf der sogenannten [[Nipkow-Scheibe]]. Dies war eine runde Scheibe mit etwa 30 Löchern die in Form einer Spirale angeordnet waren. Verfolgt man nun die Bahn der Löcher, so stellt man fest, dass diese immer einen kleinen, fast rechteckigen Bereich abtasten. Dort wandert ein Loch immer in eine Richtung, um am Rand zu verschwinden. Dann taucht das nächste Loch etwas weiter "unten" auf, und tastet die nächste Zeile ab.
Die ersten Videokameras basierten auf der sogenannten [[Nipkow-Scheibe]]. Das ist eine runde Scheibe mit etwa 30 Löchern, die in Form einer Spirale angeordnet sind. Das Bild wird auf einen rechteckigen Bereich der Scheibe projiziert. Die Bahn der Löcher in diesem Bereich bewirkt eine zeilenweise Abtastung des Bildes: ein Loch wandert immer in eine Richtung, um am Rand zu verschwinden. Dann taucht das nächste Loch etwas weiter unten auf und tastet die nächste Zeile ab. Das gesamte hindurchtretende Licht liefert somit das Videosignal und wird mit einem schnellen Fotoempfänger ([[Fotozelle]]) aufgenommen.
Mehr Informationen zu diesem Thema findet man unter [[Mechanisches Fernsehen]].
{{Hauptartikel|Mechanisches Fernsehen}}


=== Ikonoskop ===
=== Ikonoskop ===
Das [[Ikonoskop]] (griechisch) ist eine Fernsehaufnahmeröhre, die von Wladimir K. Zworykin 1923 erfunden wurde und die eine Schicht aus mikroskopisch kleinen Photozellen enthält, die durch einen Elektronenstrahl abgetastet werden. Das Ikonoskop löste mechanische Abtastverfahren ab.
Das [[Ikonoskop]] (griechisch) ist eine Fernsehaufnahmeröhre, die von Wladimir K. Zworykin 1923 erfunden wurde und die eine Schicht aus mikroskopisch kleinen Photozellen enthält, die durch einen Elektronenstrahl abgetastet werden. Es löste mechanische Abtastverfahren ab. Später wurde die Ikonoskoptechnik weiter verbessert und noch bis in die 1990er-Jahre verwendet.
Später wurde die Ikonoskoptechnik weiter verbessert und noch bis in die [[1990er]] Jahre verwendet.


=== Vidicon ===
=== Vidicon ===
Das [[Vidicon]]-System arbeitet ebenfalls mit einer Röhre und kommt weiterhin für Spezialanwendungen zum Einsatz.
Das [[Vidicon]]-System arbeitet ebenfalls mit einer [[Kathodenstrahlröhre]] und kommt auch heute noch bei Spezialanwendungen (Medizin, strahlenbelastete Orte) zum Einsatz.


Mehr Informationen zu Bildabtast-Elektronenröhren finden sich im Artikel [[Bildaufnahmeröhre]].
=== CCD-Chip ===
[[Charge-coupled Device|CCDs]] stellten einen wichtigen Schritt zur Verkleinerung von Videokameras dar. Inzwischen übertreffen Sie die Qualität von Ikonoskopen deutlich. Bei besonders hochwertigen Kameras werden hierzutage die Chips stark abgekühlt. Dies ermöglicht extrem Rauscharme Bilder, deren Rauschen selbst nach einer Verstärkung um 16 dB kaum wahrnehmbar sein soll.
Billige Kameras haben keine Blende, sondern können die Ladungszeit als Helligkeitsregulierung verwenden.


== Einzug ins Filmgeschäft ==
Je größer die Fläche des eingesetzten Chips, desto mehr Licht kann "eingefangen" werden. Dadurch steigt die Lichtempfindlichkeit des eingesetzten Chips auch bei schlechten Lichtverhältnissen und das Bildrauschen verringert sich. Gängige Größen sind 1/6",1/4" oder 1/3,4" (1"=2,54 cm).
[[Datei:13-06-07 RaR Fujinon film camera.jpg|mini|Professionelle Videokamera bei einem Rockkonzert]]
Doch Vorsicht ist bei der angegebenen Größe des Chips geboten. Die Pixelangabe auf dem Gehäuse bezieht sich meist auf die reine Fotofunktion, welche Anzahl für die Filmerei verwendet wird, verschweigt der Hersteller gerne und selbst auf den Produktseiten lassen sich diese Angaben nicht finden. Kommt auch noch ein digitaler Bildstabilisator ins Spiel, bleibt von der angegebenen Pixelanzahl oft nicht mehr viel übrig. Interessant ist hier die Netto-Pixelmenge, die tatsächlich zum Filmen verwendet wird.
Ab dem Jahr 2000 wurden Camcorder verfügbar, die auf Filmproduktion ausgerichtet waren, als wichtigste Gruppe die Geräte nach der [[HDCAM]]-Norm. Sie kosten als System fünf- bis sechsstellige Summen und wurden von einigen Regisseuren, Produzenten und Kameraleuten eingesetzt. Diese [[Digitale Kinokamera|digitalen Kinokameras]] unterscheiden sich von ihren Artgenossen für TV-Produktion und Privatanwender enorm.
Es kommen sowieso "nur" 414.000 Pixel auf das Speichermedium, da die europäische Norm PAL-Format ist und dieses 768 x 576 Pixel vorschreibt (ca. 414.000 Pixel). Der Rest wird für den digitalen Stabilisator und die Fotofunktion verwendet.


Für digitale Kinokameras werden inzwischen<!-- Stand wann?? --> CMOS-Sensoren mit über zwölf Megapixel eingesetzt, und die Sensoren haben S-35-mm-Filmbild-Größe. Beispiele sind [[Arnold & Richter Cine Technik|ARRI]] D-20, [[Dalsa]] oder [[Red Digital Cinema Camera Company|RED]].
Achten Sie darauf, dass nicht zu viele Pixel auf einem CCD gequetscht sind; sie lassen das Bild lichtschwächer werden.

=== CMOS-Sensoren ===
Diese Art der Bildaufnehmern nutzt die [[Complementary Metal Oxide Semiconductor]]-Technik. Diese Technik war anfangs vor allem in sehr billigen Kameras zu finden. Nach der inzwischen stattgefundenen Weiterentwicklung wird sie aber auch für anspruchsvolle Beobachtungsaufgaben und für die Bildverarbeitung genutzt.
Der CMOS-Chip nimmt das Bild kontinuierlich auf, kann also zu beliebiger Zeit ausgelesen werden. Die Zahl der Bilder pro Sekunde hängt davon ab, wie hoch die Pixel-Frequenz und die Zahl der Pixel des ausgelesenen Bildausschnittes sind, liegt aber höher als beim CCD-Chip. Einzelne Pixel können in ihrer Funktionalität programmiert und einzeln oder in Gruppen ausgelesen werden. Die Dynamik (die Spannweite zwischen dem schwächsten und dem stärksten noch einwandfrei aufgenommenen Signal) des CMOS-Chips liegt bedeutend höher als beim CCD-Chip, extreme Beleuchtungssituationen (z.B. aufgeblendete Autoscheinwerfer nachts in einem unbeleuchteten Tunnel) können mit bisher nicht erreichter Präzision dargestellt werden. Zudem zeichnet sich die CMOS-Technik durch geringen Stromverbrauch und hohe Bildübertragungsraten aus (bis zu 300 Kb/s gegenüber 100 Kb/s bei der CCD-Technik). Trotz dieser beachtlichen Vorzüge ist die CMOS-Technik der CCD-Technik nicht in jeder Beziehung überlegen, so ist z.B. das [[Signal-Rausch-Verhältnis]] schlechter und der menschliche Betrachter empfindet die Bildqualität als deutlich schlechter, als er dies von CCD-Kameras gewöhnt ist. Bei Messaufgaben (Bildverarbeitung) spielt dies aber keine Rolle.


== Farbtrennung ==
== Farbtrennung ==
Um ein farbiges Videosignal zu erzeugen benötigt man 2 oder besser 3 Farbkomponenten.
Um ein farbiges Videosignal zu erzeugen, benötigt man drei Farbkomponenten (rot, grün, blau). Das Verfahren ist auch aus der [[Farblehre]] als [[RGB-Farbraum|RGB]] oder [[additive Farbmischung]] bekannt.


=== optische Farbtrennung ===
=== Auftrennung in 3 monochrome Bilder ===
[[Datei:MiniDVKameraPanasonicNV-GS500MitWeitwinkel.jpg|mini|3-Chip-[[Camcorder]] [[Panasonic]] NV-GS500 (mit separatem [[Weitwinkel]]-Vorsatz; Schriftzug „3CCD“ vorne erkennbar)]]
Die offensichtlichste Weise diese zu erzeugen ist es, einfach 3 Bildaufnehmer über eine Optik zu koppeln, die auch die Farbtrennung übernimmt. Solche 3-Chip-Kameras verteilen das durch das Objektiv fallende Licht über ein Prisma auf drei monochrome CCD-Chips. Durch Farbfilter auf dem Prisma wird erreicht, dass ein Chip die Grünanteile aufnimmt, die anderen beiden jeweils rot bzw. blau.
Die offensichtlichste Weise, die Farbtrennung zu erreichen, ist es, drei Bildaufnehmer für je eine Farbe zu verwenden („Drei-Chipper“) und sie über eine Optik zu koppeln, die mit [[Filter (Optik)|Filtern]] auch die Farbtrennung übernimmt. Im Zeitalter der Vidicons war das Verfahren gebräuchlich. Heutige 3-Chip-Kameras verteilen das durch das Objektiv fallende Licht über Prismen bzw. Teilerspiegel auf drei monochrome CCD-Chips. Durch Farbfilter wird erreicht, dass ein Chip die Grünanteile aufnimmt, die anderen beiden jeweils Rot bzw. Blau. Dieses Verfahren führt zu sehr hochwertigen Bildern und wird daher im professionellen Bereich verwendet.
Dieses Verfahren führt zu sehr hochwertigen Bildern und wird somit im professionellen Bereich verwendet.


=== sequenzielle Farbtrennung ===
=== Farbtrennung auf Pixelebene ===
Insbesondere bei preiswerten Kameras („Ein-Chipper“) wird ein anderes Verfahren verwendet. Der Bildaufnehmer-Chip trägt vor jedem Pixel abwechselnd Farbfilter der jeweiligen Farbe, so dass unterschiedliche nebeneinanderliegende Bildpunkte unterschiedliche Farbanteile aufnehmen. Eine Elektronik erzeugt daraus ein Farb-Videosignal. Die erforderliche höhere Pixelzahl (pro Bildpunkt 2&nbsp;×&nbsp;grün, 1&nbsp;×&nbsp;rot, 1&nbsp;×&nbsp;blau) führt meist zu einer schlechteren Auflösung; in jedem Fall aber ist die Farbdarstellung nicht so genau wie bei 3-Chip-Kameras. Ein Bildaufnehmer, der dieses Verfahren nutzt, ist der [[Bayer-Sensor]].


=== Sequenzielle Farbtrennung ===
Vorher experimentierte man mit sequenzieller Farbe. Ein drehbarer Farbfilter sollte abwechselnd die 3 Farbkomponenten herrausfiltern. Dreht sich ein gleicher Filter synchron beim Empfänger, so entsteht auch ein Farbbild. Diese Versuche wurden aber bald eingestellt.
In der [[Raumfahrt]] verwendet man solche Farbfilter noch, da hier sehr viele Frequenzbereiche benötigt werden.
Vorher experimentierte man mit sequenzieller Farbtrennung. Ein sich drehender Farbfilter filterte abwechselnd die drei Farbkomponenten heraus. Dreht sich ein gleicher Filter synchron beim Empfänger vor einer weiß leuchtenden Wiedergaberöhre, so entsteht dort für das Auge ein Farbbild. Diese Versuche wurden aber bald eingestellt. In der [[Raumfahrt]] verwendet man solche Farbfilter noch, da hier sehr viele Frequenzbereiche benötigt werden.


=== andere Verfahren. ===
=== Vergleich 1-Chip- und 3-Chip-CCD-Verfahren ===
Nach dem [[Phase Alternating Line|PAL]]-Format werden auf dem Fernsehbildschirm 720&nbsp;×&nbsp;576&nbsp;Bildpunkte dargestellt. Um die vollständige Information im Camcorder zu speichern, müsste der Chip mindestens über 414.720×3&nbsp;Bildpunkte verfügen. Da die Bildpunkte bei PAL länglich sind, werden allerdings tatsächlich 768&nbsp;×&nbsp;576 der stets quadratischen CCD/CMOS-Pixel, insgesamt also 442.368&nbsp;×&nbsp;3&nbsp;Pixel benötigt, die dann auf 720&nbsp;×&nbsp;576 umgerechnet werden. Bei 16:9-Aufzeichnung sind 1024&nbsp;×&nbsp;576 = 589.824&nbsp;×&nbsp;3&nbsp;Pixel notwendig, die ebenfalls in 720&nbsp;×&nbsp;576 Bildpunkte, jedoch [[Anamorphotisches Verfahren|anamorphotisch]] gestaucht, umgerechnet werden. (Anm.: Da Bildsensoren i.&thinsp;d.&thinsp;R. ein Seitenverhältnis von 4:3 aufweisen, müssen in 16:9-fähige Kameras tatsächlich Bildsensoren eingebaut werden, die 1024 (horizontale Auflösung von 16:9 PAL)&nbsp;×&nbsp;768&nbsp;({{Bruch|3|4}} von 1024)&nbsp;= 786.432 Pixel haben. Hat der Sensor weniger Pixel, kann man annehmen, dass kein echtes 16:9 Bild erzeugt wird, sondern ein Ausschnitt aus dem 4:3-Bild skaliert wird (blow up).) Die Anzahl muss mit drei multipliziert werden, da ein Bildpunkt nicht die komplette Farbinformation, sondern nur Helligkeitsunterschiede wahrnehmen kann. Bei einem 3-Chip-Modell werden die Farben über ein [[Prisma (Optik)|Prisma]] in die Anteile Rot, Grün und Blau ([[RGB-Farbraum|RGB]]) zerlegt und auf die drei Chips verteilt. Ohne Berücksichtigung eines digitalen Bildstabilisators würde diese Pixelanzahlen ausreichen, alle benötigten Bildinformationen auf einen Fernsehbildschirm wiederzugeben.
Bei besonders preiswerten Kameras wird allerdings ein anderes Verfahren verwendet. Dort werden die Bildaufnehmer so genutzt, dass unterschiedliche nebeneinanderliegende Bildpunkte unterschiedliche Farbanteile aufnehmen. Eine Elektronik trennt diese Anteile. Dies führt zu einer schlechteren Auflösung. Eines dieser Verfahren ist der [[Bayer-Sensor]].


Bei einem 1-Chip-Modell geschieht die Bildspeicherung auf andere Weise. Da jeder CCD-Bildpunkt nur Helligkeitsunterschiede wahrnimmt, wird vor jedem Bildpunkt ein Farbfilter ([[Bayer-Sensor|Bayerfilter]]) entweder mit Grün, Rot oder Blau gesetzt. Das DV-Signal wird im [[Verhältnis (Mathematik)|Verhältnis]] 4:2:0 ([[YCbCr]]-Farbmodell) aufgezeichnet. Mit Y wird die Luma-Komponente bezeichnet, welche nur die Helligkeit speichert. U und V bezeichnen die Farbdifferenzkomponenten (Chroma). Das bedeutet, dass für jedes Pixel die Helligkeit und für vier Pixel zusammen lediglich ein Farbwert gespeichert werden. Da das menschliche Auge auf Helligkeitsunterschiede wesentlich empfindlicher reagiert als auf Farbunterschiede, kann diese Reduktion ohne große Verluste vorgenommen werden.
=== Vergleich 1 und 3 Chip CCD Verfahren ===


Rechnerisch ergibt sich für eine Darstellung eine Pixelmenge von 720&nbsp;×&nbsp;576×&nbsp;{{Bruch|3|2}}&nbsp;=&nbsp;622.080. Es muss mit drei multipliziert werden, da für jede Farbe drei Bildpunkte notwendig sind. Durch die Reduktion (4:2:0) ins YCbCr-Farbmodell wird wieder die Hälfte (Division durch 2) eingespart.
Nach dem [[Phase Alternating Line|PAL]]-Format (amerikanisch: [[NTSC]]-Format) werden auf dem Fernsehbildschirm 720*576 Bildpunkte dargestellt. Um die vollständige Information im Camcorder zu speichern, müßte der Chip mindestens über 414720 *3 Bildpunkte verfügen. Die Anzahl muß mit 3 multipliziert werden, da ein Bildpunkt nicht die komplette Farbinformation, sondern nur Helligkeitsunterschiede wahrnehmen kann. Bei einem 3-Chip-Modell werden die Farben über ein [[Prisma (Optik)|Prisma]] in die Anteile Rot, Grün und Blau ([[RGB]]) zerlegt und auf die 3 Chips verteilt. Ohne Berücksichtigung eines digitalen Bildstabilisators würde diese Pixelanzahl ausreichen, alle benötigten Bildinformationen auf einen Fernsehbildschirm wiederzugeben.


Kommt ein digitaler Bildstabilisator zum Einsatz, kann sich die erforderliche Pixelmenge nochmals um 60 % oder mehr steigern.
Da bei der Berechnung der notwendigen Pixelanzahl von der Bildschirmauflösung am Fernseher ausgegangen wurde (Verhältnis 720/576=1,25), das Verhältnis tatsächlich aber 4:3=1,33 beträgt, ist mit einer höheren Pixelanzahl (768*576) des benötigten Chips zu rechnen, quadratische Pixel vorausgesetzt.


Der Vergleich zeigt, dass ein 1-Chip-Modell inzwischen durchaus gleiche Qualitäten erzeugen kann wie ein 3-Chip-Modell. Beim 1-Chip-Modell wird die recht aufwendige optische Bildaufteilung gespart. Bei immer höher auflösenden Sensoren&nbsp;- 2004 waren Chips mit mehr als 8 Millionen Pixel in der digitalen Fotografie keine Seltenheit&nbsp;- können 1-Chipper durchaus mit 3-Chip-Anordnungen konkurrieren.
Bei einen 1-Chip-Modell geschieht die Bildspeicherung auf andere Weise. Da jeder CCD-Bildpunkt nur Helligkeitsunterschiede wahrnimmt, wird vor jedem Bildpunkt ein Farbfilter (Bayerfilter) entweder mit Grün, Rot oder Blau gesetzt. Das DV-Signal wird im [[Verhältnis]] 4:2:0 ([[YUV]]-Farbraum) aufgezeichnet. Mit Y wird die Luma-Komponente bezeichnet, welche nur Helligkeitsunterschiede speichert und U und V bezeichnen die Farbdifferenzkomponenten (Chroma). Das bedeutet, dass für jeden Pixel die Helligkeit und für 4 Pixel lediglich ein Farbwert gespeichert werden. Da das menschliche Auge auf Helligkeitsunterschiede wesentlich empfindlicher reagiert als auf Farbunterschiede, kann diese Reduktion ohne große Verluste vorgenommen werden.


Bei gleichbleibender Chipgröße geht eine höhere Auflösung stets mit vermehrtem Bildrauschen einher. Bei ungünstigen Lichtverhältnissen kann sich die Situation ergeben, dass eine niedriger auflösende Kamera mit größerem Chip ein besseres Bild liefert als eine hochauflösende Kamera mit kleinem Chip. Eine Faustregel für den Kauf sagt: »den größten Bildwandler nehmen, den man kriegen kann«. 2005 ist das im Consumer- bis Prosumerbereich {{Bruch|3}}″ bis {{Bruch|2|3}}″.
Rechnerisch ergibt sich für eine Darstellung eine Pixelmenge von 720*576*3/2=622080. Es muß mit 3 multipliziert werden, da 3 Bildpunkte für jede Farbe notwendig sind. Durch die Reduktion (4:2:0) in den YUV-Farbraum wird wieder die Hälfte (Division durch 2) eingespart.

Kommt ein digitaler Bildstabilisator zum Einsatz, kann sich die erforderliche Pixelmenge nochmals um 60% oder mehr steigern.

Der Vergleich zeigt, das ein 1-Chip-Modell durchaus gleiche Qualitäten erzeugen kann wie ein 3-Chip-Modell. Beim 1-Chipper wird sogar die recht aufwendige Mimik mit Prismenaufbau gespart. Bei immer größeren Sensoren, heute (2004) sind Chips mit mehr als 8 Millionen Pixel in der digitalen Fotografie keine Seltenheit, dürften 1-Chipper durchaus eine Daseinsberechtigung haben.


== Bildstabilisator ==
== Bildstabilisator ==
;Elektronisch: Hier wird ein Wandlerchip eingesetzt, der störende Ruckler durch das Verschieben eines kleineren Bildausschnittes (Lesefenster) auf der großen Chipfläche ausgleicht. Die Netto-Chipauflösung ist jedoch deutlich kleiner als die vom Hersteller oft ausschließlich angegebene gesamte Chipauflösung.
*elektronisch:
;Optisch: Der optische Bildstabilisator ist der digitalen Stabilisierung vorzuziehen, weil die volle Auflösung des Bildwandlers für die Aufnahme zur Verfügung steht. Hier erfolgt der Ausgleich durch mechanisch (z.&nbsp;B. mit Magnetfeldern) bewegte „schwimmende“ Linsen, die den unerwünschten Bewegungen sensorgesteuert entgegenlaufen. Optische Bildstabilisatoren waren früher nur im oberen Preissegment zu finden, seit den 2010er Jahren gibt es leistungsfähige optische Bildstabilisatoren auch in sehr preiswerten Digitalkameras und Camcordern. Zur optischen Stabilisierung zählt auch die Sensor-Shift-Technologie. Bei dieser wird keine Linse, sondern der im Kamerabody befindliche Sensor zum Ausgleich der Kamerabewegungen verschoben. Dadurch kann, insbesondere bei System-Kameras, (fast) jedes beliebige Objektiv genutzt werden, weil keine Ausgleichslinse innerhalb des Objektivs gebraucht wird.
Dabei wird ein übergroßer Wandlerchip eingesetzt, der störende Ruckler durch das Verschieben eines kleineren Bildausschnittes (Lesefenster) auf der großen Chipfläche ausgleicht. Dabei kann die Netto-Chipauflösung jedoch deutlich kleiner ausfallen als die vom Hersteller gerne suggerierte, hervorgehoben durch die große Aufschrift auf dem Camcordergehäuse. Die Auflösung bezieht sich fast immer nur auf die Fotofunktion; eigentlich wollte man doch in erster Linie filmen und die Fotofunktion ist doch eher nettes Beiwerk.
;Kombiniert: Zusätzlich gibt es auch die (oft bei den technischen Daten nicht einmal erwähnte) Kombination von elektronischer und optischer Bildstabilisierung. Was die optische Stabilisierung noch an Unruhe übrig gelassen hat, wird dann von der elektronischen Stabilisierung weggebügelt. Dabei lassen sich nach einiger Übung Aufnahmen erreichen, welche denen mit einer [[Steadicam]]-Einrichtung (Schwebestativ) sehr ähneln.
*optisch:
Der optische Bildstabilisator ist der digitalen Stabilisierung vorzuziehen. Hier erfolgt ein Ausgleich durch Magnetfelder oder schwimmende Linsen, die den Bewegungen sensorgesteuert entgegenlaufen. Dadurch wird wertvolle Pixelfläche eingespart. Leider sind die optischen Bildstabilisatoren erst bei Camcordern im oberen Preissegment zu finden.


== Objektiv ==
== Objektiv ==
Das verwendete [[Objektiv (Optik)|Objektiv]] ist das wichtigste Bauteil zur Erzielung guter Ergebnisse. Auch die beste Elektronik wird nicht ausgleichen können, was bereits im Objektiv „verdorben“ wird (beispielsweise Unschärfen, Randabschattungen, Verzerrungen, [[chromatische Aberration]]en).
Das verwendete Objektiv spielt eine nicht unerhebliche Rolle zur Erzielung guter Resultate. Daher ist hier verstärkt auf gute Optiken zu achten. Wie bereits bei der Auflösung geben die Hersteller gerne den digitalen Zoombereich an, wichtiger wäre aber der optische Zoomfaktor. Ein zu großer Zoombereich verbessert auch nicht unbedingt die Filmqualität. Oft wird der bei den meisten Objektiven nur geringe Weitwinkelbereich unterschätzt. Zwar kann durch Verwendung von Vorsatzlinsen Abhilfe geschaffen werden, die Qualität wird durch solche Maßnahmen aber nicht besser. Außerdem kann die automatische Schärfenregelung des Camcorders beeinträchtigt werden.
Das Objektiv muss nicht nur die erforderliche Auflösung und Schärfe auf den Bildwandler projizieren, sondern darf zugleich auch nur sehr wenig oder kein Streulicht erzeugen. Das wird durch die [[Vergütung (Optik)|Vergütung]] der Linsen erreicht, erkennbar an einem bläulichen oder&nbsp;– seltener&nbsp;– bräunlichen Schimmer der Frontlinse.
Für den optischen Zoom werden [[Zoomobjektiv]]e verwendet; es gibt praktisch keine Videokameras mehr ohne optischen Zoom.
Ein digitaler Zoom ist nur eine elektronische Vergrößerung des vom Objektiv an den Bildwandler gelieferten Bildes. Dabei werden allerdings die Pixelstrukturen genauso vergrößert wie das eigentliche Motiv. Die Auflösung verringert sich je nach Vergrößerungsmaßstab bis hin zur Unbrauchbarkeit des digital gezoomten Bildes. Dagegen bietet der optische Zoom bei verschiedenen [[Zoomfaktor]]en stets dieselbe Auflösung.
Weil Weitwinkelobjektive aufwendiger konstruiert sind als andere Objektive, ist bei Videokameras der Weitwinkel- und Makrobereich meist nur sehr gering. Zwar kann durch Verwendung von Vorsatzlinsen Abhilfe geschaffen werden, die Bildqualität wird jedoch dadurch grundsätzlich schlechter. Brauchbare Weitwinkelvorsätze sind sehr teuer.
Die&nbsp;– so vorhanden&nbsp;– automatische Schärfenregelung kann durch Vorsätze an dem Objektiv beeinträchtigt werden.


== Softwareschnittstellen ==
== Bauformen ==
Es gibt viele verschiedene Bauformen von Camcordern, die vom Einsatzzweck und Preis mitbestimmt werden. Hier die wichtigsten Unterscheidungsmerkmale:


* Trage- und Haltungsbauform: Hier wird unterschieden zwischen Schulterkameras, die auf der Schulter geführt werden, und Handkameras, die vor dem Körper gehalten werden. Schulterkameras weisen an der Unterseite eine Ausformung zur Auflage auf der Schulter und einen entsprechenden, auf der Schulter liegenden Schwerpunkt auf. Der Auslöser befindet sich meist an einem Anbau vorne rechts, mit dem die Kamera zugleich mit der rechten Hand stabilisiert wird. Der Sucher ist seitlich angebracht. Handkameras sind in der Regel kompakter und leichter, der Sucher befindet sich meist am hinteren Ende der Kamera, der Auslöser an verschiedenen Stellen, entsprechend den Annahmen des Herstellers dazu, wie die Kamera gehalten werden soll.
Softwareschnittstellen zwischen Bildeingabegerät und Bildverarbeitungsprogramm


* Rekorderanbau: Bei der überwiegenden Anzahl von Camcordern bilden Kamerakopf (mit Aufnahmeelektronik und Bedienteil) und der Rekorderteil eine integrale Einheit. Bei anspruchsvolleren Kameras gibt es allerdings Modelle, bei denen der Rekorder an den Kopf angesteckt wird, und bei denen somit durch Rekordertausch auf verschiedene Medien aufgezeichnet werden kann.
[[SANE]]


* Wandel bei den Handkameras: Die neuere Entwicklung (Stand 06/2012) hat dazu geführt, dass selbst System-Digitalkameras, Bridge-Kameras und sogar „Pocket-“ oder „Traveller-Kameras“ (oft mit „Superzoom-Fähigkeiten“) zu den „Video-Kameras“ gezählt werden können. AVCHD-lite beherrschen selbst relativ billige Kameras, wogegen höherwertige Modelle mit FullHD bis hin zu 1920&nbsp;×&nbsp;1080&nbsp;Pixel mit 50p aufwarten können.
[[TWAIN]]
Mit dem Projekt ''CinePi'' steht zudem eine frei konfigurierbare Videokamera auf [[Raspberry Pi|Raspberry-Pi]]-Basis ([[4K (Bildauflösung)|4K]], [[Farbtiefe (Computergrafik)|16 Bit]] [[Digital Negative|DNG]]) als [[Open-Source-Hardware]] zum Nachbau zur Verfügung.<ref>{{Internetquelle |autor=Rudi Schmidts |url=https://www.slashcam.de/news/single/CinePI-RAW-Cine-Kamera-auf-Raspberry-Pi-Basis-mit--18613.html |titel=Jetzt 4K statt 2K: CinePI RAW-Cine Kamera auf Raspberry Pi Basis mit hoher Dynamik |werk=slashCam |datum=2024-05-30 |sprache=de |abruf=2025-04-11}}</ref><ref>{{Internetquelle |url=https://cinepi.io/ |titel=CinePI Camera Project |titelerg=Webseite mit Verweis auf Videobeispiele und [[technische Dokumentation]] |sprache=en |abruf=2025-04-11}}</ref>


== Elektrische und Softwareschnittstellen ==
==Siehe auch ==
Es gibt verschiedene Stufen der Vorverarbeitung des Bildsignales einer Videokamera. Den analogen und digitalen Datenformaten ist die serielle Ausgabe gemeinsam.


=== Analoge Ausgabe ===
* [[Video-Fachbegriffe]], [[Videoformat]], [[Bildauflösung]]
Zeilenweise Abtastung und Ausgabe der Helligkeitsinformationen aller (schwarz/weiß) oder der drei Einzelfarben sowie der Synchronsignale (Zeilen- und Bildsynchronsignal):
* Übertragung aller Informationen auf einer Leitung (mixed Signal oder [[composite Video]], [[Phase Alternating Line|PAL]]-kodiert)
* Ausgabe der drei Farbintensitäten und der Synchronsignale auf getrennten Leitungen


=== Digitale Ausgabe ===
Serielle digitale Datenschnittstellen für Videokameras sind z.&nbsp;B. [[FireWire]] (IEEE1394, bei Sony: iLink) oder [[USB]], sowie zur Übertragung unkomprimierter Daten über [[Serial Digital Interface|SDI]] und HD-SDI bzw. von komprimierten Daten [[Serial Data Transport Interface|SDTI]]. Weiterhin können die Daten auf eine [[Speicherkarte]] gespielt und diese anschließend entnommen und ausgelesen werden.

Zur Umwandlung analoger Videosignale in digitale Datenformate gibt es Adapter.

Softwareschnittstellen für ein Videosignal am Computer dienen der Anzeige, Weiterverarbeitung oder Speicherung der Bildsequenzen (Videos), Beispiele: [[Scanner Access Now Easy|SANE]], [[TWAIN]].

== Siehe auch ==
* [[Bildauflösung]]
* [[Koronakamera]]
* [[Liste von Videofachbegriffen]]
* [[Magnetaufzeichnung]]
* [[Videoformat]]
* [[Videojournalist]]
* [[Videoüberwachung]]

== Weblinks ==
{{Commonscat|Video cameras|Videokameras}}
{{Wiktionary|Videokamera}}
* [http://www.lusznat.de/cms1/index.php/kamera/lexikon-der-videokameras Lexikon professioneller Videokameras]
* [http://sappam.de/ Virtuelles Schmalfilm-Apparate-Museum]

== Einzelnachweise ==
<references />

{{Normdaten|TYP=s|GND=4136080-1}}


[[Kategorie:Videotechnik]]
[[Kategorie:Videotechnik]]
[[Kategorie:Kamera]]
[[Kategorie:Kamera]]

[[en:Professional video camera]]
[[fa:دوربین تلویزیون]]
[[fi:Videokamera]]
[[he:מצלמת וידאו]]
[[sv:Videokamera]]

Aktuelle Version vom 11. Juni 2025, 10:21 Uhr

Videokamera (Sony Betacam SP)

Eine Videokamera ist ein Gerät zur Aufnahme von Bildern in Form elektrischer Signale. Im Gegensatz zur Filmkamera, die auf fotografischer Technik basiert, lassen sich die elektronisch gespeicherten Bildsignale sofort wieder als Bilder sichtbar machen.

Zur Aufzeichnung des Tones ist bei Consumer- und Prosumer-Modellen ein Mikrofon integriert; professionelle Kameras (z. B. für Broadcasting) haben stattdessen Anschlussbuchsen. Daran werden je nach Aufnahmesituation unterschiedlich spezialisierte Mikrofone angeschlossen. Im weiteren Sinne werden auch Digitalkameras als Video-Kameras bezeichnet. Auch viele Smartphones können Videos aufnehmen. Eine Videokamera mit integriertem Videorekorder nennt man Camcorder.

CCDs stellten einen wichtigen Schritt zur Verkleinerung von Videokameras dar. Inzwischen übertreffen sie die Qualität von Ikonoskopen deutlich. Bei besonders hochwertigen Kameras werden die Bildsensoren gekühlt und ermöglichen damit wesentlich rauschärmere Bilder. Billige Kameras haben keine Blende, sondern regeln die Belichtung über die Ladungszeit.

Je größer die Fläche des eingesetzten Bildsensors, desto mehr Licht kann „eingefangen“ werden. Dadurch steigt die Lichtempfindlichkeit des eingesetzten Chips, das besonders bei schlechten Lichtverhältnissen auftretende Bildrauschen verringert sich. Gängige Größen sind 16,14″, 13,4″, 13" oder 12" (1″ = 2,54 cm). Die Auflösung des Bildwandlers sagt nicht unbedingt etwas über die tatsächlich gebotene Auflösung aus. Die Pixelangabe auf dem Gehäuse bezieht sich meist auf die reine Fotofunktion. Welche Anzahl für Videoaufnahmen verwendet wird, wird meist nicht so deutlich hervorgehoben.

Ein Teil der angegebenen Pixel wird gerne für den digitalen Bildstabilisator verwendet. Interessant ist hier immer nur die Netto-Pixelmenge, die tatsächlich zum Filmen verwendet wird. Üblicherweise liegen diese Werte im Megapixel-Bereich oder knapp darunter. 800.000 Pixel ist ein üblicher Wert für PAL-Kameras. Bei diesen können ohnehin nur 720×576 Pixel gespeichert werden (europäische PAL-Norm). Bei hochwertigen Kameras und professionellen Geräten zur Filmproduktion, wie HDCAM, werden drei 23″-Sensoren mit jeweiligen Auflösungen von deutlich über 2.000.000 Pixel eingesetzt.

Diese Art der Bildaufnehmer, auch als Active Pixel Sensor bekannt, nutzt die CMOS-Technik. Diese Sensoren waren anfangs vor allem in sehr billigen Kameras zu finden. Nach der inzwischen stattgefundenen Weiterentwicklung werden sie aber auch für anspruchsvolle Beobachtungsaufgaben und für die Bildverarbeitung genutzt. Der CMOS-Chip nimmt das Bild kontinuierlich auf, kann also zu beliebiger Zeit ausgelesen werden. Die Zahl der Bilder pro Sekunde hängt davon ab, wie hoch die Pixel-Frequenz und die Zahl der Pixel des ausgelesenen Bildausschnittes sind, liegt aber höher als beim CCD-Chip. Einzelne Pixel können in ihrer Funktionalität programmiert und einzeln oder in Gruppen ausgelesen werden. Die Dynamik (die Spannweite zwischen dem schwächsten und dem stärksten noch einwandfrei aufgenommenen Signal) des CMOS-Chips liegt bedeutend höher als beim CCD-Chip, extreme Beleuchtungssituationen (z. B. aufgeblendete Autoscheinwerfer nachts in einem unbeleuchteten Tunnel) können mit bisher nicht erreichter Präzision dargestellt werden. Der sogenannte Smear-Effekt tritt bei CMOS-Sensoren kaum oder überhaupt nicht auf. Darüber hinaus zeichnet sich die CMOS-Technik durch geringen Stromverbrauch und hohe Bildübertragungsraten aus (bis zu 300 kb/s gegenüber 100 kb/s bei der CCD-Technik). Trotz dieser beachtlichen Vorzüge ist die CMOS-Technik der CCD-Technik nicht in jeder Beziehung überlegen.

Die ersten Videokameras basierten auf der sogenannten Nipkow-Scheibe. Das ist eine runde Scheibe mit etwa 30 Löchern, die in Form einer Spirale angeordnet sind. Das Bild wird auf einen rechteckigen Bereich der Scheibe projiziert. Die Bahn der Löcher in diesem Bereich bewirkt eine zeilenweise Abtastung des Bildes: ein Loch wandert immer in eine Richtung, um am Rand zu verschwinden. Dann taucht das nächste Loch etwas weiter unten auf und tastet die nächste Zeile ab. Das gesamte hindurchtretende Licht liefert somit das Videosignal und wird mit einem schnellen Fotoempfänger (Fotozelle) aufgenommen.

Das Ikonoskop (griechisch) ist eine Fernsehaufnahmeröhre, die von Wladimir K. Zworykin 1923 erfunden wurde und die eine Schicht aus mikroskopisch kleinen Photozellen enthält, die durch einen Elektronenstrahl abgetastet werden. Es löste mechanische Abtastverfahren ab. Später wurde die Ikonoskoptechnik weiter verbessert und noch bis in die 1990er-Jahre verwendet.

Das Vidicon-System arbeitet ebenfalls mit einer Kathodenstrahlröhre und kommt auch heute noch bei Spezialanwendungen (Medizin, strahlenbelastete Orte) zum Einsatz.

Mehr Informationen zu Bildabtast-Elektronenröhren finden sich im Artikel Bildaufnahmeröhre.

Einzug ins Filmgeschäft

[Bearbeiten | Quelltext bearbeiten]
Professionelle Videokamera bei einem Rockkonzert

Ab dem Jahr 2000 wurden Camcorder verfügbar, die auf Filmproduktion ausgerichtet waren, als wichtigste Gruppe die Geräte nach der HDCAM-Norm. Sie kosten als System fünf- bis sechsstellige Summen und wurden von einigen Regisseuren, Produzenten und Kameraleuten eingesetzt. Diese digitalen Kinokameras unterscheiden sich von ihren Artgenossen für TV-Produktion und Privatanwender enorm.

Für digitale Kinokameras werden inzwischen CMOS-Sensoren mit über zwölf Megapixel eingesetzt, und die Sensoren haben S-35-mm-Filmbild-Größe. Beispiele sind ARRI D-20, Dalsa oder RED.

Um ein farbiges Videosignal zu erzeugen, benötigt man drei Farbkomponenten (rot, grün, blau). Das Verfahren ist auch aus der Farblehre als RGB oder additive Farbmischung bekannt.

Auftrennung in 3 monochrome Bilder

[Bearbeiten | Quelltext bearbeiten]
3-Chip-Camcorder Panasonic NV-GS500 (mit separatem Weitwinkel-Vorsatz; Schriftzug „3CCD“ vorne erkennbar)

Die offensichtlichste Weise, die Farbtrennung zu erreichen, ist es, drei Bildaufnehmer für je eine Farbe zu verwenden („Drei-Chipper“) und sie über eine Optik zu koppeln, die mit Filtern auch die Farbtrennung übernimmt. Im Zeitalter der Vidicons war das Verfahren gebräuchlich. Heutige 3-Chip-Kameras verteilen das durch das Objektiv fallende Licht über Prismen bzw. Teilerspiegel auf drei monochrome CCD-Chips. Durch Farbfilter wird erreicht, dass ein Chip die Grünanteile aufnimmt, die anderen beiden jeweils Rot bzw. Blau. Dieses Verfahren führt zu sehr hochwertigen Bildern und wird daher im professionellen Bereich verwendet.

Farbtrennung auf Pixelebene

[Bearbeiten | Quelltext bearbeiten]

Insbesondere bei preiswerten Kameras („Ein-Chipper“) wird ein anderes Verfahren verwendet. Der Bildaufnehmer-Chip trägt vor jedem Pixel abwechselnd Farbfilter der jeweiligen Farbe, so dass unterschiedliche nebeneinanderliegende Bildpunkte unterschiedliche Farbanteile aufnehmen. Eine Elektronik erzeugt daraus ein Farb-Videosignal. Die erforderliche höhere Pixelzahl (pro Bildpunkt 2 × grün, 1 × rot, 1 × blau) führt meist zu einer schlechteren Auflösung; in jedem Fall aber ist die Farbdarstellung nicht so genau wie bei 3-Chip-Kameras. Ein Bildaufnehmer, der dieses Verfahren nutzt, ist der Bayer-Sensor.

Sequenzielle Farbtrennung

[Bearbeiten | Quelltext bearbeiten]

Vorher experimentierte man mit sequenzieller Farbtrennung. Ein sich drehender Farbfilter filterte abwechselnd die drei Farbkomponenten heraus. Dreht sich ein gleicher Filter synchron beim Empfänger vor einer weiß leuchtenden Wiedergaberöhre, so entsteht dort für das Auge ein Farbbild. Diese Versuche wurden aber bald eingestellt. In der Raumfahrt verwendet man solche Farbfilter noch, da hier sehr viele Frequenzbereiche benötigt werden.

Vergleich 1-Chip- und 3-Chip-CCD-Verfahren

[Bearbeiten | Quelltext bearbeiten]

Nach dem PAL-Format werden auf dem Fernsehbildschirm 720 × 576 Bildpunkte dargestellt. Um die vollständige Information im Camcorder zu speichern, müsste der Chip mindestens über 414.720×3 Bildpunkte verfügen. Da die Bildpunkte bei PAL länglich sind, werden allerdings tatsächlich 768 × 576 der stets quadratischen CCD/CMOS-Pixel, insgesamt also 442.368 × 3 Pixel benötigt, die dann auf 720 × 576 umgerechnet werden. Bei 16:9-Aufzeichnung sind 1024 × 576 = 589.824 × 3 Pixel notwendig, die ebenfalls in 720 × 576 Bildpunkte, jedoch anamorphotisch gestaucht, umgerechnet werden. (Anm.: Da Bildsensoren i. d. R. ein Seitenverhältnis von 4:3 aufweisen, müssen in 16:9-fähige Kameras tatsächlich Bildsensoren eingebaut werden, die 1024 (horizontale Auflösung von 16:9 PAL) × 768 (34 von 1024) = 786.432 Pixel haben. Hat der Sensor weniger Pixel, kann man annehmen, dass kein echtes 16:9 Bild erzeugt wird, sondern ein Ausschnitt aus dem 4:3-Bild skaliert wird (blow up).) Die Anzahl muss mit drei multipliziert werden, da ein Bildpunkt nicht die komplette Farbinformation, sondern nur Helligkeitsunterschiede wahrnehmen kann. Bei einem 3-Chip-Modell werden die Farben über ein Prisma in die Anteile Rot, Grün und Blau (RGB) zerlegt und auf die drei Chips verteilt. Ohne Berücksichtigung eines digitalen Bildstabilisators würde diese Pixelanzahlen ausreichen, alle benötigten Bildinformationen auf einen Fernsehbildschirm wiederzugeben.

Bei einem 1-Chip-Modell geschieht die Bildspeicherung auf andere Weise. Da jeder CCD-Bildpunkt nur Helligkeitsunterschiede wahrnimmt, wird vor jedem Bildpunkt ein Farbfilter (Bayerfilter) entweder mit Grün, Rot oder Blau gesetzt. Das DV-Signal wird im Verhältnis 4:2:0 (YCbCr-Farbmodell) aufgezeichnet. Mit Y wird die Luma-Komponente bezeichnet, welche nur die Helligkeit speichert. U und V bezeichnen die Farbdifferenzkomponenten (Chroma). Das bedeutet, dass für jedes Pixel die Helligkeit und für vier Pixel zusammen lediglich ein Farbwert gespeichert werden. Da das menschliche Auge auf Helligkeitsunterschiede wesentlich empfindlicher reagiert als auf Farbunterschiede, kann diese Reduktion ohne große Verluste vorgenommen werden.

Rechnerisch ergibt sich für eine Darstellung eine Pixelmenge von 720 × 576× 32 = 622.080. Es muss mit drei multipliziert werden, da für jede Farbe drei Bildpunkte notwendig sind. Durch die Reduktion (4:2:0) ins YCbCr-Farbmodell wird wieder die Hälfte (Division durch 2) eingespart.

Kommt ein digitaler Bildstabilisator zum Einsatz, kann sich die erforderliche Pixelmenge nochmals um 60 % oder mehr steigern.

Der Vergleich zeigt, dass ein 1-Chip-Modell inzwischen durchaus gleiche Qualitäten erzeugen kann wie ein 3-Chip-Modell. Beim 1-Chip-Modell wird die recht aufwendige optische Bildaufteilung gespart. Bei immer höher auflösenden Sensoren - 2004 waren Chips mit mehr als 8 Millionen Pixel in der digitalen Fotografie keine Seltenheit - können 1-Chipper durchaus mit 3-Chip-Anordnungen konkurrieren.

Bei gleichbleibender Chipgröße geht eine höhere Auflösung stets mit vermehrtem Bildrauschen einher. Bei ungünstigen Lichtverhältnissen kann sich die Situation ergeben, dass eine niedriger auflösende Kamera mit größerem Chip ein besseres Bild liefert als eine hochauflösende Kamera mit kleinem Chip. Eine Faustregel für den Kauf sagt: »den größten Bildwandler nehmen, den man kriegen kann«. 2005 ist das im Consumer- bis Prosumerbereich 13″ bis 23″.

Bildstabilisator

[Bearbeiten | Quelltext bearbeiten]
Elektronisch
Hier wird ein Wandlerchip eingesetzt, der störende Ruckler durch das Verschieben eines kleineren Bildausschnittes (Lesefenster) auf der großen Chipfläche ausgleicht. Die Netto-Chipauflösung ist jedoch deutlich kleiner als die vom Hersteller oft ausschließlich angegebene gesamte Chipauflösung.
Optisch
Der optische Bildstabilisator ist der digitalen Stabilisierung vorzuziehen, weil die volle Auflösung des Bildwandlers für die Aufnahme zur Verfügung steht. Hier erfolgt der Ausgleich durch mechanisch (z. B. mit Magnetfeldern) bewegte „schwimmende“ Linsen, die den unerwünschten Bewegungen sensorgesteuert entgegenlaufen. Optische Bildstabilisatoren waren früher nur im oberen Preissegment zu finden, seit den 2010er Jahren gibt es leistungsfähige optische Bildstabilisatoren auch in sehr preiswerten Digitalkameras und Camcordern. Zur optischen Stabilisierung zählt auch die Sensor-Shift-Technologie. Bei dieser wird keine Linse, sondern der im Kamerabody befindliche Sensor zum Ausgleich der Kamerabewegungen verschoben. Dadurch kann, insbesondere bei System-Kameras, (fast) jedes beliebige Objektiv genutzt werden, weil keine Ausgleichslinse innerhalb des Objektivs gebraucht wird.
Kombiniert
Zusätzlich gibt es auch die (oft bei den technischen Daten nicht einmal erwähnte) Kombination von elektronischer und optischer Bildstabilisierung. Was die optische Stabilisierung noch an Unruhe übrig gelassen hat, wird dann von der elektronischen Stabilisierung weggebügelt. Dabei lassen sich nach einiger Übung Aufnahmen erreichen, welche denen mit einer Steadicam-Einrichtung (Schwebestativ) sehr ähneln.

Das verwendete Objektiv ist das wichtigste Bauteil zur Erzielung guter Ergebnisse. Auch die beste Elektronik wird nicht ausgleichen können, was bereits im Objektiv „verdorben“ wird (beispielsweise Unschärfen, Randabschattungen, Verzerrungen, chromatische Aberrationen). Das Objektiv muss nicht nur die erforderliche Auflösung und Schärfe auf den Bildwandler projizieren, sondern darf zugleich auch nur sehr wenig oder kein Streulicht erzeugen. Das wird durch die Vergütung der Linsen erreicht, erkennbar an einem bläulichen oder – seltener – bräunlichen Schimmer der Frontlinse. Für den optischen Zoom werden Zoomobjektive verwendet; es gibt praktisch keine Videokameras mehr ohne optischen Zoom. Ein digitaler Zoom ist nur eine elektronische Vergrößerung des vom Objektiv an den Bildwandler gelieferten Bildes. Dabei werden allerdings die Pixelstrukturen genauso vergrößert wie das eigentliche Motiv. Die Auflösung verringert sich je nach Vergrößerungsmaßstab bis hin zur Unbrauchbarkeit des digital gezoomten Bildes. Dagegen bietet der optische Zoom bei verschiedenen Zoomfaktoren stets dieselbe Auflösung. Weil Weitwinkelobjektive aufwendiger konstruiert sind als andere Objektive, ist bei Videokameras der Weitwinkel- und Makrobereich meist nur sehr gering. Zwar kann durch Verwendung von Vorsatzlinsen Abhilfe geschaffen werden, die Bildqualität wird jedoch dadurch grundsätzlich schlechter. Brauchbare Weitwinkelvorsätze sind sehr teuer. Die – so vorhanden – automatische Schärfenregelung kann durch Vorsätze an dem Objektiv beeinträchtigt werden.

Es gibt viele verschiedene Bauformen von Camcordern, die vom Einsatzzweck und Preis mitbestimmt werden. Hier die wichtigsten Unterscheidungsmerkmale:

  • Trage- und Haltungsbauform: Hier wird unterschieden zwischen Schulterkameras, die auf der Schulter geführt werden, und Handkameras, die vor dem Körper gehalten werden. Schulterkameras weisen an der Unterseite eine Ausformung zur Auflage auf der Schulter und einen entsprechenden, auf der Schulter liegenden Schwerpunkt auf. Der Auslöser befindet sich meist an einem Anbau vorne rechts, mit dem die Kamera zugleich mit der rechten Hand stabilisiert wird. Der Sucher ist seitlich angebracht. Handkameras sind in der Regel kompakter und leichter, der Sucher befindet sich meist am hinteren Ende der Kamera, der Auslöser an verschiedenen Stellen, entsprechend den Annahmen des Herstellers dazu, wie die Kamera gehalten werden soll.
  • Rekorderanbau: Bei der überwiegenden Anzahl von Camcordern bilden Kamerakopf (mit Aufnahmeelektronik und Bedienteil) und der Rekorderteil eine integrale Einheit. Bei anspruchsvolleren Kameras gibt es allerdings Modelle, bei denen der Rekorder an den Kopf angesteckt wird, und bei denen somit durch Rekordertausch auf verschiedene Medien aufgezeichnet werden kann.
  • Wandel bei den Handkameras: Die neuere Entwicklung (Stand 06/2012) hat dazu geführt, dass selbst System-Digitalkameras, Bridge-Kameras und sogar „Pocket-“ oder „Traveller-Kameras“ (oft mit „Superzoom-Fähigkeiten“) zu den „Video-Kameras“ gezählt werden können. AVCHD-lite beherrschen selbst relativ billige Kameras, wogegen höherwertige Modelle mit FullHD bis hin zu 1920 × 1080 Pixel mit 50p aufwarten können.

Mit dem Projekt CinePi steht zudem eine frei konfigurierbare Videokamera auf Raspberry-Pi-Basis (4K, 16 Bit DNG) als Open-Source-Hardware zum Nachbau zur Verfügung.[1][2]

Elektrische und Softwareschnittstellen

[Bearbeiten | Quelltext bearbeiten]

Es gibt verschiedene Stufen der Vorverarbeitung des Bildsignales einer Videokamera. Den analogen und digitalen Datenformaten ist die serielle Ausgabe gemeinsam.

Analoge Ausgabe

[Bearbeiten | Quelltext bearbeiten]

Zeilenweise Abtastung und Ausgabe der Helligkeitsinformationen aller (schwarz/weiß) oder der drei Einzelfarben sowie der Synchronsignale (Zeilen- und Bildsynchronsignal):

  • Übertragung aller Informationen auf einer Leitung (mixed Signal oder composite Video, PAL-kodiert)
  • Ausgabe der drei Farbintensitäten und der Synchronsignale auf getrennten Leitungen

Digitale Ausgabe

[Bearbeiten | Quelltext bearbeiten]

Serielle digitale Datenschnittstellen für Videokameras sind z. B. FireWire (IEEE1394, bei Sony: iLink) oder USB, sowie zur Übertragung unkomprimierter Daten über SDI und HD-SDI bzw. von komprimierten Daten SDTI. Weiterhin können die Daten auf eine Speicherkarte gespielt und diese anschließend entnommen und ausgelesen werden.

Zur Umwandlung analoger Videosignale in digitale Datenformate gibt es Adapter.

Softwareschnittstellen für ein Videosignal am Computer dienen der Anzeige, Weiterverarbeitung oder Speicherung der Bildsequenzen (Videos), Beispiele: SANE, TWAIN.

Commons: Videokameras – Sammlung von Bildern, Videos und Audiodateien
Wiktionary: Videokamera – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Rudi Schmidts: Jetzt 4K statt 2K: CinePI RAW-Cine Kamera auf Raspberry Pi Basis mit hoher Dynamik. In: slashCam. 30. Mai 2024, abgerufen am 11. April 2025.
  2. CinePI Camera Project. Webseite mit Verweis auf Videobeispiele und technische Dokumentation. Abgerufen am 11. April 2025 (englisch).