Die Großzahl der digitalen Kameras mit
Halbleiterbildsensor (im Englischen solid state cameras, im
Gegensatz zu auf Röhren oder Film basierten Systemen) sind
Ein-Chip-Kameras. Daraus erklärt sich die geringere
Lichtempfindlichkeit der Farbkameras. Denn gegenüber der jeweiligen
nackten Schwarz/Weiß (besser: monochrom) Version ist die Oberfläche
des entsprechenden Farbsensors mit einer Rot-Grün-Blau (kurz: RGB)
Farbbeschichtung versehen. Und die schluckt etwa 50% der
Lichtintensität. Oft geht sogar noch viel mehr verloren, da zur
Farbtrennung und für einen genügend großen Aussteuerungsbereich
(Dynamik) der Nah-Infrarotanteil (engl.: NIR, near IR) des
Spektrums durch einen zusätzlichen IR-Sperrfilter (engl.: IR-cut,
IR-stop) bis ca. 1,1 Mikrometer Wellenlänge unterdrückt werden
muss. Die Farbmaskierung ist nämlich für langwelliges Licht
durchlässig und gerade in diesem Spektralbereich sind die Sensoren
ziemlich wirkungsvoll. (Filterlose Schwarz/Weiß CCD Kameras könnte
man praktisch als behelfsmäßige Nachtsichtgeräte einsetzen.)
RGB Streifenfilter
Bayer Mosaikfilter
Da diese Befilterung im Streifen- oder Mosaikmuster aufgebracht
ist, ergibt sich dadurch noch ein weiterer Nachteil: Bei einem
Schwarz/Weiß Sensor kann jede lichtempfindliche Zelle direkt zur
Auflösung beitragen. Jeder einzelne der Zellen kann einen Farbton
mit seinem Grauwert zwischen schwarz und weiß abdecken, also jede
Zelle ist ein Pixel (= picture element; dt.: Bildelement). Ein
Farbsensor mit der gleichen Zellenzahl benötigt jeweils eine rot,
eine (oder zwei) grün und eine blau maskierte Zelle zur Darstellung
der Farbtöne. Jedes Pixel setzt sich also aus einem
RGB-Subpixeltripel aus drei Zellen zusammen. Rein rechnerisch ist
die Auflösung bezogen auf die Zellenzahl dann nur noch ein Drittel.
Dieser Sachverhalt wird bei der Angabe der Auflösung gerne
unterschlagen und die Zellenzahl mit der Pixelzahl gleichgesetzt.
Mittels aufwändiger Algorithmen kann aber der Auflösungsverlust
durch die Farbmaskierung schon in Echtzeit aufgefangen werden.
Jedoch erreicht man kaum mehr als 2/3 der Auflösung des
entsprechenden Schwarz/Weiß Sensors.
Die Bilder links zeigen Ausschnitte aus Farbfiltern. Jede Zelle
entspricht einem (Sub-) Pixel. Die doppelt so häufigen grünen
Zellen dienen zur Erzielung einer höheren Auflösung entsprechend
dem menschlichem Wahrnehmungsvermögen (Mitte des Spektrums;
Empfindlichkeit). Die Elektronik für die Ansteuerung und
Adressierung wird meist in den schwarzen, hier nur dünn
dargestellten Pixel-Rahmen positioniert. Je nach Typ des Sensors
kann so ein blinder optisch passiver Bereich dann größenmäßig der
Fläche des jeweiligen echten optisch aktiven Pixels entsprechen
oder diese sogar noch übertreffen. Mosaikfilter bieten dabei eine
höhere Auflösung als Streifenfilter, die Farbinterpolation ist
jedoch komplizierter.
Die Pixelzahl ist also nicht alles. Sie ist allenfalls so
aussagekräftig wie der Prozessortakt als alleiniges Kriterium für
die Leistungsfähigkeit eines Rechners. Es kommt auch auf Kontrast,
Empfindlichkeit, Dynamik, Farbseparation und vieles andere mehr an.
Ein Mega-Pixel Monster mit flauen Bildern bläht nur den
Speicherbedarf mit einer Unmenge, im Endeffekt nutzloser, Daten
auf.
Abgesehen davon bedeuten mehr Pixel pro Fläche auch kleinere
Zellen, und damit reduzierte Lichtempfindlichkeit bei höherer
Rauschneigung.
In diesem Zusammenhang kann man auch einmal schauen was die
Kamera- bzw. Sensorhersteller ihren Kunden an Fehlpixel zumuten.
Normalerweise sieht man sie nicht, da sie einfach »übertüncht«
(mappen, vom engl. Fachbegriff: map, mapped) werden, indem man den
interpolierten Wert von benachbarten Pixel heranzieht. Bei
Qualitätsherstellern muss man sie regelrecht suchen, während andere
einem Sensoren mit Aberdutzenden von Fehlern aufs Auge
drücken.
Es gibt unterschiedlichste Farbfiltermuster und -anordnungen,
nicht nur Streifen- und Bayer-Muster (benannt nach Dr. Bayer, der
es in den 1960ern bei Kodak erfand). In der Regel werden sie
fotolithografisch aufgebracht. Auch kann man andere
Farbaufteilungen als RGB, z.B. Magenta statt Rot und Gelb statt
Blau oder zwei verschiedene Grüntöne finden. Auch zusätzliche
unbefilterte Pixel können in den Verbund integriert sein,
usw.
In der Tat gewinnt jede elektronische Farbkamera ihre Bilder durch
Interpolation, denn es gibt keinen bunten Strom. (Nicht einmal von
Yello ;-). Da der Farbalgorithmus die entsprechende Filterfarbe
über der jeweiligen Grauwert-Zelle kennt, kann er die Farbe an
dieser Stelle errechnen. Üblicherweise werden mehrere benachbarte
Zellen zur Berechnung herangezogen.
Nebenbei: Teure Drei-Chip-Kameras (auch 3 CCD genannt), die
hauptsächlich in Standard-Videoanwendungen verwendet werden, haben
dagegen für jeden Farbkanal jeweils einen einheitlich rot, grün und
blau maskierten Sensor. Die Strahlaufteilung erfolgt durch eine
Prismengruppe.
Mittlerweile gibt es für Fotoapparate auch Sensoren mit vertikalem
statt lateralem Aufbau, d.h. zur Farbseparation nutzt man die
wellenlängenabhängige Eindringtiefe des Lichts, siehe Foveon
(www.foveon.com).
Ist die Anwendung nicht zeitkritisch kann man auch Farbfilter oder
Farbräder, wie man sie ähnlich von professionellen Scheinwerfern
her kennt, verwenden. Manche Studio-Fotokameras machen so drei
Aufnahmen unmittelbar nacheinander mit jeweils einem anderen
Farbfilter vor dem Sensor oder Objektiv.
Filtereffekte - Moiré, aliasing und fix pattern noise
Die Streifen- oder Mosaikfilter sind auch für
Farbartefakte an Kanten oder Gittern verantwortlich. Entspricht das
Abbild einer Struktur auf dem Sensor etwa der Gittergröße seines
Filters (bzw. seiner Zellenstruktur) kann es zu Moiré und aliasing
Effekten kommen. Das kann man schön an den Fehlfarben bei Aufnahmen
von Jalousien oder Lüftergittern sehen. Einfach einmal mit der
Kamera auf die Suche gehen. Auch vom Scannen von gerasterten
Zeitungsbildern her ist der Effekt wohl bekannt.
Hier steckt im Prinzip das Abtasttheorem dahinter. Man kann sich
das leicht vor Augen halten: Nimmt man z.B. einen weißen (oder
grauen) Gartenzaun auf, so muss das Bild einer Latte mindestens
eine Reihe roter, grüner und blauer Pixel abdecken, sonst kann der
weiße Farbton nicht »gemischt« werden. Er entsteht nur bei
gleichmäßiger Aussteuerung der Farbkanäle. Selbst bei
Monocolor-Kameras kann es wegen der festen Pixelanordnung zu
vergleichbaren Fehlern kommen. Aufgrund der unterschiedlichen
Teilüberdeckung/-abschattung der Pixel entstehen »Schwebungen«,
Schattenbilder, sprich Strukturen, wo eigentlich keine sind -
aliasing eben. (Auf den Effekt stößt man auch gerne beim Scannen
von Zeitungs- und Zeitschriftenbildern. Auflösungs- und
vergrößerungsabhängig zeigen sich plötzlich drastische Muster wegen
des Rasterdrucks (~ Gitter) der Vorlage.)
Moiré entsteht, wenn zwei Gitter im Strahlengang gegeneinander
verschoben, speziell, zueinander verdreht, sind. Dann kommt es zu
breiten, formatfüllenden Schlieren, deren Anzahl und Richtung vom
Verdrehwinkel der Gitter abhängt. Dagegen ist auch das menschliche
Auge nicht gefeit: Legen sie doch einmal zwei feinmaschige
Fliegengitter übereinander und verdrehen Sie sie langsam
gegeneinander.
Da jeder Pixel einen anderen Dunkelstrom (d.h. im unbelichteten
Zustand nicht »0«) liefert, werden unterhalb eines bestimmten
Schwellwerts alle Pixel zwanghaft auf schwarz herabgezogen.
Ansonsten würde man verteilte bunte Pixel in einer dunklen Fläche
finden. Das beschränkt die Dynamik und führt zum als »Absaufen im
Schwarzen« bezeichneten Effekt - dunkle Flächen und Schattenpartien
werden nicht durchgezeichnet, Unregelmäßigkeiten werden weg
gebügelt. Anfangs litt ein Großteil der digitalen Fotoapparate an
dieser typischen Krankheit. Aktuell sind besonders (billige) CMOS
Kameras und speziell solche mit kleiner Pixelfläche davon
betroffen.
Man hat bereits versucht Sensoren mit unregelmäßig bzw. zufällig
verteilten Farbpixel, also keinem festen Schema bei der Anordnung
der einzelnen RGB-Farfilter, einzusetzen.
Selbst Drei-Chip-Kameras können bei nicht richtig justierten oder
getrennten Flächen der Strahlteilerprismen oder bei intensivster
Beleuchtung farbige Linien, Flecken oder Keile zeigen. Bei
rotierenden Farbrädern kann es zu schwankender Helligkeit und
Falschfarben kommen, wenn die Transmission nicht einheitlich
ausfällt oder die Synchronität nicht perfekt ist.
Spektrale Empfindlichkeit (oder Farbensehen)
Spektrale Empfindlichkeit, Vergleich
menschliches Auge und CCD/CMOS Sensoren
Farbseparation der Kanäle eines CMOS Sensors;
Notwendigkeit eines IR Dämpfungsfilters
Das für das menschliche Auge sichtbare Farbspektrum (VIS)
reicht allenfalls von 380 Nanometer (violett) bis 780 Nanometer
(dunkelrot). Mit der größten Empfindlichkeit im Grün-Gelben bei ca.
550 Nanometer. CCD und CMOS Sensoren besitzen ein breiteres
Spektrum. Speziell sehen sie noch im nahen Infrarot jenseits von
780 Nanometer bis zur sogenannten Bandlücke des Grundmaterials
Silizium bei etwa 1 100 Nanometer, mit der höchsten
Empfindlichkeit zwischen 600 und 900 Nanometer. Ihr
Empfindlichkeitsmaximum ist verglichen mit dem menschlichen Auge
mehr zum Roten verschoben. (Übrigens: Für Wellenlängen jenseits der
Bandlücke ist Silizium »durchsichtig«.)
Im Bild rechts oben ist die spektrale
Sensitivitätskurve des menschlichen Auges im hell adaptierten
Zustand im Vergleich zu der von unbeschichtetem, einkristallinem
Silizium, dem Ausgangsmaterial von CCD und CMOS Sensoren, für den
Bereich des sichtbaren Spektrums und des nahen Infrarots
dargestellt. (Die Kurven sind auf ihren jeweiligen Spitzenwert
normiert.)
Die Charakteristik von CCD Sensoren wird durch die Kurve für
blankes Silizium recht gut wiedergegeben. CMOS Sensoren zeigen eine
Verschiebung und Verbreiterung des Maximums hin zu kürzeren
Wellenlängen verursacht durch ihre flachere Struktur und die
geringere Eindringtiefe kurzwelligen Lichts.
Im Bild darunter ist die jeweilige spektrale Empfindlichkeit der
drei RGB Farbkanäle eines entsprechend maskierten (= beschichtet
mit rot-grün-blau Filtern) CMOS Farbsensors dargestellt. Man sieht
deutlich die Transparenz der Polymere im roten und speziell im IR
Bereich und damit verbunden die Notwendigkeit diesen
Spektralbereich zu dämpfen bzw. zu blocken, um damit ein
Übergewicht von Rot zu vermeiden und um Rauschen, Fehlaussteuerung
oder Übersteuerung zu reduzieren.
Im gewissen Umfang lässt sich die Rotempfindlichkeit bei
Farbsensoren durch die Wahl der Transmissionscharakteristik der
Farb-Befilterung und der rechnerischen Gewichtung der Farbkanäle
manipulieren. Farbkonversionsfilter (Reduzierung der
Rotempfindlichkeit; häufig bei Farb-Videokameras aus Schott BG 39
oder BG 40 Glas) helfen hier ebenfalls.
Im kurzwelligen Bereich des Spektrums (UV, blau) sind die Sensoren
dagegen vergleichsweise unempfindlich. Hier wirken außerdem
zusätzlich die Gläser begrenzend.
Die spektrale Empfindlichkeit einer Kameras ist allerdings nicht
nur durch den Sensor oder den Film und die Filter limitiert,
sondern auch durch die optische Abbildung, speziell die Objektive
und die oben erwähnten IR-Sperrfilter. Denn die Ausnutzung eines zu
großen spektralen Empfindlichkeitsbereiches kann zu
matten/unscharfen Bildern führen. Da die Brennweite
wellenlängenabhängig ist, entstehen die einzelnen Farbbilder in
unterschiedlicher Entfernung vom Objektiv und damit vom Film bzw.
Sensor (chromatische Aberration). Achromate (Linsensysteme mit
Schichtaufbau) helfen diesen Effekt zu vermeiden.
Oft sind Filter (und Objektive) zur Reflexionsverminderung im
sichtbaren Spektrum noch vergütet. Der Reflexionsverlust beträgt
pro Luft/Glas Grenzfläche ca. 4% bis 5%:
ΔR = (1 - n)² / (1 + n)²
mit dem Brechungsindex n des Linsenmaterials in Luft
(nLuft ≡ 1).
Also ca. 8% bis 10% pro Durchgang durch eine Glasplatte. Mit der
Vergütung ist eine Reduktion auf 1% bis 2% möglich. Manchmal kann
man das an den im schrägem Auflicht bunt schillernden Oberflächen
erkennen, da ΔR leicht vom Einfallswinkel abhängt.
Höherwertige Objektive besitzen manchmal auch einen IR-Umschalter
für die Arbeit speziell mit Wellenlängen im nahen Infrarot bei 780
Nanometer und mehr. Dann stimmt auch die Abstandskala auf dem
Fokusring wieder. (Das IR Bild entsteht wegen der geringeren
Brechung größerer Wellenlängen tiefer in der Kamera.)
Nebenbei: Die Transmission von normalem Objektivglas fällt bei
Wellenlängen um die 320 Nanometer und darunter stark ab. Im
langwelligen Bereich liegt der Abfall weit außerhalb von dem, was
ein Sensor auf Siliziumbasis noch sieht. Übrigens besteht auch die
Deckschicht eines Sensors aus Quarzglas (Siliziumdioxid). Darüber
liegt noch eine dünne Schicht Siliziumnitrid.
Will man Aufnahmen in einem anderen Spektralbereich machen, muss
man andere Sensor- und sogar Linsenmaterialien einsetzen.
Beispielsweise finden in IR-Kameras und speziell in
Wärmebildkameras, die im Wellenlängenbereich um und über 3
Mikrometer arbeiten, u.a. Sensoren aus Indium-Gallium-Arsenid
(InGaAs) Verwendung.
CCD kontra CMOS Sensoren
Funktionsprinzipien
Die beiden gängigen Festkörper-Sensortechnologien, CCD
(Charge Coupled Device; dt.: Ladungsgekoppelte Schaltung) und CMOS
(Complementary Metal Oxide Semiconductor; dt.: Komplementärer
Metall-Oxid-Halbleiter), basieren auf Silizium als
Ausgangsmaterial. Beide haben ihre Vor- und Nachteile, die in ihrer
Funktionsweise begründet sind. Sie nutzen den inneren
fotoelektrischen Effekt - im Prinzip arbeiten die Pixel wie eine
Anordnung von Solarzellen: mehr Licht = mehr Ladung bzw. Strom.
CCD und CMOS Schaltungsprinzipien
Das Bild links zeigt die Grundfunktion von CCD und
CMOS Zelle im Vergleich.
Die durch Lichteinfall erzeugte Ladung in der CCD Zelle wird
direkt von jeder Zelle ausgelesen. Diese Ladungen werden
schrittweise aus dem fotoaktiven Gebiet transportiert. Außerhalb
werden sie konvertiert bzw. verstärkt.
In jeder CMOS Zelle generiert das einfallende Licht einen zu
seiner Intensität proportionalen Fotostrom und reduziert den
Sperrwiderstand der Fotodiode. Diese Sperrströme durch die
Fotodioden (d.h. die generierten Ladungen) werden
weiterverarbeitet.
Die Zellen eines CCD Sensors funktionieren wie
Belichtungsmesser, die Ladungen sammeln und in bestimmten Abständen
ausgelesen werden. Die »schnellen« CCD Sensoren gibt es in drei
Ausführungen: FT ((Full) Frame Transfer), ILT (Interline Transfer)
und FIT (Frame Interline Transfer). Für Standbildaufnahmen genügt
das Full Frame Prinzip: Die Ladungen bleiben bis zum Auslesen im
aktiven Bereich gespeichert, zentral abgeschattet durch einen
mechanischen Verschluss.
Bei FTs wird das komplette Bild durch die aktiven Zellen in einen
lichtgeschützten Bereich außerhalb des fotosensitiven Gebiets
verschoben und dort verarbeitet. Wegen der unterschiedlichen
Struktur kann man die beiden Bereiche oft schon mit bloßen Auge
erkennen. Bei ILTs alternieren fotosensitive und Auslesezeilen im
vom Objektiv ausgeleuchteten Bereich. Die Ladung jeder Fotozelle
wird direkt in die zugehörige lichtgeschützte Zelle geschoben und
diese Zeile dann ausgelesen. FITs sind eine Kombination der beiden
Designs.
FTs erreichen einen Füllfaktor von nahezu 100%, sind aber anfällig
gegen Zweitbelichtung im Auslesezeitraum (engl.: smear). ILTs und
FITs weisen einen reduzierten Füllfaktor auf, sind aber in der
Auslesephase nicht so empfindlich.
Als Füllfaktor bezeichnet man das Verhältnis von optisch
sensitiver Fläche zur Fläche für die Ansteuerelektronik einer
Zelle. Dadurch wird er auch ein Maß für die Lichtempfindlichkeit,
vorausgesetzt die Basistechnologie ist vergleichbar.
CMOS Sensoren messen kontinuierlich den vom Licht induzierten
Fotostrom. Man nutzt die Proportionalität von induzierter Ladung
bzw. Sperrstrom und Beleuchtungsstärke an einer Fotodiode. (Korrekt
ausgedrückt, misst man den Strom zur Umladung der
Sperrschichtkapazität am pn-Übergang der Fotodiode. Man kann sich
einen Kondensator parallel geschaltet zur Diode vorstellen. Es gibt
verschiedene Realisierungsmöglichkeiten für entsprechende
Schaltungen.)
Die Struktur ähnelt sehr stark dem Aufbau eines DRAMs, und so sind
auch schon mit aufgeschabten Speicherbausteinen experimentelle
Aufnahmen gemacht worden.
Ein PPS (Passive Pixel Sensor) funktioniert ähnlich einem CCD ILT.
Die durch Beleuchtung in einer fotosensitiven Zelle, meist eine
Fotodiode, generierten Ladungen werden Zelle für Zelle direkt
ausgelesen und außerhalb des fotoaktiven Bereichs verstärkt und
gewandelt.
CMOS APS mit globalem shutter
Heutzutage geht der Trend zum APS Prinzip. (Active Pixel Sensor.
Das Akronym hat nichts mit dem APS-C Format zu tun.) Hier arbeiten
die fotosensitiven Zellen praktisch nach dem indirekten Prinzip
eines CCD Sensors: Die Belichtung einer Fotodiode steuert über
einen CMOS Transistor (Verstärker) die Verbindung zur
Versorgungsspannung Vcc. Jede Zelle enthält gleich ihre eigene
Verstärkerschaltung.
Da Lichteinfall die Fotozelle entlädt, könnte man das mit dem
Negativverfahren beim Fotografieren mit Film vergleichen.
Das Bild links zeigt die Struktur einer CMOS APS
Zelle. Ablaufbeschreibung: Über den Schalter reset wird eine
Vorladung eingebracht. Danach öffnet sich der Schalter wieder und
über die Fotodiode D fließt belichtungsabhängig Ladung ab. Damit
ändert sich die Ansteuerspannung am Verstärker T und damit die
Spannung V. Durch den optionalen Schalter t shutter (falls
vorhanden) kann man den Entladevorgang unterbrechen, der
Kondensator C steuert den Verstärker dann ganz alleine.
Die Vorspannung (hier über den Schalter reset eingebracht), die
jedes Mal bei der Belichtung über die Fotodiode abgebaut wird, ist
der Grund für die Sättigungsunempfindlichkeit von CMOS APS im
Gegensatz zu CCD Sensoren. Mehr als völlig entladen geht
nicht.
Die einfachste Zelle besteht aus drei Transistoren, nämlich dem
Schalter für die Initialisierung zu Bild-/Belichtungsbeginn
(reset), dem Schalter für das Auslesen (read) und dem eigentlichen
Verstärker (T). Diese Schaltung erlaubt nur einen rollierenden
Verschluss. Fügt man in die Ansteuerung des Verstärkers eine Art
Abtast-Halteglied ein (t shutter und Kapazität C), erhält man
einen globalen shutter. Das ist ein elektronischen Verschluss, der
auf den ganzen Sensor zum selben Zeitpunkt wirkt.
Mit weiteren Transistoren erhält man zusätzliche Möglichkeiten der
Ansteuerung und Verbesserungen der Signalqualität. So kann man mit
einer 5- oder 6-Transistor-Zelle Aufnahme und Auslesen voneinander
entkoppeln, also bereits wieder einlesen bzw. belichten, während
der Ausleseprozess noch läuft.
sind seit einigen Jahrzehnten in der Produktion und im
Einsatz
liefern von Natur aus gute Bilder, andernfalls würde man den
entsprechenden Sensor aussondern und erst gar nicht verwenden
können (als FT) einen Füllfaktor von nahezu 100% erreichen
sind auch im nahen Infrarot empfindlich (deshalb haben vor allem
viele Farb-Kameras IR-Sperrfilter eingebaut)
brauchen oft mehrere Versorgungsspannungen und haben eine hohe
Leistungsaufnahme
sind um ein mehrfaches lichtempfindlicher - im positiven wie im
negativen Sinn. Man kann zwar bei geringerer Ausleuchtung
aufnehmen, aber die Sensoren sind überstrahlungsempfindlich. So
zeigen sich bei sehr hellen Partien fackelartige Auslöschungen
(engl.: blooming) in benachbarten Bereichen, die sich mitunter über
den ganzen Bildausschnitt erstrecken können; hohe Einstrahlung
während der Auslesephase kann zu einer Art Doppelbelichtung (engl.:
smear) führen.
werden nur von sehr spezialisierten Halbleiterherstellern
beherrscht. Mit steigender Pixelzahl sinkt die Ausbeute dramatisch,
da prinzipbedingt, vor allem bei FT Sensoren, die optisch aktiven
Bereiche in der Auslesephase als Drahtleitung verwendet werden.
Eine defekte Zelle kann eine ganze Zeile bzw. Spalte lahm legen.
Der Sensor ist dann unbrauchbar.
CMOS Sensoren
6-Zoll Wafer mit 45 CMOS Sensoren auf blue tape
rauschen wegen ihrer inhomogenen Struktur stärker und zeigen
ähnliche Probleme wie TFT-Bildschirme. Ein paar Fehlstellen können
schon vorkommen, die dann eben weg gerechnet werden. Man muss sich
mehr um die Bildaufbereitung kümmern (unter anderem Defektkorrektur
ausgefallener Pixel, sogenanntes mapping). Jedes Pixel wird
individuell abgeglichen (Gain/Offset Einstellung).
erreichen möglicherweise nur einen Füllfaktor von um die 50% und
sind deshalb üblicherweise weniger lichtempfindlich
sind als APS prinzipbedingt nahezu unempfindlich gegen
Überstrahlung. PPS sind jedoch etwas kritischer
zeigen in etwa die gleiche spektrale Empfindlichkeit (d.h.
Farbwahrnehmung) wie das menschliche Auge
brauchen oft nur eine Versorgungsspannung und haben eine geringe
Leistungsaufnahme
entstammen der wesentlich gängigeren Technologie. Entsprechende
Stückzahlen vorausgesetzt, sind sie deutlich preiswerter. Das
Auslesen geschieht außerdem mit separaten Leitungen, so dass ein
defekter Pixel durch die Nachbarpixel interpoliert werden kann und
nicht den ganzen Sensor ruiniert.
bieten die Möglichkeit weitere Schaltungen oder eine
Signalvorverarbeitung auf dem selben Chip zu integrieren um so die
Kamera kleiner und flexibler zu machen; der mehr oder weniger
wahlfreie Zugriff auf die einzelnen Zellen ermöglicht z.B. die
Vorauswahl eines Fensters, genannt Unterabtastung (engl.: partial
scan), Windowing, ROI (region of interest) oder AOI (area of
interest). Auch Bildverarbeitung für Triggerereignisse
(Im-Bild-Trigger) oder eine erneute Zweitbelichtung ist
vergleichsweise einfach möglich.
Farbfilter in Schräganordnung (Vergrößerung 1 000 x)
Stand der Technik
Doch viele digitale Fotoapparate und Überwachungskameras
nutzen offensichtlich noch CCD Sensoren, während bei Videokameras
die CMOS Sensoren bereits im Kommen sind. In Mobiltelefonen mit
Kamerafunktion gelangen praktisch ausschließlich CMOS Sensoren zum
Einsatz. Generell geht der Trend hin zur CMOS Technik, zur Kamera
auf einem Chip.
Bei hochwertigen Spezialkameras tendiert man manchmal noch dazu
die Integration in Grenzen zu halten, um die einzelnen Bereiche wie
Analog-, Digitalelektronik, Ansteuerung, Versorgung, ...
individuell optimieren zu können.
Im normalen Einsatz schenken sich die beiden Techniken kaum noch
etwas. Allerdings liegen bei rauschempfindlichen Spezialanwendungen
die CCD Sensoren vorn. Gegebenenfalls gekühlt. Bei
Gegenlichtaufnahmen und möglichen Überstrahlungseffekten
(spiegelnde Oberflächen, ...) sind wohl CMOS Sensoren die bessere
Wahl.
(Die oft aufgestellte Behauptung CCD Sensoren seien prinzipiell
langsamer als CMOS Sensoren ist so nicht richtig, schließlich gibt
es auch CCD-Hochgeschwindigkeitskameras.)
In den Bildern rechts oben: Ungehäustes Silizium Plättchen
(engl.: die), ca. 20 mm x 15 mm x 0,5 mm in 0,5
Mikrometer-Technik. Der grünliche Bereich ist der Mosaikfilter. Im
umlaufenden dunklen Rand erkennt man 137 kleine Quadrate, engl.:
bond lands oder pads, für die spätere elektrische Kontaktierung
durch Bonddrähte.
Dieser die wird direkt, also ungehäust, auf die Leiterplatte
geklebt und dann gebondet (chip on board; COB). Anschließend wird
zum Schutz ein Deckel mit Glasboden übergestülpt und mit der
Leiterplatte verklebt. (Natürlich sind auch traditionell gehäuste
Chips verfügbar.)
Im Bild rechts unten: 1 000-fache Detailvergrößerung aus
der Filtermatrix des CMOS Sensors. Die lichtempfindliche Fläche der
Fotozelle, im Bild gelb markiert, weist mit 11 Mikrometer die halbe
Weite der Zellgröße von 22 Mikrometer auf. Die um 45° gekippte
Schachbrettmuster-Anordnung aus »Bienenwaben« Zellen, wie sie auch
Fuji und Sony erfolgreich in ihrer »Super-CCD« bzw. »ClearVid«
Anordnung nutzen, ermöglicht gegenüber dem weit verbreiteten
Bayermuster eine höhere Auflösung speziell senkrechter und
waagrechter Strukturen.
Auch bei Hochgeschwindigkeitskameras macht sich der Wandel
bemerkbar. Während typische Systeme aus den 1990ern noch
größtenteils gegebenenfalls modifizierte CCD Sensoren nutzen,
verfügen Systeme ab Ende der 1990er überwiegend über CMOS Sensoren.
Nichtsdestotrotz gibt es weiterhin Systeme mit CCD Sensoren.
Bekannte High-Speed Sensorschmieden sind Dalsa/Teledyne (Kanada),
EG&G Reticon (USA), Fillfactory/Cypress (Belgien),
Photobit/Micron/Aptina (USA) oder CSEM (Schweiz).
Verbesserungstechniken
Mikrolinsen
Das Letzte herausholen. Durch einen Füllfaktor, d.h.
dem Verhältnis fotoaktiver zur Steuerelektronikfläche, kleiner eins
geht Fläche und damit Empfindlichkeit verloren.
Bei der Struktur von CMOS Sensoren bietet sich der Versuch an mit
Mikrolinsen zumindest teilweise für eine Kompensierung zu sorgen.
Die Linsen sollen Licht, das auf die »blinden« Stege fällt, zum
lichtempfindlichen Teil der Zelle leiten. Speziell bei sehr kleinen
Zellgrößen und Füllfaktoren (10 Quadratmikrometer und 30%
Füllfaktor und kleiner) werden sie gerne eingesetzt. Die
Mikrolinsen werden fotolithografisch direkt auf der
Sensoroberfläche aufgebracht. Wegen der Kleinheit der Linsen,
Durchmesser wenige hundertstel Millimeter, und ihrer großen Anzahl
- pro Zelle (= Pixel) eine Linse - ist das aber ein heikles
Unterfangen und die optischen Eigenschaften sowie die
Gleichförmigkeit sind nicht sehr hoch. Das führt dazu, dass man
eine unterproportionale Steigerung der Lichtempfindlichkeit
erreicht. Erkauft wird das durch einen deutlich höheren Aufwand und
eventuell sogar durch eine reduzierte Bildqualität aufgrund
optischer Fehler und parasitärer Effekte.
Die Augen und speziell CMOS Sensoren zeigen einen
ähnlichen Aufbau. Bei beiden muss das Licht abschattende
Versorgungsschichten passieren - Blutgefäße bzw. elektronische
Schaltkreise - bevor es auf die lichtempfindliche Schicht trifft.
Füllfaktor und Bildqualität werden dadurch reduziert. Mehr noch,
mit weiter verkleinerten Strukturen im Halbleiterdesign muss man
zwischen Anforderungen der Elektronik und der Optik abwägen.
Weitere Miniaturisierung und kürzere Schaltzeiten sowie
Stromsparmaßnahmen führen zu kleinen, rauschenden Fotozellen.
Beispielsweise klafft zwischen den Standard Designregeln
(Strukturgröße, Leiterbahnbreite, Gateweite) der aktuellen DRAM-
und CPU-Technologien und den CMOS Sensor Anforderungen eine Lücke
von Faktor 50 oder mehr. (Aktuelle Strukturbreite 28 nm!)
Zudem sind die Transistoren in der Schaltungslogik auf
Schnelligkeit getrimmt und schalten digital mit (Über-) Sättigung
(Bang-Bang oder Ein-/Aus Schalter), während die fotoelektrischen
Elemente analog auszulesen sind und eine Übersättigung möglichst
vermieden werden soll.
Deswegen die Idee den Sensor von unten her abzutragen und dann
zu stürzen. Die Versorgungselektronik liegt dann unten, die
Fotozellen in der Mitte und obenauf kommen die Farbmaskierung und
etwaige Mikrolinsen.
Die Lücke zwischen immer kleiner werdenden CMOS Standarddesigns
und Sensoranforderungen lässt sich dadurch verringern, was die
Sensoren auch durch die Integration von weiterer Elektronik
preiswerter macht und Defizite, wie z.B. geringe Eindringtiefe für
die Lichtstrahlen, kaschiert.
Herstellungstechnisch nicht gerade ganz ohne (u.a. muss der Wafer
sehr dünn geschliffen werden), aber ähnliches gab es schon mit
ausgewählten CCD Sensoren.
Für mehr Info siehe:
Sony
(www.sony.net/SonyInfo/News/Press/200806/08-069E/index.html)
Die Abbildung des Objektives findet traditionell auf
einer ebenen Fläche, der Filmebene, statt. Die mathematisch
korrekte Abbildung erfolgt aber auf einer minimal gekrümmten
Fläche, der sogenannten Petzval Schale, speziell bei einfachen
Objektiven (Astigmatismus und Bildfeldwölbung). Zur Optimierung
u.a. der Tiefenschärfe werden deshalb aktuell kreisbogenförmig
gekrümmte Sensoren angeboten.
Sei es, dass der Sensor tatsächlich gekrümmt ist, oder eine
ortsabhängige wegverlängernde Beschichtung oder entsprechende
Optiken angebracht ist. (Irgendwann wird es dann wohl auch noch
sattel- und kegelförmige Sensoren geben... ;-)
Objektive und Optiken
Objektivanschluss, Auflagemaß, Brennweite und Crop-Faktor
Das wichtigste Kriterium bei der Wahl des Objektives ist
zunächst welcher Objektivanschluss (engl.: mount) vom Kameragehäuse
vorgegeben wird. Der Mount oder Adapter bestimmt das Auflagemaß
(engl.: flange-back, back focus). Es wird zwischen dem letzten
zylindrischen Absatz des Objektivgehäuses vor dem Gewinde und der
Film- bzw. Sensorebene gemessen. Somit ist also der Abstand
zwischen Optik und Bildebene mount-spezifisch. Bei einem Objektiv
aus einer anderen Mount-Familie stimmt möglicherweise die
Brennweitenaufschrift des Objektives nicht mehr, soweit es sich
überhaupt scharfstellen und befestigen lässt. Bei C-Mount beträgt
das Auflagemaß z.B. 17,526 mm und bei CS-Mount 12,526 mm.
Sieht man auf einmal die Irisblende mehr oder weniger scharf
abgebildet und sonst nichts, hat man ein CS-Mount Objektiv auf eine
C-Mount Kamera geschraubt. (Mit einem 5 mm Zwischenring passt
aber ein C-Mount Objektiv auf eine CS-Mount Kamera.)
Bildkreis, Format und Crop-Faktor
Innerhalb einer Mount-Familie gibt es diese Probleme nicht. Alle
zugehörigen Objektive besitzen das gleiche Auflagemaß, das
jeweilige Bild entsteht somit am selben Ort. Der Unterschied
besteht lediglich in den verschiedenen Größen der kreisförmigen
Bilder, welche die Objektive in der Bildebene liefern. Angegeben
wird das Format des Sensors, der vom Objektiv noch ausreichend und
ohne zu große optische Verzeichnungen ausgeleuchtet wird. Liegt der
Sensor also komplett innerhalb dieses Bildkreises ist alles in
Ordnung. Ist er größer, sind die aufgenommenen Bilder weitestgehend
scharf, die Ecken neigen jedoch zur Unterbelichtung
(Schlüssellocheffekt, Vignettierung). So können insbesondere die
C-Mount Objektive der großen Formate für eine C-Mount Kamera mit
kleinerem Format meist ohne Probleme verwendet werden, z.B. ein 1
Zoll-Objektiv auf einer 2/3 Zoll-Kamera. Umgekehrt eben nur
eingeschränkt, siehe Sensor C im Bild links.
Die Abbildung links illustriert den Crop-Faktor,
auch Brennweitenverlängerung genannt. Das ist eigentlich ein
Pseudoeffekt, denn die Brennweite ist eine unveränderliche
Eigenschaft des jeweiligen Objektives. Der unterschiedliche
Bildeindruck, speziell der Bildwinkel (auch Öffnungswinkel,
Blickfeld), entsteht lediglich dadurch, dass bei der Darstellung
auf einem Monitor (oder Ausdruck) das Bild eines kleineren Sensors
(B) stärker vergrößert wiedergegeben wird. Seine Pixel liegen enger
beieinander als die beim großen Sensor (A) und werden sozusagen
gespreizt dargestellt, freilich ohne dass dadurch die Qualität
leidet. Entsprechende Auflösung (Pixelanzahl) vorausgesetzt.
Der Sensor muss zumindest innerhalb des Bildkreises des Objektives,
bezeichnet als »Format«, liegen, sonst tritt Vignettierung auf
(C).
Vergleicht man zwei formatfüllende Aufnahmen eines Objekts, z.B.
eine von einer C-Mount Kamera mit 1/3 Zoll Sensor und eine von
einer mit 2/3 Zoll Sensor, sieht man eigentlich keinen Unterschied.
Am Monitor sind sie beide gleich groß.
Da die Bilder aber auf unterschiedlich großen Sensorflächen
entstehen, muss die Vergrößerung beim kleineren Sensor (hier B)
kleiner sein, damit das Bild noch auf ihn passt. Das selbe »XY
Millimeter«-Objektiv vor einem größeren Sensor (hier A) wirkt
deshalb beim Einsatz an einer Kamera mit kleinerem Sensor, als
hätte es eine längere Brennweite und umgekehrt. Aber nur wenn man
die Aufnahmen auf Basis der Öffnungswinkel vergleicht (= was beim
selben Objektiv auf den jeweiligen Sensor passt). In soweit gehören
Brennweite und Bildformat zusammen und bestimmen den
Abbildungsmaßstab. Der Bildkreis ist jedoch allein abhängig vom
Objektiv. Und die Brennweite ebenfalls.
Allenfalls könnte man den Begriff »effektive Brennweite«
einführen, aber worauf beziehen? Oft wird im allgemeinen
Sprachgebrauch dieser Pseudoeffekt der Brennweitenverlängerung,
wenn man das selbe Objektiv auf eine Kamera mit kleinerem Sensor
schraubt, als (digitaler) Crop-Faktor bezeichnet:
Crop-Faktor = 43,3 mm / Sensordiagonale
Der Wert (ca. 1,5 ... 2 beim Vergleich typischer digitaler
SLR-Kameras gegenüber Kleinbildkameras mit 24 mm x 36 mm;
daher dann manchmal auch der Ausdruck »XY mm
Kleinbildäquivalent«) gibt an, um wie viel sich die Brennweite
anscheinend verlängert, weil die Sensordiagonale letztlich um
diesen Faktor kleiner ist. Die englische Bezeichnung (crop =
zurechtschneiden) wird dem Vorgang also eher gerecht, als der
deutschsprachige Begriff. Beim kleineren Sensor geht eben viel Bild
daneben. Man sieht nur das Zentrum und interpretiert das als
Tele/Zoom Effekt, wenn der Monitor den Sensor Bildschirm füllend
darstellt, siehe obiges Bild.
Bei hohen Ansprüchen sollte man allerdings berücksichtigen, dass
der Bereich mit optimal korrigierten Abbildungsfehlern kleiner ist
als der maximal ausgeleuchtete und dass kleinere Formate wegen der
höheren Pixeldichte qualitativ bessere Objektive benötigen.
Abgesehen davon sollte man die Bildqualität einer guten Kamera
nicht durch einen besseren Flaschenboden als Objektiv ruinieren.
Dann bleibt das Bild bis in die Ecken scharf.
In der professionellen Fotografie macht man mit Wechselobjektiven
im großen Umfang Gebrauch von den damit verbundenen
Möglichkeiten.
Ist die Brennweite eines Objektives etwa so groß wie die
Formatdiagonale spricht man gern vom »Normalobjektiv« für dieses
Format. Bei Kleinbildkameras wären das ca.
50 mm ±5 mm, siehe auch den nächsten Abschnitt und
[SloMo Tipps]. Dann
entspricht der Öffnungswinkel etwa dem Gesichtsfeld des
Menschen.
Formate
Doch eine wichtige Angabe: Bei CCTV-Videokameras wird
gern das Format oder Bildfenster, d.h. die Größe des optisch
aktiven Bereichs auf dem CCD oder CMOS Sensor, in Zoll angegeben.
Die etwas willkürlichen Maßangaben stammen noch aus der Vidicon
Röhrenära. Auf deren (Stecksockel-!) Abmessungen gehen die Werte
zurück. Als Basis dient der zöllige Sensor mit einer Diagonalen von
ca. 16 mm:
Zölliges Format ≈ Sensor Diagonale [mm] /
16 mm
obwohl ein Zoll eigentlich 25,4 mm misst.
(Legende: fps = frames per second, dt.: Bilder pro Sekunde jeweils
bei Vollauflösung einiger ausgewählter Hochgeschwindigkeitskamera
Matrix Sensoren mit denen ich gearbeitet habe.)
Format [Zoll]
Breite [mm]
Höhe [mm]
Diagonale [mm]
Bemerkung
1/10
~ 1,44
~ 1,08
~ 1,8
autarke CCD Kamera für den medizinischen »in corpore« Einsatz
(zum Runterschlucken)
1/8
~ 1,626
~ 1,219
~ 2,032
CMOS Kameras für Sonderzwecke
1/7
~ 2,055
~ 1,624
~ 2,619
CMOS Kameras für Pads, Smart- und Mobiltelefone, ...
Kleinbild-Fotoapparate und »Vollformat« Digitalkameras
Blende
Der Lichteingang: Die Blende (engl.: f-stop) reduziert
die Lichtmenge, die auf den Sensor oder den Film fällt. Die
Blendenzahl ist definiert als k = Brennweite / effektiver
Öffnungsdurchmesser. Auf dem Blendenring sind die Blendenzahlen als
Wurzel-2-Fache aufgedruckt (1,4 - 2 - 2,8 - 4 - 5,6 - 8 - 11 - 16 -
22 - 32 - 64). Mit zunehmender Blendenzahl reduziert sich die
durchgelassene Lichtmenge so, dass man pro Stufe nur die Hälfte der
Intensität erhält.
Der Kehrwert der kleinsten Blendenzahl wird gerne »Lichtstärke«
genannte. Will man jedoch zwei Objektive, die die identische
Bildhelligkeit liefern, braucht man identische T-Blenden (engl.:
t-stop), definiert als t-stop = 10 × f-stop / √ Transmission
[in %], so wie sie bei Objektiven von Spielfilmkameras
üblicherweise angegeben werden.
Bei gleich großem Sensor vergrößert eine kleine Blende (= große
Blendenzahl) den Tiefenschärfenbereich, vgl. [SloMo Tipps].
Zoom Objektive, digitale Objektive und Auflösung
Die Bezeichnung Zoom steht für Objektive, die durch meist
stufenlose Brennweitenvergrößerung innerhalb eines vorgegebenen
Brennweitenbereiches Objekte heranholen können. Gewöhnlich sind sie
groß, schwer, teuer und lichtschwach. Nach Möglichkeit sollte man
lieber Wechselobjektive verschiedener, aber fester Brennweiten
verwenden. Es gibt echte Zoom Objektive, bei denen das Bild während
der Zoomfahrt scharf bleibt, und Vario Objektive, bei denen man
auch die Brennweite verändern kann, man aber zugleich auch
nachfokussieren muss.
Mit »Digitaler Zoom« oder »Elektronischer Zoom« bezeichnet man die
Vergrößerung eines Bildausschnittes mit Mitteln eines (einfachen)
Bildverarbeitungsprogrammes. Große Zoomstufen führen zu pixeligen
Bildern. Normalerweise ist elektronischer Zoom kein würdiger Ersatz
für ein entsprechendes Zoom Objektiv, auch wenn er gerne so
vermarktet wird.
Übrigens, ähnliches Thema: »5x Zoom« sagt nichts über die
Vergrößerung eines Objektives, sondern nur, dass seine kleinste
einstellbare Brennweite 5 mal kleiner ist als seine größte.
In der Zwischenzeit werden auch »digitale« Objektive, oder
manchmal auch telezentrische Objektive genannt, angeboten. Sie sind
so konstruiert, dass bildseitig ein möglichst senkrechter
Strahleneinfall auf den Sensor erreicht wird. Damit wird der
schachtartigen Pixelstruktur Rechnung getragen, die sich speziell
bei kleinen Sensoren mit hoher Pixeldichte durch Störungen wie
Beugung, Abschattung, Fehlfarben, Dämpfung, ... nachteilig
bemerkbar macht. (Gerade die kleinen, preiswerten Sensoren
benötigen aufwändige und teure Objektive.)
Solche Objektive als telezentrisch zu bezeichnen ist aber falsch.
Dieser Typ von Spezialobjektiven bildet ein Objekte unabhängig von
seiner Entfernung gleich groß ab. Man nutzt diese Optiken speziell
in der Bildverarbeitung zu Messaufgaben. Wenn man damit z.B. in ein
Rohr blickt, verjüngt es sich nicht mit zunehmender Entfernung,
sondern es sieht wie eine Beilagscheibe aus und man kann problemlos
den Innendurchmesser und die Wandstärke bestimmen. Bei einer
üblichen Landschaftsaufnahme hätte es den skurrilen Effekt, dass
sich z.B. Straßen, die zum Horizont laufen, nicht verjüngen.
Befasst man sich mit dem Begriff Auflösung, ist es sehr
empfehlenswert sich mit der MTF Kontrastübertragungsfunktion
vertraut zu machen, exzellent erklärt z.B. unter Optik für die Digitale Fotografie
(www.schneiderkreuznach.com/knowhow/digfoto.htm).
Glasverzug (= axialer Bildversatz)
Der trifft einen eher selten. Bringt man einen dünnen
Filter vor dem Objektiv an, hat das auf die Bildlage des optischen
Systems praktisch keine Auswirkungen. Das ändert sich aber
drastisch, wenn man hinter dem Objektiv ein Schutzglas, einen
Filter oder einen LC-shutter einbringt. Diese planparallelen
Platten führen zum sogenannten Glasverzug
Δd = (1 - 1/n) × d
mit dem Brechungsindex n und der Dicke d des Plättchens
(nLuft ≡ 1).
Bei einem Glasplättchen läge das Bild damit ca. 1/3 seiner Dicke
hinter dem Sensor, weil sich das effektive Auflagemaß entsprechend
verlängert. Es muss eine Mechanik vorgesehen werden, die diese
zusätzliche Distanz zwischen Objektiv und Kameragehäuse, genauer
dem Sensor, entsprechend ausgleicht.
Deswegen auch die Gewindestifte bzw. Einstellmechaniken an
Objektivadaptern z.B. von Kameras, die für den wahlweisen Einbau
eines internen LC-shutters oder eines zusätzlichen internen
(IR-Sperr-) Filters vorbereitet sind oder die auch IR tauglich sein
sollen.
Tipps und Tricks rund um die
Aufnahmerealisierung finden Sie hier: TOUR