Das normale Umgebungslicht im Büro oder in einer
Fertigungshalle reicht bei den meisten monochromen
Video-Hochgeschwindigkeitskamerasystemen noch. (Sie zeigen
Empfindlichkeiten irgendwo zwischen einigen hundert und einigen
tausend ASA bei nominaler Aufnahmefrequenz, abhängig von der
Verstärkung. Farbversionen zeigen gewöhnlich nur ca. 25%
davon.)
Allerdings gilt: Viel hilft viel. Je mehr Licht zur Verfügung
steht, desto weiter kann man die Blende schließen, d.h. eine höhere
Blendenzahl einstellen, und damit die Schärfentiefe verbessern. Ab
Blende 8 ist es ganz in Ordnung, aber 5,6 reicht auch schon.
Zu viel Licht gibt es eigentlich nicht - man kann durchaus die
glühende Wolframwendel eines 500 W Halogenstrahlers, eine
Laserschweißung oder eine elektrische Entladung aufnehmen.
Problematisch ist nur die Helligkeitsdynamik der Kamera. Das gilt
eigentlich für alle elektronischen Kameras. Schön kann man das an
einer Aufnahme aus der Tiefe eines Raumes hinaus durchs Fenster
sehen. (Deswegen sind bei Interviews in Büroräumen auch gerne die
Vorhänge zugezogen oder die Jalousien geschlossen. Bis HDRI (High
Dynamic Range Image) groß Einzug in die Videotechnik findet, wird
es wohl noch dauern.) Die üblichen 8 bis 12 Bit bzw. 256 bis
2 048 Helligkeitsstufen (d.h. Grautöne) sollten möglichst gut
ausgenutzt werden, auch wenn schon 64 Graustufen (6 Bit) einen
guten Bildeindruck hinterlassen. Will man die weniger hell
erleuchtete Umgebung noch sehen, muss man sie entsprechend
ausleuchten. Vergleichbar dem Füllblitz bei der Fotografie.
Übrigens, falls es doch einmal zu hell sein sollte, sorgen
Graufilter (neutral density, kurz: ND; dt.: neutral, ohne
Farbstich) für Abhilfe. Viele Objektive besitzen dafür
Gewinde.
Praxisbeispiel: Will man den Funkenflug beim Feuerzeug aufnehmen
und die Hand, die das Feuerzeug hält, noch abbilden, sollte man sie
mit mindestens 1 000 W beleuchten (siehe Aufnahme 2 mit
und 3 ohne Zusatzbeleuchtung in [SloMo Clips]).
Nebenbei: Die Dynamik wird oft in der Einheit Dezibel [dB]
angegeben. Der Zusammenhang zu Bits und Bytes erschließt sich aus
den folgenden Formeln:
x [dB] = 20 × log y bzw. y =
10x/20
Wobei x für den Wert in dB steht und y für die Anzahl der
Empfindlichkeitsstufen.
Damit entsprechen 8 Bit (= 28 = 256) also 20 × log 256
= 48 dB, während 60 dB für 1060/20 =
1 000, also ca. 10 Bit (210 = 1 024) Dynamik
stehen. 12 Bit wären somit ca. 72 dB.
Das sind typische Werte.
Die Profis verwenden zumindest Halogenscheinwerfer in
Studioqualität (definierte Farbtemperatur, ...), Kaltlichtquellen
(geringer Infrarotanteil), wenn nicht sogar HMI-Leuchten
(tageslichtähnliches Spektrum) und Gleichspannungsleuchten, um das
Flackern mit der 50 Hertz Netzfrequenz (1 Hz (Hertz) = 1/sek)
zu eliminieren. Bei einer Aufnahme mit Licht hauptsächlich von den
üblichen Leuchtstoffröhren der Deckenbeleuchtung kann die
Helligkeit nämlich deutlich pumpen, siehe Abbildung links und für
Details [SloMo Freq.] klicke. Der
Effekt ist auch von den flimmernden Zeitlupenbildern bei
Fernsehübertragungen her bekannt.
Wegen der unterschiedlichen Farbtemperatur der Lichtquellen, z.B.
leuchtet die Wolfram-Glühwendel einer Halogenlampe langwelliger
oder wärmer (d.h. rötlicher oder gelblicher) als Tageslicht, bieten
elektronische Kameras als Ausgleich den sogenannten Weißabgleich
(engl.: white balance) an. Dann wird Weiß wieder Blütenweiß.
Aber Vorsicht: Ein Halogenstrahler mit einer Nennleistung von
1 000 W heizt mit ca. 900 W. Das kann reichen um
Plastik in weniger als 1 m Entfernung innerhalb von kurzer
Zeit anzuschmelzen.
Belichtungszeit und Blende
Funktionsweise von shutter und (Apertur-) Blende
(Flüssigkristall-) LC-shutter mit Displaytechs FLCs.
Vorgesehen für externe oder interne Montage.
Versorgung und Steuerung über die Kameraelektronik
Die Belichtung, besser, die maximale Belichtungszeit von
Hochgeschwindigkeitskameras, beträgt meist nahezu
1/Aufnahmefrequenz. Bei z.B. 1 000 Bildern pro Sekunde kann
die Belichtungszeit pro Bild also allerhöchstens 1/1000 Sekunde
betragen. Der Sensor integriert während dieser Zeitspanne über die
einfallende Lichtmenge.
Der Sensor ist praktisch während der gesamten Belichtungszeit
eines Bildes aufnahmefähig. Die grauen Flächen unter den
Kurven im Bild rechts oben sind ein Maß dafür. Der schmale Spalt
zwischen den Bildern (engl.: frame) ist die Auslese- und/oder
Initialisierungszeit des Sensors im Bereich von einigen
Mikrosekunden oder weniger.
Das Schließen der Objektivblende (engl.: aperture, f-stop)
verringert die einfallende Lichtmenge global für alle Bilder. Je
größer die Blendenzahl, desto kleiner wird die Irisblende und desto
weniger Licht fällt auf den Sensor.
Ein shutter (dt.: Verschluss) reduziert ebenfalls die einfallende
Lichtmenge, allerdings durch eine wiederkehrende (feste) Reduktion
der Belichtungszeit pro Bild. Technisch gesprochen ändert er das
Impuls-Pausen-Verhältnis (engl.: duty cycle) und verkürzt die Zeit
in der ein Bild effektiv aufgenommen wird.
Während die Blende also insgesamt die Belichtungsintensität
beschränkt, dient ein shutter hauptsächlich dazu die
Bewegungsunschärfe zu reduzieren. Denn bewegt sich das Objekt in
der Belichtungszeit um mehr als 10% seiner Größe, wird dies
gewöhnlich als störend empfunden. (In der Fotografie akzeptiert man
gerade einmal bis 3%.)
Es gibt verschiedenen Methoden die Bewegungsunschärfe zu
reduzieren:
Die Aufnahmefrequenz erhöhen (was je nach Kameraeigenschaften
unter Umständen eine Auflösungsreduktion nach sich zieht oder mehr
Licht erfordert)
Ein Stroboskop einsetzen (wobei das Hintergrundlicht nicht zu
stark sein darf, bzw. der Ausleuchtungsbereich des Stroboskops
beschränkt ist)
Einen optionalen Verschluss einsetzen, z.B. einen liquid
crystal-shutter (LC-shutter), der Belichtungszeiten von ca. bis zu
1/10 000 sek erlaubt, aber schon im offenen Zustand ca. zwei
Blendenstufen kostet (Transmission ca. 30%).
Viele aktuelle Systeme verfügen standardmäßig über einen mehr
als zehn mal schnelleren elektronischen Verschluss im Chipdesign
und brauchen somit keinen zusätzlichen LC-shutter.
Belichtungszeiten von Mikrosekunden und darunter sind weniger ein
technisches Problem, als ein Exportkriterium in Form von Dual Use
(militärische Verwendung) Beschränkungen.
Für diejenigen, die mehr wollen oder brauchen - in diesem Fall
kürzere Belichtungszeiten - helfen z.B. Kerr- oder Pockels-Zellen.
Natürlich gibt es auch mechanische shutter und auch Chopper (dt.:
Zerhacker) in Form von Spalten- oder Lochrädern.
Anmerkung: Im Gegensatz zum oben beschriebenen, auf den gesamten
Sensor gleichzeitig operierenden globalen Verschluss (auch engl.:
snap-shot shutter, freeze frame shutter), gibt es auch den
zeilenweise arbeitenden rollierenden oder Schlitzverschluss (engl.:
rolling shutter). Für die Bewegungsanalyse sind Kameras mit
ersterem vorzuziehen, da beim Rollieren nicht sicher gestellt ist
das resultierende Bild zu einem definierten Zeitpunkt
aufzunehmen.
Mit der Verschlusszeit kann man selbstverständlich auch die
Bildhelligkeit variieren, wenn man den Blendenring nicht verstellen
kann oder will. Letzteres betrifft mehr die künstlerische
Annäherung, denn die Schärfentiefe ist von der Blende abhängig. Mit
größerer Blendenzahl nimmt sie zu. Wer's braucht...
Schärfentiefe (auch Tiefenschärfe)
Die Bezeichnung des Abstandsbereichs, in welchem Objekte
scharf abgebildet werden. Es ist deswegen nicht nur ein Punkt, wie
es die Aufschrift auf dem Entfernungsring (Fokus) nahe legt, weil
innerhalb eines Toleranzbereiches der Sensor oder auch das Auge
nicht besser auflösen können. Wird ein Punkt jeweils innerhalb des
sogenannten bildseitigen Unschärfekreises (auch Zerstreuungskreis;
ca. 0,01 mm bis 0,025 mm Durchmesser bei gängigen
Sensorformaten und 0,033 mm beim Kleinbildformat) abgebildet,
bemerkt man die Unschärfe nicht.
Die Lage und Ausdehnung ist maßgeblich von der Blende abhängig:
kleine Blende (= große Blendenzahl) - große Schärfentiefe. Wobei
sie sich hinter der rechnerischen Position des Fokusabstandes
weiter ausdehnt als davor.
Die Schärfentiefe wird gesteigert durch kürzere Brennweite,
größeren Objektabstand und größeres Film-/Sensorformat bzw. genauer
größere Pixel. (Wegen des Crop-Faktors scheinen geschrumpfte
Sensoren die Schärfentiefe zu vergrößern(!).)
Es gibt eine etwas unhandliche Berechnungsformel, siehe
den Abstands- und Brennweitenrechner [SloMo f = ∞].
Aber Schärfentiefe ist sowieso ein Unwort bei
Hochgeschwindigkeitsaufnahmen in Industrieumgebung (meist ist die
Blende der »Finstermatik« sowieso bis zum Anschlag offen ;-).
Die Einstellung auf die sogenannte hyperfokale Entfernung h
bewirkt, dass von h/2 bis Unendlich scharf abgebildet wird. Dies
wird dann auch als Fixfokus oder Naheinstellung bezeichnet und wird
speziell bei einfachen Kameras eingesetzt.
Billige Objektive, speziell CS-Mount für Überwachungskameras,
verfügen oft nicht einmal über einen Entfernungsring. Sie werden
nur über die Blende scharf gestellt. Für die nötige Helligkeit
muss hier die elektronische Verstärkung (engl.: gain) der Kamera
sorgen.
Bildausschnitt und Objektiv
Die Aufgabe erfolgreich meistern: Das was interessiert
möglichst formatfüllend abbilden. Bei C-Mount geht es durchaus mit
Zwischenringen (im Set weniger als € 50,-) und Objektiven
fester Brennweite oder einer zusätzlichen Nahlinse ein Objekt mit
5 mm Durchmesser bildschirmfüllend aufzunehmen. Bei Aufnahmen,
die anschließend automatisch ausgewertet werden sollen (z.B. per
Bahnverfolgung), sollte man keine Weitwinkelobjektive mit
Brennweiten unter 6,5 mm wählen, da die Verzeichnung sonst
nicht mehr tolerierbar ist (bezogen auf C-Mount 2/3 Zoll Format).
Als Objektive und Zubehör kann man alles was für den entsprechenden
Mount passt verwenden, auch Filter, Makro-, Zoom- und
Fischaugenobjektive und mit entsprechenden Adaptern auch
Fotoobjektive, Balgen, Mikroskope, Endoskope, Boroskope,
Faseroptiken, Restlichtverstärker, ... Nur sollte man beachten, je
komplizierter die Optik, desto mehr Licht braucht man meist.
Der Foto-Fachhandel bietet Adapter zum Anpassen gängiger
Objektivanschlüsse an, z.B. C-Mount auf Nikon Bajonett (Nikon F).
Einige Hochgeschwindigkeitskameras erlauben (wie auch viele
professionelle Standbildkameras) darüber hinaus, dank einer
Montageplatte/Referenzebene, die Wahl zwischen zahlreichen
(kunden-) spezifischen Adaptern, wie Nikon F-, C-, Kinoptik-,
Stalex- (M42), Voigtländer-Mount und anderen.
Eigentlich gibt die Brennweitenaufschrift auf
Objektiven die bildseitige Brennweite bei Abbildung eines unendlich
weit entfernten Objektes bei 546 Nanometer Wellenlänge an. Dann
geschieht die Bilderzeugung im bildseitigen Brennpunkt.
Die Definition nach der DIN 4521 Norm lautet:
f' = limω-->0
(y'/tan ω)
Mit dem halben Feldwinkel ω und der halben
Bilddiagonalen y'.
(Im Folgenden wird der Feldwinkel wegen der formatfüllenden
Aufnahme stark vereinfachend mit dem Bildwinkel gleichgesetzt und
f' mit f als der Brennweitenbeschriftung des Objektives.)
Die Faustformel zur überschlägigen Berechnung der
nötigen Brennweite zur format- oder sensorfüllenden Abbildung S
lautet
Brennweite = Distanz zum Objekt / (1 +
Objektgröße / Bildgröße); [alle Werte in mm]
Und die Abschätzung für die nötige Distanz bei gegebener
Brennweite lautet
Distanz zum Objekt = Brennweite × (1 +
Objektgröße / Bildgröße); [alle Werte in mm]
Der Bild- oder Öffnungswinkel 2ω (engl.: angle of view,
field of view; ≡ 2ω', siehe Bild oben) ergibt sich
aus
2ω = 2 × arctan (1/2 × Bildgröße /
Brennweite)
Die Vergrößerung V ergibt sich aus der Linsenabbildung auf den
Sensor und aus der Darstellung des Bildes auf dem
Monitor
V = Brennweite / (Distanz zum Objekt -
Brennweite) × Monitorbilddiagonale / Sensordiagonale
Man muss aber die Beschränkungen von Standard-Objektiven
beachten. Unterhalb eines Abstands von 0,3 m (manchmal auch
1 m) zum Objekt lassen sie sich nicht mehr scharfstellen. Bei
einem solchen Anwendungsfall braucht man Zwischenringe, eine
Nahlinse oder ein Mikro(skop)-Objektiv, etc.
Die Dicke t des Zwischenringes, der zwischen Objektiv und
Kameragehäuse eingeschraubt wird, ergibt sich aus
t = Bildgröße / Objektgröße ×
Brennweite
wobei der Bruchausdruck Bildgröße / Objektgröße der
Abbildungsmaßstab ist. Aber Vorsicht, so einfach sie auch sind -
Zwischenringe fressen Licht.
Feineinstellung des Auflagemaßes
Der Fehler beim Auflagemaß ergibt sich offensichtlich
durch Fertigungstoleranzen, Fehlanpassungen (Inkompatibilität von
Komponenten) und in den Strahlengang zwischen Objektiv und Film
bzw. Sensor eingebrachte Medien. Und bei crashfesten Kameras geht
die mechanisch Festigkeit über alles, auch über (zu filigrane)
Justagemechaniken.
Vorausgesetzt man verwendet den passenden Adapter kommt man bei
einem Objektiv mit fester Brennweite durch drehen des
Entfernungsrings (Fokus) normalerweise problemlos zu scharfen
Bildern. Mag sein, dass dann der Entfernungsaufdruck und der
Bildvergrößerungsfaktor nicht ganz stimmen. Meistens stört das aber
nicht weiter.
Beim Zoom Objektiv dagegen verliert man während des Zoom Vorganges
an Bildschärfe. Eigentlich sollte sie gleich bleiben und sich nur
die Vergrößerung (und damit der Bildausschnitt) verändern. Das Zoom
Objektiv ist dann nur eingeschränkt als Vario Objektiv verwendbar.
Zeitgleich zum Zoomen müsste man immer wieder scharfstellen.
Allerdings wird bei Hochgeschwindigkeitskameras eher selten mit
solchen Zoom Fahrten gearbeitet.
Zur vollen Nutzung der Zoom Fähigkeit muss das Auflagemaß jedoch
genau eingestellt werden. Mit einfachen Mitteln geschieht dies wie
folgt:
Blende maximal öffnen um die Schärfentiefe zu reduzieren
(gegebenenfalls den Raum abdunkeln, die Belichtungszeit verkürzen,
...)
Ein ca. 3 m bis 7 m entferntes Objekt auswählen
Das Bild bei maximalem Zoom (größte Brennweite) mit dem
Entfernungsring scharfstellen
Das Bild bei minimalem Zoom (kleinste Brennweite) durch Änderung
des Auflagemaßes scharfstellen. (Der Entfernungsring wird dabei
nicht verstellt)
Solange iterieren, bis das Bild in beiden Zoom Positionen ohne
Nachkorrektur scharf bleibt
Zur Einstellung des Auflagemaßes verfügen Kameragehäuse entweder
über eine in Längsrichtung verschiebbare Gewindebuchse - praktisch
Standard bei C-Mount Kameras (wie z.B. SpeedCam +500/+2000,
SpeedCam 512 und SpeedCam PRO Kameras) oder es werden
Zwischenbleche untergelegt (z.B. Stalex und SpeedCam Visario
Kameras). Manche Kamerafabrikate verfügen über eine Mechanik zur
Änderung der Sensorposition. Auch gibt es Objektive, vor allem mit
C-Mount, bei denen der kameraseitige Gehäusezylinder verschoben
werden kann. Suchen Sie nach einer kleinen Madenschraube im
Umfang.
Auswertung
Doch bitte vergessen Sie nicht: Sie erhalten große
Datenmengen. Eine Megapixelauflösung bei 1 000 Bilder/sek und
mehr zieht nun einmal Datenraten im Gigabyte/sek Bereich nach sich.
Also mehr als eine CD-R pro Sekunde oder eine große DVD-R pro
Sequenz würden gefüllt werden. Und das wohlgemerkt pro Kamera.
Wundern Sie sich also nicht, wenn das
Hochgeschwindigkeitskamerasystem beim Download, Abspeichern und
Abspielen dieser Dateien ziemlich beschäftigt ist. Und - man sollte
sich wirklich vorher ein Konzept für speichern und archivieren der
Dateien überlegen.
Die großen Datenmengen sorgen dafür, dass man die Kameras
offline einsetzt. Sie somit nicht unmittelbar zur Steuerung
heranzieht und sie nicht direkt in eine übergeordnete
Maschinensteuerung einbindet. Die Bildverarbeitung wäre einfach zu
aufwändig und zu langsam. Man sieht zu und analysiert
nachträglich.
(Langsamere Kameras aus dem Bildverarbeitungssektor - Machine
Vision Sensoren - können schon heute mit soviel Rechenleistung
versehen werden, dass sie wie ein Sensor arbeiten und nur noch ein
Gut-/Schlechtsignal - z.B. »Etikett richtig auf die Flasche geklebt
- Ja/Nein?« - an die Steuerung weitergeben und keine Bilddaten zur
weiteren Verarbeitung.)
Für die Steuerung von Hochgeschwindigkeitskameras, auch für
Mehrkanalsysteme unterschiedlicher Hersteller, ist spezielle
Software verfügbar. Die Auswertung erfolgt entweder direkt visuell
oder mit Bewegungsanalyse-Software Paketen, sogenannten Motion
Tracker. Siehe z.B. die entsprechenden Links in [SloMo
Links].
Für die automatische Objektverfolgung mittels Software sollte man
darauf achten, dass der Hintergrund möglichst einheitlich gestaltet
ist, also keine Gitter-, Schachbrettmuster oder so etwas wie eine
Blümchentapete. Das reduziert die Rechenzeit und verhindert, dass
die Such- und Verfolgungsalgorithmen ihre Attraktoren im
Hintergrund finden und hängen bleiben anstatt das gewünschte Objekt
zu verfolgen.
Falls Sie beabsichtigen die Bilddateien im AVI Format zu
archivieren, überlegen Sie sich den Einsatz der Komprimierungstools
Intel Indeo oder DivX und sparen Sie bis zu 90%
Speicherplatz ohne nennenswerten Qualitätsverlust. DivX liefert
meist kleinere Dateien, speziell wenn sich wenig im Bildausschnitt
bewegt. Indeo dagegen empfiehlt sich für die automatische
Weiterverarbeitung, da es die Positionen der Objekte weniger stark
manipuliert.
Die AVI Dateien kann man z.B. mit VidEdit! bearbeiten
(d.h. Bildformat, Abspielgeschwindigkeit, ... ändern). Für diese
und andere Hilfsmittel schauen Sie einfach einmal hier im [D-Laden]
(Download Zentrum) nach, siehe Knopf links.
Man nimmt zwar mit Super-Zeitlupe auf um sich schnelle Vorgänge
verlangsamt anzusehen, trotzdem sollte man auch einmal schneller
abspielen, z.B. mit 25 bis 100 Bilder/sek (bei einem Original mit
1 000 Bilder/sek), sonst geht der Bewegungseindruck verloren.
Das gilt vor allem dann, wenn man die Aufnahmen Außenstehenden, die
mit der Szenerie nicht so vertraut sind, zeigen will.
Da die Hochgeschwindigkeitskameras auch mit der normalen
Geschwindigkeit von 50 Bilder/sek betrieben werden können, ist es
möglich einen regelrechten Videoclip zu drehen. Und mit dieser
Aufnahmefrequenz auf CD oder DVD überspielt, kann man ihn dem
Kunden, für den man die Anlage gebaut hat, mit den Worten
übergeben: »So ist ihre Maschine in der Endkontrolle gelaufen.«
Kommt nicht nur bei den hochauflösenden Kameras wirklich gut. So
wird der Versuch zum Werbefilm.
Tricks zur Systemintegration
Fernsteuerung
Die Aufgabe: Eine Kamera soll eingestellt werden
(Aufnahmebereich, Blende, Schärfe, Belichtungszeit, Trigger,
Format, ...), aber der Steuerrechner steht in größerer Entfernung,
z.B. in der Warte hinter einer Sicherheitsschleuse, so dass man an
der Kamera kein Livebild hat. Oder man möchte das Kamerasystem aus
größerer Entfernung steuern.
Die üblichen Schnittstellen (GigaBit Ethernet, etc.) sind zwar
ausreichend schnell, man ist aber oft auf eine teure Steuersoftware
des Kameraherstellers oder einer Drittfirma angewiesen.
Warum versuchen Sie es nicht einmal mit einer preiswerten KVM?
KVM-Extender (= Keyboard-VGA/Video-Mouse Verlängerung) bieten eine
leistungsfähige Fernsteuermöglichkeit ohne Eingriffe in den
Rechner. (Selbst zusätzliche Treiber/Software sind nicht nötig.)
Die KVM besteht aus einem Sendegerät und einem Empfangsgerät, die
im einfachsten Fall mit einem normalen Cat 5 UTP Ethernet-Kabel
verbunden sind. Das Sendegerät wird am Steuerrechner anstelle von
Tastatur, Maus und VGA-Monitor angeschlossen. Am Empfänger schließt
man dann die tatsächlichen Peripheriegeräte an. Jetzt kann man am
Empfänger arbeiten als würde der Rechner neben einem stehen. Je
nach gewähltem Gerät/Übertragungstechnologie sind Entfernungen von
etlichen zehn Metern bis zu über einigen hundert Metern
möglich.
Trigger und Synchronisation
Der englischsprachige Ausdruck Trigger(n) bedeutet nichts
anderes als einmaliger Auslöser. Beispielsweise wird die Aufnahme
gestartet, wenn das Crashtest-Auto gegen die Wand fährt. Der
Triggergeber ist dabei oft ein schlichter Kontakt an der
Stoßstange, der beim Aufschlag kurzschließt, oder eine
Lichtschranke.
Synchronisieren bedeutet die Aufnahmefrequenz zu einem
periodischen Ereignis über einen gewissen Zeitraum in einem
definierten Verhältnis und einem festen zeitlichen Versatz zu
stabilisieren. Idealerweise geschieht dies durch ein
wiederkehrendes Steuersignal, das jedes Mal einen Bildeinzug
auslöst. So wird man, wenn man ein Stroboskop als
Beleuchtungsquelle nutzt, die Aufnahmephase der Kamera so legen,
dass sie immer dann aufnimmt, wenn das Stroboskop blitzt. Man wählt
die Aufnahmefrequenz gleich der Blitzfrequenz und legt den
Bildeinzug so, dass die Kamera während des Blitzes auch aktiv ist,
ihr Verschluss nicht etwa gerade zu ist, und sie somit den relativ
kurzen Lichtblitz auch sehen kann.
Manchmal bieten Kameras auch ein sogenanntes »Strobe«-Steuersignal
an. Es markiert die Belichtungszeit jedes Bildes; während die
Kamera belichtet ist es gesetzt.
So ganz trivial ist das Triggern gar nicht. Denn immerhin muss
eine synchron laufende Kamera kurzfristig auf einen asynchronen
Triggerimpuls reagieren. Da kann es schnell zu einem Bildversatz
kommen, weil die Kamera erst noch den vorherigen Bildeinzug beenden
muss. Da bei Triggerauslösung der Ring-Bildspeicher ja zu einem
bestimmten Teil bereits fest beschrieben sein kann, besitzen
Hochgeschwindigkeitskameras nämlich oft keine sogenannte
Restartfähigkeit, wie sie Videokameras ohne Bildspeicher bieten
können. Letztere sind in der Lage fast zeitgleich mit dem Trigger
eine neue Aufnahme zu starten.
Wenn man verschiedene Geräte triggern oder
synchronisieren will, sieht man sich schnell mit unterschiedlichen
Signalpegeln, Impulsdauern und Phasenlagen konfrontiert, die
einfach nicht zusammenpassen wollen.
Deshalb hier auf der linken Seite eine ganz einfache und
preiswerte Schaltung, siehe auch [SloMo Trig.] für die
Beschreibung, die hilfreich bei der Anpassung sein kann.
(Denn nicht überall wo »Trigger« drauf steht, ist auch Trigger
drin ;-)
Gerade bei Mehrkanalaufnahmen, und besonders bei
3-D-Vermessungen, wird die Synchronisation der Kameras zueinander
und generell ihre Triggerung außerordentlich wichtig.
Einzelbilder aus einer Sequenz
Die Aufgabe: Erstellung von Einzelbildern einer Sequenz,
z.B. zum Einsetzen in ein Microsoft Word Dokument oder ein anderes
DTP- oder Zeichenprogramm.
Vorgehen: Verwendung der Windows-Zwischenablage (copy and
paste)
Sequenz im Abspielprogramm öffnen
Ein Bild auswählen und in das Darstellungsfenster (Kanalfenster)
klicken (markieren)
Ein Microsoft Word Dokument, Microsoft Paint oder ein anderes
(geeignetes) Zeichenprogramm öffnen
Tastenkombination [Steuerung] [V] (einfügen) drücken
oder in einem entsprechenden Pull-down Menü anwählen und das Bild
wird eingefügt
Wenn das nicht funktioniert, geht es auch anders, wenn auch
nicht so elegant: Einfach mit [Umschalt] [Druck] eine Kopie des
kompletten Bildschirminhalts veranlassen, sie als Bild in ein
Zeichenprogramm (z.B. Microsoft Paint) einfügen und zurecht
schneiden.
Autologon und automatischer Start
Die Aufgabe: Ein Windows PC mit oder ohne
Ethernetanschluss soll selbständig hochlaufen. Im Spezialfall sogar
ohne angeschlossene Tastatur, Maus und Monitor.)
Vorgehen: Mit dem Hilfsprogramm Tweak UI von der Windows
Installations-CD (oder als Download von der Microsoft Seite als
Teil der Powertoys oder Drittanbietern) die Autologon-Funktion von
Windows nutzen. (Achtung: Danach steht das Passwort für das System
und die Netzwerkverbindung unverschlüsselt auf der Festplatte!)
Tweak UI installieren und aufrufen
In der Rubrik Network das Kästchen Log on
automatically at system startup anklicken. Bei
Username den Namen des neuen, zuvor im Netzwerk
eingerichteten Benutzers und irgendein (neues) Passwort
eingeben
In der Rubrik Boot bei Autorun Scandisk
den Punkt Without prompting anwählen
Im Windows-Desktop das Icon des gewünschten Programms mit der
RECHTEN Maustaste anklicken und Kopieren wählen. Dann
mit Start | Programme zum Ordner Autostart
fahren und mit rechter Maustaste anklicken (nicht mit der linken
öffnen und damit das Pull-Down Menü aufrufen) und
Einfügen wählen
Windows beenden, System abschalten
Folgende Schritte sind zusätzlich nötig, wenn der Start ohne
Peripheriegeräte erfolgen soll:
Im BIOS Halt on no errors aktivieren
Windows beenden und System abschalten
Maus abziehen
Neustart
Windows startet und meldet Keine Maus gefunden.
Kästchen Diese Meldung nicht mehr anzeigen anwählen.
(Kursorbewegung mit der Tabulatortaste und anwählen mit der
Leertaste)
Windows beenden und System abschalten
Tastatur und Monitor abziehen
Neustart
Ergebnis: Das System läuft hoch bis zum Windows Desktop und mit
dem gewünschten Programm in Verzeichnis Autostart hinterlegt sogar
bis zur Ihrer Anwendung.
(Übrigens: Bei Windows XP und Vista lautet das Zauberwort
control userpasswords2. Man muss es im Startmenü bei
Ausführen eingeben. Bei Rechnern, die nicht in der
selben Domäne sind, kann man damit Benutzerkonten ohne
Passwortabfrage auswählen.)
Reinigung von Objektiven, Sensoren und LC-shutter
Die Experten am Zug - natürlich hat niemand auf das
Objektiv gefasst und erst recht hat keiner es unabgedeckt
herumstehen lassen bis sich ein regelrechter Staubhügel darauf
angesammelt hat... Abblasen hilft nicht mehr und bei einem
mechanischen Reinigungsversuch hat man nur allzu oft das Gefühl den
Dreck allenfalls gleichmäßig zu verteilen. Ganz abgesehen davon,
dass bei der Verwendung eines trockenen Tuches Kratzer in der
vergleichsweise empfindlichen Antireflex-Beschichtung drohen.
Alkoholgetränkte (Isopropanol) Wattestäbchen, feuchte
Brillenputztücher oder Fensterleder mit wasserverdünntem
Geschirrspülmittel oder Fensterreiniger (und weiches Wischpapier
zum Abtrocknen) sind wesentlich besser. Das ultimative Mittel gegen
Fingerabdrücke und Dreck auf Glas aber ist Opticlean Polymer z.B.
von Dantronix - nicht ganz billig, aber endgültig (oder eben doch
die Staubschutzkappen ;-).
Bei den SpeedCam Kameras sind, wie bei Videokameras üblich, die
Sensoren durch eine fallweise beschichtete, d.h. optisch vergütete,
Glasscheibe geschützt. Speziell bei Fotoapparaten kann in manchen
Fällen der Chip allerdings offen sein. Dann ist wegen des
empfindlichen Farbfiltermuster Films (Polymer) Vorsicht bei der
Reinigung geboten.
Wenn keine Spannung am LC-shutter anliegt, kann er Flecken und
Einschlüsse zeigen, die ihn kaputt aussehen lassen. Keine Sorge,
die Steuerspannung löscht sie alle. Das kann man ganz einfach
überprüfen, wenn man ihn an der mit niedriger Frequenz laufenden
Kamera betreibt und versucht durch ihn zu blicken. Oder wenn man
abwechselnd Gleichspannung (±5 V? Bedienungsanleitung prüfen!)
an den LC-shutter anschließt und durch ihn blickt. Er macht dann
ganz auf und ganz zu.
Es ist sehr zu empfehlen den LC-shutter wesentlich vorsichtiger zu
reinigen als man das von Glas gewohnt ist.
Hier Bilder, Informationen und Technische Daten
zu den SpeedCam Systemen als Beispiel für die Eigenschaften
digitaler Hochgeschwindigkeitskameras: TOUR