Das sind die drei Varianten der
Lytro Kamera, die man derzeit noch nicht kaufen, aber schon vorbestellen kann. Es wird die erste sogenannte Lichfeldkamera sein, die zu einem akzeptablen Preis von jedermann gekauft werden kann. Die Idee zu einer solchen
"plenoptischen" Kamera existiert schon länger, ein Prototyp in Form eines modifizierten Mittelformatsensors plus spezieller Software wurde im Rahmen von
Ren Ng's Doktorarbeit (2006) (
eine Zusammenfassung gibt's hier) ander Stanford-Universität gebaut und benutzt. Aber
auch von anderen gibt es ähnliche Ansätze zumindest als Laborstudien. Ren Ng ist heute übrigends CEO von Lytro und versucht mit dieser Firma -nun ja- die Fotografie zu revolutionieren. Ob Lytro das gelingen wird wird die Zukunft zeigen, auf alle Fälle sind sie die ersten, die neue technische, aber auch gestalterische Möglichkeiten aufzeigen. Endlich nutzt mal jemand die immensen Fortschritte, die die digitale Sensor-technologie, Mikroprozessoren und Bildalgorithmen in den letzten Zehn Jahren erfahren haben, nicht nur um mit digitaler Fototechnik die gute alte Tante Film nachzubilden, sondern um alte Paradigmen wie den Zusammenhang zwischen Blendenöffnung, Brennweite und Schärfentiefe aus den Angeln zu heben.
Um zu verstehen, was an der Kamera nun anders ist, muss ich ein bißchen ausholen. Jedes Pixel (oder Silberhalogenidkorn) einer konventionellen Kamera summiert einfach während der Aufnahme das auf diese Stelle fallende Licht auf. Es entsteht ein zweidimensionales Bild, weil das Objektiv ein Objekt eben genau auf diese Ebene projiziert und die zum Objekt gehörenden Lichtstrahlen auf das entsprechende Pixel bündelt (bei einem scharfen Abbild). Das "Pixel" weiß aber nichts über die Richtung der Lichtstrahlen, die es treffen. Wenn es das wüßte, dann wäre ein entsprechender Kamerasensor mit entsprechendem Mikroprozessor in der Lage, auch Bilder zu rechnen, die auf virtuellen Ebenen vor oder hinter dem eigentlichen Sensor scharf abbilden. Raytraycing-Algorithmen aus der modernen Computergrafik machen es möglich.
|
Abbildung aus A. Gershuns Artikel, in dem er den Begriff Lichtfeld prägt. (Gershun, A. (1936). "The Light Field", Moscow, 1936. Translated by P. Moon and G. Timoshenko in Journal of Mathematics and Physics, Vol. XVIII, MIT, 1939, fig 17) |
Schon 1936 hat der russische Mathematiker Gershun den Begriff des Lichfelds geprägt, eine 5-dimensionale Darstellung allen Lichtes in einem definierten Raum. Ein Lichtstrahl ist definiert über einen Punkt in diesem Raum (x,y,z) und zwei Winkeln, die seine Richtung angeben (zusammen: 5 Dimensionen). Bei unserer sog. 4D-Lichtfeldkamera kann man auf eine Dimension verzichten, da man nur das Lichtfeld im Raum zwischen Objektiv (speziell der Blendenebene) und dem Sensor betrachtet und davon ausgehen kann, dass dieser Raum leer ist und ein Lichtstrahl sich darin geradlinig fortpflanzt. Die verbleibenen 4 Dimensionen kann man anschaulich am Besten über die beiden Schnittpunkte des Lichtstrahls mit der jeweils zweidimensionalen Blenden- und der Sensorebene verstehen, die den Strahl eindeutig definieren.
Wie baut man jetzt aber einen Digitalsensor, der nicht nur die Helligkeit an einem Punkt erfasst, sondern zusätzlich noch die Richtung der verschiedenen Lichtstrahlen, die ihn dort treffen? Der Trick besteht in einem Mikrolinsenraster vor dem Sensor, eine sog. "plenoptische Kamera". Jede dieser Mikrolinsen repräsentiert nun ein Pixel der Lichtfeldkamera und bildet das virtuelle Bild in der Blendenebene des Hauptobjektivs auf möglichst viele darunterliegende Pixel des eigentlichen Sensors ab. Die Bildverarbeitung erledigt den Rest: Jedes Mikrobild (Lichtfeldpixel) enthält nun Informationen nicht nur über die Helligkeit an dieser Stelle des Bildes, sondern auch über die Richtung der Lichtstrahlen. Und wenn man das Diagramm anschaut, kann man nun auch verstehen, dass ein Algorithmus nun in der Lage ist, aus den zusätzlichen Informationen auch andere Bilder zusammenzurechnen als nur das eine konventionelle.
Die Kamera verspricht nachträgliches Fokussieren per Bildbearbeitung, auf Lytro's Web-Site kann man das sogar
anhand vieler Beispiele selbst nachvollziehen. Außerdem wird der uralte Zusammenhang zwischen Blende und Schärfentiefe aufgehoben, man kann also Bilder mit hoher Schärfentiefe und gleichzeitig kurzer Verschlusszeit machen. Gerade für Makro- (oder Mikro-) aufnahmen ergeben sich tolle Möglichkeiten mit deutlich erweiterter Schärfenkontrolle. Ich bin fasziniert von diesen
Möglichkeiten, zweifele aber ein bißchen am großen Markterfolg der
Kamera. Dafür ist sie einfach zu ungewöhlich: das Design ist zwar
auffallend, schlicht und schön, aber eben auch viel zu anders als das,
was wir als Kamera gewohnt sind. Und auch die implizierte Aufforderung
an den Betrachter mit der Schärfe im Bild selbst zu spielen kommt nicht
direkt rüber.
Ren Ng hat in seiner Dissertation
aber schon auf andere versteckte Möglichkeiten der Technologie
hingewiesen, und hier bin ich sicher, dass sie unweigerlich in
zukünftigen Digitalkameras kommen werden: Objektive können mechanisch
und optisch simpler gehalten werden. Man lasse z.B. den Autofokusmotor
weg und kann trotzdem ein weit geöffnetes Fixfokusobjektiv bauen und
einfach nachträglich elektronisch (und automatisch) fokussieren.
Objekive können mit weniger Linsen gebaut werden, da man die
Abbildungsfehler (verschiedene Formen der Aberation) ja elektronisch nun
wieder rausrechnen kann. Lassen wir uns überraschen....
Nachtrag vom 2.1.2015: Inzwischen habe ich eine solche Kamera im Black Friday Sale 2014 günstig erwerben können. Natürlich habe ich auch ausgiebig getestet. Meine Ergebnisse und das Fazit kann man hier nachlesen: