SENDETERMIN Sa., 28.01.17 | 16:00 Uhr | Das Erste

Auge und Kamera – ein Vergleich

PlayEin Mann fotografiert mit einer Digitalkamera
Auge und Kamera – ein Vergleich | Video verfügbar bis 28.01.2022 | Bild: NDR

Es scheint ein uraltes Bedürfnis des Menschen zu sein, seine Umwelt nicht nur zu sehen, er will sie auch abbilden. Die ältesten bekannten Bilder malten Menschen vor rund 40.000 Jahren an die Wände einer Höhle in Spanien. Heute werden jeden Tag zig Millionen Fotos geschossen, in Zeitungen gedruckt, im Internet veröffentlicht und auf Computern gespeichert.

Prinzip der Camera Obscura

Die Kameras, die wir dafür benutzen, basieren noch heute auf einem Prinzip, das schon Aristoteles bekannt war: Im 4. Jahrhundert v. Chr. wurde erstmals das Phänomen eines auf dem Kopf stehenden Bildes beschrieben, das entsteht, wenn Licht durch ein kleines Loch in einen dunklen Raum fällt. Rund 1.000 Jahre später stellte Leonardo da Vinci fest, dass dieses Prinzip der Camera Obscura der Natur des menschlichen Auges entspricht. Doch diese Bilder waren flüchtig. Sie ließen sich nur durch Abmalen festhalten. Erst mit der Entwicklung lichtempfindlicher Platten, im 19. Jahrhundert, gelang es den Blick auf die Welt um uns herum dauerhaft auf Bilder zu bannen.

So funktioniert eine Plattenkamera

Plattenkamera
Plattenkameras ähneln im prinzipiellen Aufbau dem menschlichen Auge. | Bild: NDR

Die Plattenkameras ähneln im Aufbau dem menschlichen Auge. Sie besitzen ein Objektiv, durch das das Licht gebündelt und gebrochen wird. In unserem Auge übernehmen Hornhaut, Augenkammern und Linse diese Funktion. Die Blende der Kamera, die die Menge des einfallenden Lichtes reguliert, findet ihre Entsprechung in der menschlichen Iris. Die Fotoplatte, auf der das Licht ankommt, entspricht der Netzhaut. Ein paar grundlegende Unterschiede gibt es aber doch:

Starre Linse

Die geschliffenen Linsen, die das Licht auf die Filmplatte bündeln sind starr. Je nach Abstand der Kamera zum Motiv, muss man die Entfernung zwischen Objektiv und Platte mechanisch verändern, um den Brennpunkt genau auf die Bildplatte zu legen.

Genau anders herum funktioniert das Scharfstellen bei unseren Augen. Hier ist der Abstand zwischen Linse und Netzhaut festgelegt, dafür ist unsere Linse elastisch. Je nach Entfernung zum anvisierten Objekt verändern die Ziliarmuskeln die Form der Linse und damit ihre Brechkraft. Beim Blick in die Ferne ist die Linse flach, für das scharfe sehen im Nahbereich stauchen die Muskeln die Linse, so dass sie runder wird.

Verschiedene Prinzipien der Lichtverarbeitung

Ein weiterer großer Unterschied besteht zwischen Netzhaut und Fotoplatte. Solche Platten oder die später aufkommenden Filmstreifen, sind überall gleich lichtempfindlich. Das auf sie treffende Licht wird mithilfe chemischer Prozesse "festgehalten".

Die Netzhaut des menschlichen Auges funktioniert völlig anders: Hier wandeln Nervenzellen, die Fotorezeptoren, das Licht in elektrische Impulse um, die dann über den Sehnerv ins Gehirn geleitet und dort verarbeitet werden. Allerdings liegen auf der Netzhaut nicht überall die gleichen Rezeptoren. Am äußeren Rand, in der sogenannten Peripherie, liegen ausschließlich stäbchenförmige Fotorezeptoren. Sie kann man nur Hell und Dunkel unterscheiden. Weiter innen, in Richtung Zentrum der Netzhaut, auf der Makula kommen zu den Stäbchen die sogenannten Zapfen hinzu.

Drei verschiedene Fotorezeptoren im Auge

Farbrezeptoren im Auge als Grafik
Anzahl und Dichte der Rezeptoren nehmen zum Zentrum der Netzhaut hin zu.  | Bild: NDR

Die Fotorezeptoren gibt es in drei unterschiedlichen Ausführungen, jeder von ihnen ist für eine Farbe zuständig: S-Typen (Blaurezeptoren), M-Typen (Grünrezeptoren) und L-Typen (Rotrezeptoren). Die Farbrezeptoren brauchen eine gewisse Grundhelligkeit, um zu funktionieren. Daher sehen wir in der Dämmerung und vor allem im Dunkeln nur in schwarz-weiß.

Anzahl und Dichte der Rezeptoren nehmen zum Zentrum der Netzhaut hinzu. In ihrer Mitte liegen ausschließlich Farbrezeptoren. Diese Stelle wird Fovea genannt, oder auch Sehgrube, sie ist der Punkt des schärfsten Sehens. Gleich daneben befindet sich ein Areal, an der es überhaupt keine Fotorezeptoren gibt, mit der wir also nichts sehen können. Es ist der Ort an dem der Sehnerv aus der Netzhaut nach hinten austritt und durch die Augenhöhle zum Gehirn zieht.

Bilder entstehen letztendlich im Gehirn

Blick auf eine alte Kamera, aufgeteilt in einzelne Zonen
Das Gehirn korrigiert den Seheindruck. | Bild: NDR

Ein Bild, so wie es unsere Netzhaut wahrnimmt, stünde nicht nur auf dem Kopf, es sähe auch viel schlechter aus als jedes Foto: schwarz-weiß und unscharf am Rand, zur Mitte hin zwar immer schärfer und farbintensiver, aber dafür mit einem blinden Fleck nahe dem Zentrum.

Unsere Augen sehen also gar nicht so gut, wie wir denken. Die Bilder die wir sehen, entstehen vielmehr in unserem Gehirn als auf unserer Netzhaut. Das Gehirn interpretiert die "Daten" die der Sehnerv liefert auf Grund von Erfahrungen. Das ist übrigens auch der Grund, warum wir für optische Täuschungen so anfällig sind. Gleichzeitig steuert es die Bewegung der Augen ganz im Wortsinne "augenblicklich" so, dass wir immer genau das scharf sehen, was gerade wichtig ist.

Was können digitale Kameras?

Ein Mann fotografiert mit einer Digitalkamera
Kommt dem Auge nahe: die Digitalkamera. | Bild: NDR

Moderne Digitalkameras haben den Fotoapparat wieder ein Stück näher an die Funktion des Auges heran gebracht. Anstelle des lichtempfindlichen Filmstreifens setzen sie Sensoren ein. Die wandeln das Licht in elektrische Impulse um. Ebenso wie die Netzhaut haben sie dafür drei unterschiedliche Farbsensoren für die Farben Rot, Grün und Blau.

Die neuen optischen Systeme der Fotoapparate sind dem Menschen sogar etwas voraus. Tele- und Makro-Objektive zum Beispiel zeigen uns Dinge, die das menschliche Auge ohne diese Hilfsmittel nicht wahrnehmen könnte und Nachtsicht-Systeme können selbst im Dunkeln Bilder machen.

Noch einen Schritt weiter geht heute die Software. Sie übernimmt quasi die Funktion des Gehirns. Mit ihr können moderne Kameras fließend scharf stellen, Wackler korrigieren und Gesichter erkennen. Einige Hightech-Systeme können neuerdings sogar 3D-Bilder errechnen!

Autorin: Julia Schwenn (NDR)

Stand: 28.01.2017 16:23 Uhr