Die Kamera Ihres aktuellen Smartphones erkennt Gesichter und filmt in Ultra-HD-Zeitlupe – beeindruckend, doch das ist nur der Auftakt zu einer wahren Revolution.
Moderne Kameraforschung verlässt den Megapixel-Wettlauf und verbindet Sensordaten mit fortschrittlicher rechentechnischer Verarbeitung. Hier geht es nicht um einfache Filter wie in Photoshop, sondern um einen radikalen Ansatz: Rohdaten, die zunächst kein Bild ergeben, werden durch komplexe Algorithmen – inklusive mathematischer Lichtmodellierung – zu hochauflösenden Abbildungen.
Diese Schicht aus Rechenpower löst uns von den Grenzen herkömmlicher Optik. Bald könnten Lichtdetektoren konventionelle Kameras ersetzen und Fähigkeiten bieten, die vor Jahren undenkbar waren: Sehen durch Nebel, in den menschlichen Körper oder sogar hinter Mauern.
Einzelpixelkameras
Ein extremes Beispiel ist die Ein-Pixel-Kamera, basierend auf einem genial einfachen Prinzip. Normale Kameras nutzen Millionen Pixel für eine Szene bei einheitlicher Beleuchtung. Umgekehrt erfasst ein Einzelpixel Daten von multiplen Lichtquellen.
Siehe verwandt: Verwandeln Sie die Kamera Ihres iPads mit diesem Hack in eine Schaltfläche
Dafür braucht es eine gesteuerte Lichtquelle wie einen Datenprojektor, der die Szene mit Mustern beleuchtet. Pro Muster misst der Sensor das reflektierte Licht; die Kombination ergibt das finale Bild.
Der Nachteil: Es dauert länger als ein herkömmlicher Schnappschuss. Doch es ermöglicht Kameras für unsichtbare Wellenlängen, wo normale Sensoren versagen – ideal für Bilder durch Nebel oder Schnee. Oder zur Imitation tierischer Augen, die Auflösung dynamisch anpassen.
Sogar photonenbasierte Bilder von nie interagierten Objekten sind machbar, nutzend Quantenverschränkung: Verbundene Teilchen teilen Zustände über Distanzen. Perfekt für veränderliche Objekte wie das Auge – sieht die Netzhaut im Dunkeln anders aus?
Bildgebung mit mehreren Sensoren
Ein-Pixel-Systeme sind erst der Anfang und bauen auf traditionellen Bildbegriffen auf. Doch neue Ansätze erfassen weit mehr Daten.
Multisensor-Systeme richten mehrere Detektoren auf eine Szene. Das Hubble-Teleskop kombinierte Wellenlängen zu atemberaubenden Bildern. Kommerziell verfügbar: Lytro-Kameras mit Lichtfeld-Sensoren für Nachfokussierung.

Die Light L16 (oben) revolutioniert mit über zehn Sensoren: Computeralgorithmen erzeugen 50-MB-Bilder, neu fokussier- und zoombar in Profiqualität. Sie wirkt wie eine avantgardistische Handykamera.
Das sind erste Schritte zu Kameras, die unser Bildverständnis umkrempeln. Forscher siegen bei Sicht durch Nebel, Wände, in Körper und Gehirn – durch Bilddaten plus Licht-Modelle.
Künstliche Intelligenz lernt Objekterkennung hirnähnlich und wird zentral. Einzelphotonen-Technik filmt bei Extrem-Dunkelheit oder mit Billionen FPS – sogar Lichtecho selbst.
Manche Anwendungen brauchen Zeit, doch die Physik plus Rechenpower machen es möglich.
Daniele Faccio ist Professorin für Quantentechnologien an der University of Glasgow. Stephen McLaughlin leitet die School of Engineering and Physical Sciences an der Heriot-Watt University. Dieser Artikel stammt ursprünglich von The Conversation.