Bildgebung ohne Linsen

Published on February 14, 2018

Bildgebung ohne Linsen

Ursprünglicher Autor: David Stork, Aydogan Ozcan, Patrick R. Gill
  • Übersetzung

Neue Abbildungssysteme, Mikroskope und Videomatrizen erzeugen digitale Bilder auf der Grundlage von Computerberechnungen anstelle von herkömmlichen Objektiven.


Mittelalterliche Kunsthandwerker waren auch in der Lage, Glaslinsen und gekrümmte Spiegel für die Projektion von Bildern herzustellen. Solche Konstruktionen wurden verwendet, um Mikroskope, Lochkameras, Teleskope und andere Werkzeuge herzustellen, mit denen wir sehr kleine und große Objekte in der Ferne und in der Nähe, auf der Erde und im Himmel besser sehen können. Die nächste Revolution in der Bildgebung fand um die Mitte des 19. Jahrhunderts statt: Die Fotografie wurde erfunden. Jetzt können Sie die "gestoppten Momente" einfangen, abspielen und replizieren. Heute geht die Ära der chemischen Fotografie zu Ende, eine neue Ära blüht - die digitale Bildgebung. Seine Wurzeln liegen in der Technologie des Fernsehens, aber wir werden den Beginn der Ära 1975 betrachten, als die erste Digitalkamera erschien. Heutzutage machen Milliarden von Webcams und Kameras in Mobiltelefonen auf der ganzen Welt mehr als eine Billion Bilder pro Jahr, und viele davon werden sofort im Internet angezeigt. Trotz des explosionsartigen Anstiegs der Anzahl, der Vielfalt und der Verwendungsmöglichkeiten von Bildgebungssystemen bleiben die Aufgaben der Optikingenieure weitgehend unverändert: Ein qualitativ hochwertiges optisches Bild zu erstellen, das die aufgenommene Szene genau erfasst, damit sie „gut aussieht“.


In den letzten 10 bis 20 Jahren hat sich jedoch ein neues Paradigma herausgebildet: Computer Imaging. Dieses Paradigma kann traditionelle Ansätze nicht vollständig ersetzen, aber es wird alte Ideen in Frage stellen und alternative Verfahren für den Entwurf von Imaging-Systemen unterstützen. Zum Beispiel haben wir bereits Zugang zu neuen Funktionen und Formen von Abbildungssystemen, einschließlich Subminiatur-Geräten zur Erfassung von makroskopischen Objekten und Mikroskopen ohne Linsen.


Computational Imaging


Wie der Name schon sagt, spielen Berechnungen eine Schlüsselrolle bei der Bildung des endgültigen digitalen Bildes. Die digitale Bildverarbeitung hat sie lange Zeit verbessert: Sie hat den Rote-Augen-Effekt bei Blitzaufnahmen, korrigierten Farben usw. beseitigt, aber die optischen Schemata von Objektiven wurden diesen Anforderungen nicht gerecht. Die digitale Signalverarbeitung ermöglicht jedoch beispielsweise die Korrektur von optischen Verzerrungen wie "Kissen" oder Weitwinkelverzerrungen an den Bildrändern. Als das Hubble-Teleskop in den späten 1980er Jahren die ersten Bilder auf die Erde schickte, erwiesen sich diese als viel mehr Seifenwasser als erwartet. Es wurde schnell klar, dass es Probleme mit der Optik gab. Die NASA-Wissenschaftler stellten fest, was falsch war, und bis das Teleskop repariert worden war, korrigierten sie viele Fehler mithilfe komplexer digitaler Verarbeitungsalgorithmen.



Mitte der 1990er Jahre kamen Wade Thomas Cathey und Edward R. Dowski jr. Auf die Idee, Linsen so zu gestalten, dass sie unscharfe, "degradierte" Bilder bilden, aber damit abnahmen Dank digitaler Verarbeitungsalgorithmen konnten Bilder mit herkömmlichen Objektiven weder schlechter noch besser gemacht werden. Katie und Dovski wendeten sich insbesondere den charakteristischen Merkmalen aller herkömmlichen Kameras zu: einer begrenzten Schärfentiefe. Wenn Sie auf ein Objekt in einer durchschnittlichen Entfernung von Ihnen fokussieren, wird es scharf aussehen, aber Objekte, die näher und weiter entfernt sind, werden unscharf. Schärfentiefe ist der Bereich, in dem alle Objekte annehmbar scharf wirken. So haben zwei Wissenschaftler ein neues Objektiv gefunden, das die optischen Bilder von Objekten in allen Entfernungen fast gleichermaßen unscharf machte. Ein spezieller Algorithmus steigerte dann die Schärfe des gesamten Bildes und erhielt so eine für gewöhnliche Objektive unerreichbare Schärfentiefe. Obwohl viele Wissenschaftler die beschriebene Methode noch weiter verbesserten, hat die Idee von Katie und Dovski die Disziplin der computergestützten Erfassung und Bilderzeugung weit vorangebracht.


Eine weitere Konsequenz dieser wissenschaftlichen Arbeit ist, dass die optischen Schemata von Objektiven nun auf der Grundlage der Erstellung von Bildern für Computer und nicht für Menschen entwickelt werden. Es ist paradox, dass in unserer Ära der Totalaufnahme nur sehr wenige Menschen die von Kameras erzeugten echten optischen Bilder gesehen haben. Die Zeiten sind vorbei, als der Fotograf, der sich vor einer Kamera mit einem dicken Umhang vor der Kamera bückte und sich mit einem dicken Umhang bedeckte, vor dem Einlegen eines Bandes mit einem Film ein "Live-Bild" sah, das direkt vom Objektiv gebildet wurde. Heute sehen wir auf den Bildschirmen das Ergebnis der digitalen Verarbeitung von optischen Bildern, die auf Siliziummatrizen eingefangen werden.


Der nächste Anwendungsbereich für die Kombination von Optik und digitaler Verarbeitung war die Vereinfachung des Objektivdesigns. Bei Ihrem Smartphone kann das Kameraobjektiv aus 7 bis 8 optischen Elementen bestehen, und die Objektive professioneller Kameras bestehen manchmal aus mehr als 15 optischen Elementen. Zur Korrektur von Bildfehlern ist eine große Anzahl von Objektiven erforderlich. Aberrationen, die jedem optischen System eigen sind: chromatische (Farbhalos um Objekte) und optische (Verzerrung der Form und Proportionen von Objekten). Das heißt, komplexe Objektivdesigns sind notwendig, um gut aussehende Bilder zu erzeugen. Die Kombination aus Optik und digitaler Verarbeitung wird dazu beitragen, einen Teil der Arbeit zur Korrektur von Aberrationen auf die digitale Komponente zu verlagern, wodurch einige optische Elemente verworfen werden können, ohne die Qualität des endgültigen digitalen Bildes zu beeinträchtigen. Das heißt, die Verarbeitungsalgorithmen spielen die Rolle von virtuellen optischen Elementen. Dieser Ansatz hat es möglich gemacht, kompaktere und billigere optische Systeme ohne Qualitätsverlust zu schaffen.


Inwiefern können diese Ideen entwickelt werden? Welcher Teil der Bildbildungsaufgabe kann von einer optischen zu einer digitalen Komponente verlagert werden? Wie einfach kann eine optische Schaltung sein, um ein anständiges Bild zu erhalten? Ist es überhaupt möglich, Linsen und Spiegel loszuwerden? Dies wurde in den letzten Jahren auf drei Arten erreicht: Die Linsen und die optischen Bilder, die sie bilden, sind vollständig ausgeschlossen. Die Verfahren basieren auf Beugung, optischer Phasenrekonstruktion (Rekonstruktion) und Verfahren der Druckmessung. Um das für Menschen geeignete Endbild zu erhalten, werden aktiv Computerberechnungen verwendet.


Beugungsabbildung


Herkömmliche Linsen fokussieren einen Lichtstrahl mit Hilfe der Brechung : Licht wird gebrochen, wenn es mit unterschiedlichen Lichtgeschwindigkeiten durch die Grenzfläche von Medien (Luft-Glas) hindurchtritt. Dank des Effekts der Lichtbrechung scheint ein Bleistift, der in einen Glasbecher mit Wasser eingetaucht ist, gekrümmt zu sein: Das vom Bleistift reflektierte Licht bricht, wenn es auf dem Weg zu Ihren Augen in die Luft tritt. Daher sehen wir den Unterwasserteil des Stiftes nicht dort, wo er tatsächlich ist.


Übrigens scheinen uns alle Himmelsobjekte aufgrund der Brechung (Brechung) an der Grenze des Weltalls und der Erdatmosphäre etwas höher als ihre tatsächliche Position zu befinden:



Gekrümmte Spiegel, wie sie in großen Teleskopen verwendet werden, bilden ein anderes Bild: mit Hilfe der Reflexion . Um den Unterschied zwischen Brechung und Reflexion zu verstehen, lassen Sie uns Licht in Form von Strahlen (Linien) darstellen.



Zwei andere physikalische Phänomene werden dazu beitragen , die Ausbreitungsrichtung des Lichts zu ändern und seine Wellennatur (unter Hinweis auf die Welle-Teilchen-Dualität ) zu verwenden: Beugung und Interferenz . Wenn sich zwei kohärente Lichtwellen treffen, überlappen sie sich, was zu einer resultierenden Amplitude der Welle führt. Wenn das Maximum einer Welle immer mit dem Maximum der anderen Welle übereinstimmt, verstärken sich die Wellen gegenseitig, dies wird als konstruktive Interferenz bezeichnet . Wenn das Maximum einer Welle immer mit dem Minimum der anderen Welle übereinstimmt, heben sich die Wellen auf - dies ist eine destruktive Interferenz , wodurch das Licht insgesamt verschwinden kann.


Das Licht kann durch Beugung gesteuert werden, indem es auf das Beugungsgitter (eine Reihe subtilster Striche (Raster)) auf einer glatten Oberfläche gerichtet wird. Da unterschiedlich lange Wellen in unterschiedliche Richtungen reflektiert werden, kommt es zu Farbflecken. Wenn zum Beispiel weißes Licht von kleinen Rillen auf der Oberfläche einer CD oder DVD reflektiert wird, sehen wir Regenbogenstreifen. Aufgrund der Abhängigkeit der Wellenlänge vom Raster ist es unmöglich, ein Beugungsgitter zu erstellen, das lediglich die Linsen ersetzt. Ein durch ein Gitter erzeugtes optisches Bild wird nie so gut aussehen wie ein Bild eines gut konzipierten Objektivs. Trotzdem ist es möglich, akzeptable digitale Bilder zu erzeugen, indem eine Kombination aus beugender Optik (unter Verwendung von Beugung) und Verarbeitung angepasster Signale (angepasste Signalverarbeitung) (unter Berücksichtigung der Optik) verwendet wird.


Bildgebung mittels Beugung


In einer der Klassen von nicht objektiven Vorrichtungen für das makroskopische Schießen werden Miniaturbeugungsgitter verwendet, die in der Dicke eines transparenten Materials (Glas oder Silikat) gestuft sind und einen Teil des einfallenden Lichts relativ zum anderen Teil stoppen. Die mathematischen Eigenschaften des Stufenschemas sind derart, dass die Verteilung des Lichts im Material schwach von der Wellenlänge und damit von der geringfügigen Änderung der Dicke des Glases selbst abhängt, die unvermeidlich während der Herstellung auftritt. Die Gitter sind an der lichtempfindlichen Matrix befestigt .- wie die Matrix in herkömmlichen Digitalkameras. Das einfallende Licht durchdringt das Gitter und erreicht ein Array, das bereits auf besondere Weise in "Komponenten" zerlegt ist. Es sieht überhaupt nicht wie ein normales Bild aus: eine Art verschwommene Wolke, die für das menschliche Auge unverständlich ist. Jedoch enthält diese Wolke genug visuelle Informationen (obwohl ungewöhnlich verteilt) , um das gewünschte Bild von der sie durch einen Rechenprozess aufgerufen zu rekonstruieren Faltungs Bild (Bildfaltung).



Bildrekonstruktionsalgorithmus ist etwas empfindlich gegenüber Rauschen , wie beispielsweise visuellen zufällige Schwankungen in der Anzahl der Photonen oder elektrisches Rauschen in der Signalumwandlung von dem Sensor zu einer numerischen Darstellung (sogenannte Quantisierungsfehler , Quantisierungsfehler). Daher kann das Bild visuell verrauscht sein. Obwohl diese Qualität für eine Reihe einfacher Aufgaben ausreicht (z. B. zur Berechnung der Anzahl der Personen in einem Bild), müssen Sie für ein anständigeres Bild mehr Informationen über die aufgenommene Szene erfassen. Die Lösung "in der Stirn" - nehmen Sie einige Miniaturphasengitter, die verschiedene Informationen über die Szene erfassen. Das heißt, jedes Gitter bildet ein digitales Komponentenbild, diese Komponenten können dann verarbeitet werden und erhalten ein besseres Bild.



Eine Art von objektivlosen Abbildungssystemen verwendet Gitter, die Licht streuen, anstatt es wie eine Linse zu fokussieren. In diesem Beispiel ist ein Array von 12 binären Phasenmikrogittern (links) so ausgelegt, dass möglichst viele visuelle Informationen über die Szene erfasst werden. Nachdem das Licht durch das Array geleitet wurde, gibt es 12 unscharfe Punkte, von denen niemand eine Person verstehen kann, was hier (in der Mitte) geschossen wurde. Dieses optische Bild enthält jedoch genügend Informationen, so dass Sie mit der digitalen Verarbeitung "Bildfaltung" (Bildfaltung) ein gut lesbares Porträt (rechts) erhalten.


Dieser Ansatz hilft nicht nur, ein Bild der Szene zu erstellen, sondern auch zu analysieren: Um die visuellen Eigenschaften (z. B. wenn ein menschliches Gesicht auf dem Foto zu sehen ist) zu bestimmen, werden Richtung und Geschwindigkeit der Gesamtbewegung der Szene ( visueller Fluss , visueller Fluss) gezählt, wie viele Personen sich darin befinden drinnen. In solchen Situationen sollen Beugungsgitter die erforderlichen Informationen extrahieren, und der Verarbeitungsalgorithmus wird an die spezifische Aufgabe angepasst. Wenn wir beispielsweise einen vertikalen Barcode lesen müssen, verwenden wir ein vertikales Beugungsgitter und einen Algorithmus, der jedes Pixel eines digitalen Bildes auf einen Schwellenwert bringt: Der helle wird in dunkel, der dunkle in schwarz umgewandelt. Das Ergebnis ist ein digitales Schwarzweißbild, das vom Barcode-Lesealgorithmus bereits erkannt werden kann.


Mikroskopie mit Phasenwiederherstellung


Der Ansatz zur Erstellung objektivfreier Mikroskope unterscheidet sich von den Methoden zur Erstellung von Computerkameras für Makroobjekte, obwohl hier auch das Phänomen der Beugung verwendet wird. Im Gegensatz zu einem Gerät, das eine Szene mit der von der Sonne oder den Lampen erzeugten üblichen Beleuchtung schießt, können Sie in der Mikroskopie für die Beleuchtung nur kohärente Laserstrahlung oder monochromatisches Licht aus einer oder mehreren Quellen auswählen. Auf diese Weise können Sie die Beugung und Interferenz von Licht steuern. Darüber hinaus sind die für uns interessanten Objekte so klein, dass eine Beugung auftritt, wenn Licht durch die Objekte selbst hindurchtritt und nicht durch ein künstliches Beugungsgitter.



Das Schema eines solchen Mikroskops impliziert, dass die Probe auf einer photosensitiven Matrix mit einer großen Anzahl kleiner Pixel platziert wird: eine 10-Megapixel-Matrix, die häufig in Digitalkameras zu finden ist. Dieses Schema wird auch als „Mikroskop auf einem Chip“ (auf dem Chip) bezeichnet, da die Probe direkt auf der Bildgebungsmatrix platziert wird. Licht von einem Laser oder einer spektral reinen Farb-LED fällt auf die Probe und wird auf die erschossenen Objekte gestreut. Die resultierenden Beugungswellen, die einen Objektstrahl (Objektstrahl) bilden, werden der Beleuchtung, die die Probe durchläuft, ohne Verzerrung - dem Referenzstrahl - überlagert . Das Ergebnis ist ein komplexes Interferenzmuster, das von der photosensitiven Matrix aufgenommen und verwendet wirddigitale Inline-Holographie ( digitale Inline -Holographie). Das Rohbild ähnelt vage den mikroskopischen Schatten einer Probe und reicht in einigen Fällen für eine grobe Berechnung der Anzahl und des Ortes der Objekte aus. Das rohe holografische Bild ist jedoch zu trüb, zu laut, enthält „Ringartefakte“ und erlaubt keine Bestimmung der Morphologie von Objekten. Das Bild ist schlecht.


Interferenzmuster durchläuft mehrere Phasen der digitalen Verarbeitung, die erste Stufe - Diese Algorithmus Erholungsphase (Phase Rekonstruktion). Darin werden anhand der Physik der optischen Interferenz Rückschlüsse auf die Struktur und den Ort von Objekten in der Probe gezogen. Kurz gesagt: Der Algorithmus sucht nach optischen Informationen über die im Hologramm auf der Matrix verlorene Phase (die nur das Interferenzmuster aufzeichnet und nicht die Phasen einzelner Lichtstrahlen selbst). Der Algorithmus berechnet iterativ die Phaseninformation im Objektstrahl, was höchstwahrscheinlich zum Auftreten eines solchen optischen Interferenzmusters führte. Wenn die Information über die Phase in dem Objektstrahl bestimmt wird, berechnet der Algorithmus seine zeitliche Änderung zurück, um ein Bild der Objekte zu erstellen und das endgültige digitale Bild zu bilden.



Wie bei Geräten für die Makrofotografie wird die Auflösung erhöht, indem mehrere optische Bilder aufgenommen werden, von denen jedes etwas andere Informationen enthält. Zum Beispiel können Sie vor der Registrierung jedes Frames die Lichtquelle oder die Probe selbst oder die Matrix leicht verschieben. Die Rahmen werden dann verarbeitet und kombiniert, um ein Interferenzbild mit erhöhter Auflösung zu erzeugen (das für den Menschen immer noch nicht klar ist), und dann werden die Phasenwiederherstellungs- und Zeitwiederherstellungsschritte ausgeführt.



Die linsenlosen Mikroskope auf dem Chip haben mehrere Vorteile.


Erstens kann die Fläche der Probe (d. H. Das Sichtfeld) extrem groß sein, sie ist nur durch die Größe der lichtempfindlichen Matrix begrenzt, auf der die Probe angeordnet ist. Moderne Matrizen ermöglichen Ihnen ein Sichtfeld von 20 Quadratmillimeter bis 20 Quadratzentimeter.


Zweitens ist es mit transparenten Mikroskopen möglich, auch transparente Objekte (z. B. die meisten Bakterien in einer Wasserschicht) zu untersuchen, wenn sie die durch sie hindurchtretende Lichtphase verändern. Spezielle objektive optische Mikroskope ermöglichen es auch, ähnliche "Phasenobjekte" zu studieren, jedoch mit einem viel kleineren Sichtfeld und einer größeren Gesamtprobengröße.


Drittens können Sie durch die digitale Verarbeitung des optischen Bildes verschiedene Zelltypen auswählen (z. B. Spermien oder Blutzellen in den Kapillaren) und deren Bewegungen verfolgen. Dadurch können Ärzte und Biologen wichtige Daten erhalten.


Viertens sind solche Mikroskope viel billiger und kompakter als herkömmliche. Objektive Mikroskope können an ein Mobiltelefon angeschlossen und in ländlichen Gebieten verwendet werden. Digitale Daten können zur weiteren Analyse an einen beliebigen Ort übertragen werden.



Drucksensorik


Der dritte Ansatz für die linsenlose Bildgebung basiert auf den jüngsten Fortschritten in der Mathematik und Signalstatistik - der Methode der Druckerkennung . Das optische Bild auf der Matrix ist ein komplexes Signal, das als Liste von Zahlen dargestellt wird und von verschiedenen Algorithmen verarbeitet wird. Da ein komplexes Tonsignal aus einer Vielzahl einfacherer Töne besteht, von denen jeder im erforderlichen Verhältnis hinzugefügt wird, wird das Bild aus einer Vielzahl einfacherer Bilder gebildet. Ein Satz einfacher Bilder oder Signale wird als Basis bezeichnet.(Basis). Im Bereich des Klangs ist die häufigste Basis eine Sammlung von reinen Cosinustönen. Egal wie komplex der Sound ist. Alles - vom Autohorn bis zur Beethoven-Sinfonie - kann durch Hinzufügen einer großen Anzahl von Cosinus-Grundwellen erzeugt werden, für die jeweils die erforderliche Intensität und Zeitverschiebung ausgewählt wird.


Was könnte die gleiche Basis im Bildbereich sein? Die zwei beliebtesten und nützlichsten visuellen Grundlagen sind Sätze von zweidimensionalen Cosinuswellen- und Wellenmustern mit variabler Auflösung.(Wavelet-Muster mit mehreren Auflösungen). Diese grundlegenden Elemente sind mathematisch elegant und basieren auf modernen JPEG- und JPEG 2000-Bildkomprimierungsschemata: Anstatt die Werte jedes Pixels eines digitalen Bildes zu speichern und zu übertragen, verwenden Sie eine Datei, die die Amplituden verschiedener Komponenten-Basissignale beschreibt. Daher ist die „komprimierte“ Datei viel kleiner als das Bild selbst. Diese Basen dienten jahrzehntelang als Werkzeug für die Verarbeitung digitaler Bilder, führten jedoch nicht zur Schaffung neuer Verfahren zur Entwicklung optischer Schaltungen, da kein optisches Element die Implementierung von Basen erleichtert.


Gehen wir zur Drucksensorik. Theoretisch zeigen Statistiken, dass, solange Informationen über die Szene redundant sind (dh das Bild ist komprimierbar), die Basen nicht gemessen werden müssen, es ausreichend ist, Stichproben zu messen. Stehen Ihnen solche „Kennzahlen im Code“ zur Verfügung, können Sie sich von der Überlegung leiten lassen, dass das Signal qualitativ als Grundelemente (Cosinus-Wellen oder Wellenimpulse) dargestellt wird und das Bild mit der Compressive Sensing-Technik wiederherstellen. Um diese Klasse neuer Bildwiederherstellungsmethoden verwenden zu können, benötigen Sie weit weniger Messungen als zuvor.



Ein Aufnahmegerät, das die Komprimierung verwendet (oben), lässt durch mehrere zweidimensionale Masken Licht von der Szene durch. Die mittleren Bilder zeigen das Ergebnis nach zwei verschiedenen Masken. Der auf Kompression basierende Rekonstruktionsalgorithmus entnimmt die Informationen aus allen Masken und ermittelt das "einfachste" Signal, das mit dem Satz der von der Matrix (links) durchgeführten Messungen übereinstimmt. Je komplexer die Szene ist oder je höher die Bildqualität ist, umso mehr Komponentenbilder müssen Sie erstellen.


Diese theoretische Entwicklung hat es möglich gemacht, neue Ansätze für das optische Design von Kameras zu entwickeln, die auf frühen Fortschritten in der Röntgen- und Gammastrahlenabbildung basieren. Codierte Blende(kodierte Aperturen) (praktischerweise festgelegte, zweidimensionale Maskenmasken aus transparenten und undurchsichtigen Bereichen) können dazu beitragen, kodierte Messungen einer Szene mit herkömmlichen photosensitiven Matrizen zu erfassen. Eines der Schemas mit dem Namen FlatCam wurde von Ashok Viraraghavan (Ashok Veeraraghavan) und seinen Kollegen an der Rice University entwickelt. Das Schema besteht aus einer einfachen Amplitudenmaske, die einer herkömmlichen lichtempfindlichen Matrix überlagert ist (siehe Abbildung oben). Das Licht der Szene - in diesem Fall der Charakter von Angry Birds - durchdringt (und beugt) die transparenten Bereiche der Amplitudenmaske und trifft auf die Matrix. Bitte beachten Sie, dass es hier keine Objektive gibt, was bedeutet, dass das herkömmliche optische Bild nicht erzeugt wird. Stattdessen schreibt die Matrix komplex, ein chaotisch aussehendes Lichtmuster mit Informationen über die Szene und das Maskenmuster selbst. Da das Bild aus Pixeln besteht, bietet jedes Pixel eine andere kodierte Messung der Szene. Unter Verwendung der mathematischen und algorithmischen Methoden der Druckmessung findet das System die "einfachste" Szene, die mit all diesen Messungen übereinstimmt.


Der Ansatz ohne Linsen hat mehrere wichtige Vorteile.


Die Kosten herkömmlicher Kameras werden weitgehend durch die Kosten der Objektive und die anschließende Montage bestimmt, so dass das Ausschließen der Linse von der Schaltung die Kosten des Produkts stark reduzieren kann. Bei der Konstruktion der Kamera, einschließlich der Maske und der Matrix, können nur herkömmliche Halbleiterfertigungstechnologien verwendet werden, was die Skalierbarkeit erhöht und den Preis reduziert. Außerdem können die Kameras dünner als 0,5 Millimeter sein und weniger als 0,2 Gramm wiegen - sie können dort eingesetzt werden, wo die üblichen sperrigen Geräte heute nicht anwendbar sind. Darüber hinaus können Sie mit dem FlatCam-Schema alle erforderlichen Informationen über die Szene mit einem Bild aufnehmen, um die Videoaufnahme dynamischer Szenen in Echtzeit zu realisieren.


Die Regeln ändern sich


Das Engineering von Bildgebungssystemen tritt in eine neue Ära ein, in der optische Elemente, die die physikalischen Eigenschaften von Licht und materiellen Materialien verwenden, in Verbindung mit digitalen Algorithmen unter Verwendung von immateriellen Informationen entworfen werden können. Viele bekannte Prinzipien und ungeschriebene Daumenregeln, an denen sich Optikingenieure seit Jahrhunderten orientieren, einschließlich der Notwendigkeit von Linsen und gekrümmten Spiegeln oder strukturierten digitalen Basen wie Cosinusfunktionen, werden abgeschafft. Traditionelle optische Bilder sind so vertraut und nützlich, dass wir sie widerstrebend abstrakter betrachten, nur als Information.


Zukünftige Richtungen für die Entwicklung von Geräten zum Schießen von Makroobjekten umfassen die Entwicklung spezialisierter Beugungsgitter und Verarbeitungsalgorithmen. Wenn beispielsweise ermittelt werden muss, ob sich in einem Bild ein menschliches Gesicht befindet, sollte das Raster selbst so weit wie möglich nur die visuellen Informationen extrahieren, die auf das Vorhandensein von Gesichtern hinweisen. Es ist auch verlockend, so viel wie möglich von der Ende-zu-Ende-Rechenlast auf die Optik zu verlagern, um den Rechenaufwand und damit den Stromverbrauch zu reduzieren. In der losenlosen Mikroskopie muss die räumliche und zeitliche Auflösung erhöht werden, und es sollten digitale Mikroskope entworfen werden, die zur Diagnose spezifischer Krankheiten, insbesondere in Entwicklungsländern, entwickelt wurden.


Linsen und gekrümmte Spiegel haben uns seit Hunderten von Jahren geholfen, und wir werden sie wahrscheinlich nicht vollständig aufgeben. Das neue Paradigma der Computational Imaging bietet jedoch andere Möglichkeiten, neue Anwendungen für Foto- und Videogeräte zu finden.