Augmented Reality

    Augmented Reality (AR) ist ein Forschungsgebiet, das sich auf die Verwendung von Computern konzentriert, um die reale Welt und computergenerierte Daten zu kombinieren. Ein Beispiel aus dem Kino sind die Aufnahmen aus Sicht des Roboters im Film "Terminator". Direkt auf dem von den Augenkameras erhaltenen Bild werden Daten zu den beobachteten Objekten angezeigt: "Polizeibeamter, so und so Gewicht, so und so Höhe".

    Die meisten Forschungen im Bereich AR konzentrieren sich heute auf die Verwendung von Live-Videos, die digital verarbeitet und durch Computergrafiken „ergänzt“ werden. Die Anzeige relevanter Zusatzinformationen über dem Video kann insbesondere während der Übertragung von Sportwettkämpfen beobachtet werden. Heute sehen Formel-1-Fans auf dem Bildschirm nicht nur Rennwagen, die sich im Ring bewegen, sondern auch Informationen über Fahrer, Team, Position in Bezug auf die Autos der wichtigsten Konkurrenten und manchmal sogar Grafiken, die die Anzahl der Motorumdrehungen widerspiegeln.

    Ernstere Studien umfassen die Verwendung der Objektverfolgung, das Erkennen von Koordinatenmarkierungen mittels Bildverarbeitung und den Aufbau einer kontrollierten Umgebung, die aus einer beliebigen Anzahl von Sensoren und Leistungsantrieben besteht.

    Anfänglich wurde der Begriff AR im Gegensatz zur virtuellen Realität eingeführt: Anstatt den Benutzer in eine synthetisierte, vollständig informative Umgebung zu versetzen, besteht die Aufgabe von AR darin, die reale Welt um die Möglichkeiten zur Verarbeitung zusätzlicher Informationen zu ergänzen. Andere Forscher verstehen unter virtueller Realität einen Sonderfall der Augmented Reality. Augmented Reality an sich ist ein Sonderfall eines allgemeineren Konzepts der vermittelten Realität (med-R) in dem Sinne, dass Sie mit der vermittelten Realität die Realität bewusst ergänzen oder reduzieren sowie auf andere Weise modifizieren können.

    Der erste Augmented-Reality-Forscher ist Ivan Sutherland, der 1967 einen funktionierenden Prototyp des Systems baute. Er verwendete die Stereo-Brille von Sword of Damocles, um 3D-Grafiken anzuzeigen. Das Bild in ihnen wurde auf zwei durchscheinende Glas-Mini-Displays mit einer Silberbeschichtung projiziert. Ein merkwürdiger Name stammt von der Art der Montage des Geräts an der Decke, die im Gegensatz zum Namen der Klasse dieser Art von Geräten steht: Head-Mounted Display. Zum ersten Mal wurde das System in einem 1968 für die Bell Helicopter Company durchgeführten Projekt verwendet, bei dem eine Stereobrille mit einer Infrarotkamera unter dem Boden des Hubschraubers kombiniert wurde. Die Kamera wurde durch die Bewegung des Pilotenkopfes gesteuert. So wurde das Konzept der „Augmented Reality“ geboren.

    Das aktuelle Forschungsstadium begann 1990, als Boeing-Forscher beschlossen, bei der Montage und Wartung von Flugzeugen kopfmontierte Stereodisplays zu verwenden, die reale Bilder mit interaktiven Grafiken überlagerten.

    Einer der bekanntesten Forscher auf diesem Gebiet ist heute Ronald Azuma von den HRL Laboratories. 1997 veröffentlichte er einen großen Übersichtsartikel mit dem Titel „Ein Überblick über die erweiterte Realität“, in dem erstmals die Probleme und Möglichkeiten der Umsetzung dieses technologischen Konzepts deutlich herausgestellt wurden. Seit 1999 ist das Internationale Symposium für Mixed und Augmented Reality (ISMAR) von IEEE, ACM und Eurographics führend in seiner Geschichte. Die erfolgreichsten und bekanntesten Organisationen, die sich auf Augmented Reality spezialisiert haben, befinden sich in Japan - Mixed Reality Systems Lab - und in Deutschland - dem Arvika-Konsortium.

    Ronald T. Azuma definiert AR als ein System, das:
    1. Kombiniert virtuell und real
    2. Interagiert in Echtzeit
    3. Funktioniert in 3D

    Hermann H. Benes schreibt: „Augmented Reality wird kontextabhängig definiert und nicht als abstrakte Aufzeichnung betrachtet, sondern als ob Objekte der Augmented Reality in Natur und Leben existieren. Augmented Reality ist ein Tool, mit dem ein oder mehrere Beobachter ihr Sichtfeld mithilfe von virtuellen Elementen erweitern können, die normalerweise von einem Computer erstellt werden. Die folgenden Regeln können als notwendig definiert werden, damit Augmented Reality von Wirtschaft, Bildung und Gesellschaft akzeptiert wird:
    • Volle Interaktivität in Echtzeit
    • Genaue und ultraschnelle Verfolgung
    • Stereoskopie
    • Super Portabilität und Wireless
    • Das Gefühl des "vollständigen Eintauchens"

    Die meisten Menschen, die sich für AR interessieren, betrachten die Transformation des Ortes, an dem die Interaktion stattfindet, als eines der wichtigsten Merkmale. In einem interaktiven System ist es wichtig, nicht nur den Standort genau zu bestimmen, sondern auch die Umgebung zu erkennen. Interaktion bedeutet nicht nur, Informationen vom Bildschirm zu lesen, sondern sich in den umgebenden Räumen und Objekten aufzulösen. Darüber hinaus ist der Einsatz von Informationssystemen eine bewusste und nachdenkliche Handlung.

    Die drei Hauptkomponenten eines persönlichen Augmented-Reality-Systems sind:
    1. tragbarer Computer
    2. Positionierungsmittel
    3. Anzeigeeinrichtungen

    Computer

    Bis vor kurzem bestand das Haupthindernis für die praktische Umsetzung darin, dass mobile PCs keine dreidimensionalen Grafiken berechnen konnten. Derzeit liegt der Schwerpunkt auf der Entwicklung adäquater Methoden für die Ortung und Darstellung.

    Ortung. Die

    Verwendung des bereits klassischen GPS-Navigationssystems löst das Problem nicht. Die Idee, die Realität zu ergänzen, besteht schließlich darin, die richtigen Informationen am richtigen Ort zu erhalten. Der "klassische" GPS-Sensor weist einen minimalen Fehler von 3 bis 30 m auf. Da die Signaturen auf dem Display mit dem Bild realer Objekte kombiniert werden müssen, macht ein solcher Fehler die Idee bedeutungslos. Und in der Stadt ist GPS oft machtlos.

    Die Anzeige von Videoinformationen ist nicht weniger problematisch. Angesichts der Bewegung einer Person im Raum und ihrer Pose ist es notwendig, dreidimensionale Grafiken und reale Objekte zu kombinieren. Mobile Displays sind nach wie vor die Schwachstelle eines tragbaren Computers. Preiswerte, hochwertige, leichte und kompakte Videobrillen sind nach wie vor eine Seltenheit.

    Da die Hauptaufgabe von Augmented Reality die Synthese von realen und virtuellen Objekten im Raum ist, ist eine vorläufige Digitalisierung von Daten über den umgebenden Raum erforderlich. Die Erfassung geometrischer Raummerkmale kleiner Räume ist heute für ein breites Spektrum von Fachleuten zur Norm geworden. In Bezug auf Freiräume gestaltet sich alles sehr viel komplizierter: Wie sind virtuelle und reale Objekte zueinander angeordnet, welche stehen im Vordergrund? Die Arbeit hier erfolgt in zwei Richtungen: Aufnehmen einer Tiefenmessung in Echtzeit und vorläufiges Sammeln von Informationen über das Gelände.

    Wie unterrichte ich Computer Orientierungslauf? Die Kombination von Gyroskop und Kompass liefert gute Ergebnisse, und wenn Sie die Erkennung von Bildern zuvor bekannter Landschaftselemente hinzufügen, steigt die Genauigkeit auf eine Pixelebene. Die Diskrepanz wird nur aufgrund der Eigenschaften des menschlichen Gehirns und des menschlichen Sehens in Pixeln gemessen, die den geringsten Fehler erkennen können, wenn virtuelle Objekte im realen Raum platziert werden.

    Davon profitiert auch die Entwicklung von Schöpfern von Spezialeffekten im Kino, die die Bewegungsbahn der Kamera durch Verfolgung von Bewegungen im Rahmen von Markerobjekten wiederherstellen.

    Derzeit stellen jedoch selbst Verzögerungen bei der Durchführung herkömmlicher Orientierungsalgorithmen ein Problem dar. Hinzu kommt die Latenz der Rendering Engine. Wissenschaftler sind gezwungen, nach einer Lösung für verschiedene zweidimensionale Methoden zu suchen, z. B. für die Verzerrung und Verschiebung vorgerenderter virtueller Objekte, die Bewegungen in einer Ebene und sogar Rotationen simulieren.

    Das HiBall-Positionsverfolgungssystem wirkte sich positiv und anregend auf die Entwicklung von Augmented-Reality-Technologien aus. Es wurde von Mitarbeitern der University of North Carolina im Rahmen eines von DARPA finanzierten Projekts entwickelt. Trotz der Tatsache, dass das System nur mit zuvor vorbereiteten geschlossenen Räumen arbeiten kann, waren die Genauigkeit, die während der Experimente erreicht wurde, und die minimale Latenzzeit auf Rekordhöhe. HiBall mit einer Frequenz von 1500 Hz registriert lineare Verschiebungen ab 0,2 mm und Drehwinkel ab 0,03 °.



    Der Sensor selbst, der mit dem verfolgten Objekt oder der verfolgten Person geliefert wird, besteht aus sechs Fotodioden und sechs Linsen. Jeder Sensor empfängt Bilder von allen Objektiven, was insgesamt 36 unabhängige Ansichten ergibt. Die Fotodioden erfassen die Signale der LED-Matrix an den abgehängten Deckenpaneelen.

    Der Hauptvorteil des Systems ist seine Fähigkeit zur automatischen Kalibrierung. In der Tat würde der Einbau der Paneele sonst zu einem langwierigen Vorgang führen, der Präzision und Genauigkeit erfordert. Um die Effektivität der adaptiven Eigenschaften von HiBall zu belegen, haben die Forscher gezielt Fehler in die Lage der Deckenplatten eingebracht. 10 Minuten nach dem Start der Nutzung konnte das System nach Erhalt der Anfangskoordinaten der Panels deren neue Konfiguration bestimmen.

    All dies zu implementieren, ermöglicht den SCAAT-Algorithmus (Single Constrain At A Time). Wie der Name schon sagt, sollen Messungen verwendet werden, sobald sie verfügbar sind. Wenn das herkömmliche System versucht, alle Koordinaten (x, y, z, t) gleichzeitig zu erhalten, repariert SCAAT nur eine davon in einem Zyklus und legt den Lösungen der Gleichung, die die Zone der wahrscheinlichen Position des Sensors im Raum mit jeder Iteration bestimmen, immer genauere Beschränkungen auf. Dies minimiert die Latenz und ergibt bei einer ausreichend hohen Messfrequenz eine gute Genauigkeit. Das "Geheimnis der Firma" liegt in der ursprünglichen Anwendung des mathematischen Kalman-Filters.

    Der Höhepunkt der Bemühungen der Wissenschaftler war der kommerzielle Betrieb des Systems - 3rdTech verkauft den HiBall-3000 Tracker. Eine der Optionen für ein benutzerdefiniertes Sensorgerät ist ein dreidimensionaler Digitalisierer, mit dem volumetrische Objekte digitalisiert werden können.
    Leider ist der HiBall-Reisende nicht geeignet. Er braucht GPS. Die Genauigkeit der Messungen wird jedoch nicht nur von der Topographie und der Beschaffenheit des Geländes beeinflusst, sondern auch von atmosphärischen Phänomenen. Und hier kommt zu Hilfe Differential GPS .

    Auf dem Gelände sind GPS-Basisstationen installiert, die sich an sorgfältig ausgewählten Referenzpunkten mit bekannten Koordinaten befinden. Die Aufgabe der Station besteht darin, die erwartete Signalverzögerung aller derzeit verfügbaren Satelliten anhand bekannter Koordinaten zu berechnen und die Differenz zwischen den geschätzten und den tatsächlich erhaltenen Werten zu ermitteln. Anschließend wird eine Liste der Satelliten mit Korrekturfaktoren für jeden von ihnen im Radio angezeigt (normalerweise mit einer Frequenz von 300 kHz). Ein in der Nähe befindlicher mobiler Sensor kann nur die Liste akzeptieren, die momentan beobachteten Satelliten isolieren und die gemessenen Werte der Signalzeitverzögerungen anpassen.

    Der nächste Schritt in der Entwicklung der GPS-Ortung - Code-Phase GPS. Ein herkömmlicher GPS-Sensor verwendet eine Codesynchronisation, um die Zeitverzögerungen eines Satellitensignals zu bestimmen. Der Satellit gibt eine sich ständig wiederholende Folge von Codes weiter. Der Empfänger, der das Signal empfangen hat, beginnt, seine Sequenz zyklisch zu verschieben, bis sie mit der empfangenen übereinstimmt. Die Anzahl der Schritte, die für die Codesynchronisation erforderlich waren, gibt eine Vorstellung von der Zeitverzögerung. Aber es "gibt eine Idee": Die Häufigkeit der Zeichen in der Sequenz ist begrenzt und die Genauigkeit der Messungen auch.

    Code-Phase-GPS-Sensoren hören nicht bei der Codesynchronisation auf und erreichen, nachdem die Sequenzen auf digitaler Ebene übereinstimmen, die Übereinstimmung der Trägerfrequenzen der internen Uhr und des Satellitensignals. Die Sendefrequenz von GPS-Satelliten beträgt 1,57 GHz. Wenn Sie diesen Wert in die Sprache der Entfernungen übersetzen, beträgt die maximale Messgenauigkeit für die Phasensynchronisation ca. 3 mm.

    Anzeige

    Die Benutzerinteraktion mit Augmented Reality-Systemen erfordert nicht standardisierte Lösungen. Natürlich wirft niemand eine gewöhnliche Tastatur und Maus weg. Angesichts des mobilen Charakters der Technologie sind sie jedoch kein ideales Paar für Videobrillen. In experimentellen Geräten versuchen Forscher, fast das gesamte Arsenal an Informationseingabetechniken zu nutzen: Manipulatoren mit sechs Freiheitsgraden, Sprach- und Gestenerkennung. Um jedoch mit Augmented Reality vollständig interagieren zu können, müssen Sie in der Regel mehrere Geräte kombinieren.

    Von größtem Interesse sind die "virtuellen Schnittstellen", die durch ihre Einfachheit und Originalität bestechen. Alles ist genauso wie beim Kinderspiel, wenn aus einem Skistock ein Schwert wird und das aus einem Kinderauto gerissene Lenkrad zum Ruder eines Flugzeugs wird. Zum Beispiel nimmt eine Person eine normale Tafel und der Computer „zeichnet“ darauf die Bedienelemente: Tasten, Schalter und Anzeigen. Diese Methode ist in PIP (Personal Interaction Panel) implementiert.


    In einem anderen experimentellen System ordnet der Benutzer virtuelle Möbel in einer virtuellen Spielzeugwohnung mit einem echten kleinen Spatel um. An einigen modernen Spielautomaten können Sie mit einem speziellen Tennisschläger virtuell Tennis spielen.

    Bewundert die Eleganz des Magic Book-Konzepts - ein echtes Buch, dessen Seiten als „Portale“ für verschiedene virtuelle Welten dienen. Wenn ein Benutzer ein Album durchblättert und eine bestimmte Welt betritt, erscheint sein Avatar auf der entsprechenden Seite der Bücher anderer Benutzer des Systems.


    Displays (HMD oder HWD, Head-Worn Displays) für Augmented Reality werden in zwei Haupttypen unterteilt: optisch transparent (optisch durchsichtig) und video transparent (video durchsichtig). Die ersten erlauben es einem Menschen, die umgebende Welt durch sie hindurch zu sehen - der Betrachter beobachtet sowohl das erzeugte Bild als auch den Raum um es herum. Durchsichtige Videobrillen verwenden eine externe Videokamera, um Bilder von realen Objekten zu erzeugen.

    Neben Videobrillen wurden auch gewöhnliche Flachbildschirme und Projektionsdisplays verwendet. Insbesondere letztere eignen sich gut für den Einsatz in Fahrzeugen (Autos, Flugzeuge) und stationären Systemen (Kräne, Prozessleitsysteme usw.). Schließlich besteht die ungewöhnlichste Option darin, Bilder direkt auf Objekte der Welt zu projizieren, die mit einer retroreflektierenden Reflexionsschicht bedeckt sind. In diesem Fall erfolgt die Reflexion ausschließlich entlang der Einfallslinie des Lichts, sodass mehrere Personen, die ein Motiv aus unterschiedlichen Blickwinkeln betrachten, die „Informationen“ ihrer Nachbarn nicht bemerken. Mit Hilfe der retroreflektierenden Beschichtung können Sie Objekte transparent machen - dazu müssen Sie den Raum dahinter auf ihrer Oberfläche anzeigen.

    Leider erlauben optisch transparente Anzeigen nicht immer, reale Objekte auszuschließen / zu verdecken, und es ist äußerst schwierig, eine genaue Übereinstimmung zwischen der virtuellen und der realen Welt zu erzielen. Und videotransparente Systeme leiden wiederum unter einer Diskrepanz zwischen dem Standort der Kameras und dem menschlichen Auge (Parallaxe) - das Bild ist sehr weit von der Position entfernt, von der aus er es gewohnt ist, die Welt zu sehen. Darüber hinaus soll das ewige Problem der dreidimensionalen Darstellung gelöst werden - ein klarer Zusammenhang zwischen dem Fokus der Pupille und dem Pupillenabstand. Abhängig von der Entfernung der Objekte ändern sich diese beiden Parameter ständig, aber wenn volumetrische Objekte auf eine Ebene mit gleichem Abstand von den Augen projiziert werden, wird die Verbindung zwischen ihnen unterbrochen, was zu schwerwiegenden Beschwerden führt. Jeder Besucher von IMAX 3D-Kinos ist mit diesem Gefühl vertraut.

    Technologische Herausforderungen sind nicht alles. In der Augmented Reality besteht die reale Gefahr einer „Frame-Überlastung“ - die Gefahr, dass zu viele Informationen ausgegeben werden. Manchmal tauchen gleichzeitig Hunderte bedeutender Objekte auf. Um das Leben zu erleichtern, muss der Benutzer die Informationen filtern und das wirklich Notwendige daraus isolieren. Darüber hinaus darf es dem Benutzer nicht gestattet sein, wichtige Objekte der realen Welt mit virtuellen Elementen zu versehen: Beispielsweise sollten virtuelle Zeiger auf Hotels und Restaurants, die auf die Windschutzscheibe eines Autos projiziert werden, einen entgegenkommenden LKW oder eine Ampel nicht verdecken.
    Augmented-Reality-Technologien, die in den 60er Jahren des 20. Jahrhunderts geboren wurden, entwickeln sich rasant weiter. Gleichzeitig stehen Entwickler vor einer Reihe von Problemen und lösen diese recht erfolgreich. In der Augmented Reality gibt es keinen Unterschied zwischen der realen und der virtuellen Welt, was die Welt interessanter und gesättigter machen kann. So dringen Augmented Reality-Technologien allmählich in unser Leben ein, verändern und machen es komfortabler. Außerdem ist sie jetzt nichts Ungewöhnliches und Exotisches, wir begegnen ihr bei fast jedem Schritt, wir bemerken es einfach nicht.

    Führende Entwicklerkampagnen

    www.arvika.de/www/e/home/home.htm - Arvika
    www.artesas.de/site.php?lng=de - ARTESAS - Advanced Augmented Reality Technologies für industrielle Serviceanwendungen
    www.globis.ethz.ch/research/index - Global Information Systems Group
    www.hitlabnz.org - HitLabNZ
    www.iconolab.com - IconoLab
    www.ipf.uni-karlsruhe.de - Deutsches Institut für Photogrammetrie und Weltraumforschung
    www.mixedrealitylab. org - Mixed Reality Lab
    www.nus.edu.sg - Nationale Universität von Singapur
    www.t-immersion.com/home.asp - Total Immersion
    www1.cs.columbia.edu/graphics/top.html - Labor für Computergrafik und Benutzeroberflächen an der Columbia University.

    PS Dies ist eine Zusammenstellung mehrerer Artikel zum Thema. Wenn Sie etwas vergessen haben, fügen Sie hinzu.

    Jetzt auch beliebt: