Was verbindet NASA, Oculus Rift und Kinect 2?

Das Jet Propulsion Laboratory der NASA hat seit einiger Zeit nach einer einfacheren und natürlicheren Möglichkeit gesucht, Roboter im Weltraum zu steuern. Als Ergebnis der Experimente wurden der Leap Motion-Controller für die Fernsteuerung des Rovers und die Verwendung des Oculus Rift sowie Virtuix Omni für die Organisation einer virtuellen Tour durch den Roten Planeten bevorzugt .

Aus diesem Grund ist es für JPL sinnvoll, Kinect für Windows-Entwickler zu abonnieren, um die neuen, wichtigsten Kinect 2-Komponenten (die seltsamerweise nicht als eigenständiges Gerät verfügbar sind, das von der Xbox One getrennt ist ) zu erwerben und Microsoft-Lösungen anzusehen im Bereich der Robotik.
Das Labor erhielt Ende November das Dev Kit und konnte nach mehreren Arbeitstagen die Oculus Rift mit Kinect 2 verbinden, um den Roboter außerhalb seiner Fernbedienung zu manipulieren. Laut unserem Interview mit einer Gruppe von JPL-Ingenieuren führte die Kombination des Oculus Head-Mounted Displays und des Kinect-Bewegungssensors zu der „aufregendsten Schnittstelle“, die JPL bisher entwickelt hat.
JPL nahm am ersten Kinect-Entwicklerprogramm teil, daher war sie bereits sehr vertraut mit der Funktionsweise von Kinect. Sie entwickelte eine Reihe von Anwendungen und veröffentlichte in Zusammenarbeit mit Microsoft ein Spiel, in dem sie angewiesen wurde, Curiosity sicher auf dem Mars zu landen. Der zweite Kinect bietet jedoch viel mehr Genauigkeit und Genauigkeit als der erste. "Dies ermöglichte es uns, offene und geschlossene Zustände, die Drehung des Handgelenks, zu verfolgen", sagt Ingenieur Victor Law. "Angesichts all dieser neuen Verfolgungspunkte und Rotationsfreiheitsgrade konnten wir die Hand besser manipulieren."



Alex Menzies, ebenfalls ein Mensch-Maschine-Interaktionsingenieur, beschreibt diese Kombination eines am Kopf montierten Displays mit einem Kinect-Bewegungssensor als nichts weiter als eine Revolution. „Mit einem Consumer-Sensor können wir zum ersten Mal die Orientierungsdrehung von einem Roboterglied aus steuern. Außerdem können wir jemanden wirklich in die Umgebung eintauchen, sodass er den Roboter als Erweiterung seines eigenen Körpers empfindet - Sie können die Szene mit einer Person als Perspektive mit voller Stereovision betrachten. Die gesamte visuelle Eingabe wird dort korrekt angezeigt, wo sich Ihre Gliedmaßen in der realen Welt befinden ... “Dies unterscheidet sich sehr von der einfachen Beobachtung auf dem Bildschirm, da es dann sehr schwierig ist, die Beobachtung mit den eigenen Bewegungen zu korrelieren. "Ich hatte das Gefühl, dass es ein viel besseres Verständnis dafür gibt, wo sich die Objekte befinden."
Wie Sie sich vorstellen können, ist die Signalverzögerung ein sehr dringendes Problem, da sich die meisten Roboter im Weltraum befinden. Jeff Norris, Leiter der operativen Innovationsmission von JPL, sagt, das Setup wird hauptsächlich verwendet, um die Ziele anzuzeigen, nach denen Roboter suchen.
Law und Menzies bemerken jedoch, dass es Geister des Staates gibt, die anzeigen, wo sich Ihre Hand befindet, und eine durchgehende Farbe, um anzuzeigen, wo sich der Roboter gerade befindet, so dass eine Verzögerung auf dem Bildschirm angezeigt wird.
„Es fühlt sich ziemlich natürlich an, denn die gespenstische Hand bewegt sich sofort und sieht, dass der Roboter die Position einholt“, sagt Menzies. "Du kommandierst ein wenig voraus, aber du fühlst keine Verzögerung."

Bild

„Wir bauen Partnerschaften mit kommerziellen Unternehmen auf, die Geräte herstellen, und die Geräte wurden möglicherweise in erster Linie nicht für die Erforschung des Weltraums gebaut“, sagt Law. „Dadurch erhalten wir viel mehr Geld für die Erforschung des Weltraums, als wenn wir von vorne anfangen würden. Das bedeutet auch, dass wir Systeme bauen können, die für die breite Öffentlichkeit zugänglich sind. Stellen Sie sich vor, wie inspirierend es für ein siebenjähriges Kind wäre, einen Weltraumroboter mit einer Steuerung zu steuern, mit der er bereits vertraut ist! “
Das ultimative Ziel ist natürlich nicht nur die Steuerung des Roboterarms, sondern des gesamten Weltraumroboters. Wie die Demo zeigt, hofft JPL, die gleiche Technologie auf Maschinen wie Robonaut 2 zu bringendie derzeit an Bord der ISS eingesetzt werden. „Wir wollen diese Entwicklung integrieren und letztendlich das Management von Robotern wie Robonaut 2 erweitern“, sagt Law. "Es gibt Arbeiten, die für einen Astronauten zu langweilig, schmutzig oder sogar gefährlich sind, aber im Grunde wollen wir immer noch die Kontrolle über den Roboter haben ... Wenn wir den Roboter effizienter für uns machen können, können wir mehr in kürzerer Zeit tun." .

Originalartikel: www.engadget.com/2013/12/23/nasa-jpl-control-robotic-arm-kinect-2 .

PS Ich füge noch etwas hinzu ... diese sind schon weit weg, fast wie Lems in einem der Bücher. Weit gesehen.

Jetzt auch beliebt: