Hybridkamera und Lidar verbessern die Roboterfunktionen und ergänzen die Informationen zur Außenwelt



    Lidars und Kameras sind zwei Standardkonfigurationselemente für fast alle mobilen Geräte. Sowohl das erste als auch das zweite arbeiten mit dem reflektierten Licht. Gleichzeitig arbeiten die Kameras passiv, das heißt, sie fangen die Reflexion von Lichtquellen von Drittanbietern ein, während die LIDAR Laserpulse erzeugen und dann die von nahegelegenen Objekten reflektierte "Antwort" messen. Kameras bilden ein zweidimensionales Bild und Lidars - dreidimensional, etwa eine "Punktwolke".

    Ouster hat ein Hybridgerät entwickelt , das sowohl als Kamera als auch als Lidar funktioniert. Dieses System wird als OS-1 bezeichnet. Dieses Gerät hat eine größere Apertur als die meisten DSLRs, während der vom Unternehmen erstellte Sensor sehr empfindlich ist.

    Die vom System empfangenen Bilder bestehen aus drei Schichten. Das erste ist ein Bild, das wie eine normale Kamera aufgenommen wurde. Die zweite ist eine "Laser" -Schicht, die durch Reflexion eines Laserstrahls erzeugt wird. Und die dritte ist die "tiefe" Schicht, mit der der Abstand zwischen den einzelnen Pixeln der ersten beiden Schichten geschätzt werden kann.

    Es ist erwähnenswert, dass die Bilder immer noch erhebliche Einschränkungen aufweisen. Zunächst handelt es sich um Bilder mit niedriger Auflösung. Zweitens sind sie schwarz und weiß, nicht gefärbt. Drittens arbeitet der Lidar nicht mit einer sichtbaren Lichtquelle, sondern befasst sich mit einem Spektrum, das nahe an Infrarot liegt.

    Im Moment sind die Kosten für LIDAR ziemlich hoch - etwa 12.000 US-Dollar. Auf den ersten Blick hat ein System keinen Sinn, das Bilder mit einer niedrigeren Auflösung als Standardkameras empfängt, aber Kosten wie eine gusseiserne Brücke. Die Entwickler behaupten jedoch, dass hier ein anderes Funktionsprinzip verwendet wird als im normalen Fall.


    Dies sind grafische Materialien, die von Ouster bereitgestellt werden. Hier werden drei Bildebenen und ein gemeinsames "Bild" gezeigt, welches das Ergebnis ist

    In einer typischen Situation kombiniert roboMobi Daten aus verschiedenen Quellen, was Zeit kostet. Kameras und Lidars arbeiten in verschiedenen Modi, das Ergebnis der Arbeit ist auch unterschiedlich. Außerdem werden sie normalerweise an verschiedenen Stellen der Fahrzeugkarosserie montiert, so dass der Computer sich auch mit der Korrelation der Bilder befassen muss, damit sie kompatibel sind. Darüber hinaus erfordern Sensoren eine regelmäßige Neukalibrierung, was nicht so einfach ist.

    Einige LIDAR-Entwickler haben bereits versucht, die Kamera mit dem LIDAR zu kombinieren. Die Ergebnisse waren jedoch nicht sehr gut. Dies war das "Standardkamera + Lidar" -System, das sich nicht allzu sehr von den bestehenden Schemata unterschied.

    Ouster verwendet stattdessen ein System, mit dem OS-1 alle Daten in einem Standard und an einem Ort sammeln kann. Alle drei Bildebenen sind sowohl zeitlich als auch räumlich perfekt miteinander korreliert. In diesem Fall versteht der Computer den Abstand zwischen den einzelnen Pixeln des endgültigen Bildes.

    Laut den Autoren des Projekts ist ein solches Programm für das maschinelle Lernen nahezu ideal. Für Computersysteme ist die Verarbeitung solcher Bilder nicht schwierig. "Füttern" Sie das System ein paar hundert Aufnahmen. Es kann trainiert werden, um genau zu verstehen, was im endgültigen "Bild" dargestellt wird.

    Einige Arten von neuronalen Netzwerken arbeiten nahtlos mit mehrschichtigen Pixelkarten zusammen. Außerdem können Bilder rote, blaue und grüne Ebenen enthalten. Das Unterrichten solcher Systeme mit dem Ergebnis von OS-1 ist nicht besonders schwierig. Ouster hat dieses Problem bereits gelöst.

    Sie nutzten mehrere neuronale Netzwerke als Ausgangsmaterial, die zur Erkennung von RGB-Bildern entwickelt wurden, und modifizierten sie nach ihren Bedürfnissen, indem sie ihnen beibrachten, mit verschiedenen Schichten ihrer Bilder zu arbeiten. Die Datenverarbeitung erfolgt auf dem Gerät mit der Nvidia GTX 1060. Mit Hilfe neuronaler Netze hat der Computer des Autos gelehrt, die Straße gelb und die potenziellen Hindernisse - andere Autos - rot zu „malen“.



    Nach Angaben der Entwickler ist ihr System eine Ergänzung zu den bestehenden Systemen und kein Ersatz. Es ist am besten, alle Arten von Sensoren, Sensoren, Kameras, Lidars und Hybridsystemen zu kombinieren, um ein klares Bild der Umgebung zu erhalten, das dem Fahrzeug die Navigation erleichtert.

    Jetzt auch beliebt: