Roboterautos müssen Menschen verstehen lernen.



    Immer mehr Unternehmen, die sich mit der Entwicklung von Roboterautos beschäftigen. Es ist verständlich - schließlich sagen viele Wissenschaftler, Zukunftsforscher und Spezialisten für künstliche Intelligenz voraus, dass sich die Menschen in Fahrzeugen bewegen werden, die sich ohne Fahrersteuerung bewegen. Roboterautos, und es geht um sie, sind bereits erschienen. Zwar bauen sie die Situation auf den Straßen nicht perfekt ab, aber die Hard- und Software solcher Maschinen werden ständig verbessert und der Gesamtfortschritt ist spürbar.

    Die Bewegung autonomer Maschinen wird durch komplexe Algorithmen gesteuert. Sie analysieren die Straßensituation und fahren mit einem Fahrzeug. Wenn das Auto grünes Licht sieht, lässt das Computersystem das Fahrzeug sich bewegen. An der Ampel rot? Dann musst du aufhören. Die Verkehrsregeln sind ziemlich klar, obwohl sie mathematisch nicht genau sind. Im Prinzip ist es jedoch immer noch möglich, einem Computer das Fahren auf den Straßen beizubringen. Oder nicht? Spezialisten von der Universität Stockholm behauptendass die Entwickler von autonomen Maschinensteuerungssystemen einen anderen Faktor nicht berücksichtigen - den sozialen. Sie fahren mit dem Auto nicht nur von Punkt A zu Punkt B, sondern auch zur sozialen Interaktion zwischen den Fahrern. Und ohne diesen Faktor ist es unmöglich, einen Computer so zu trainieren, dass er ohne Zwischenfälle auf der Straße fährt.

    Barry Brown, ein Spezialist für Computersysteme und menschliche Interaktion, erklärt: „Autofahren ist nicht nur eine Reihe mechanischer Operationen, sondern auch eine komplexe soziale Aktivität. Bis alle Autos autonom werden, sind Autopiloten nur dann sicher und wirksam, wenn sie mit menschlichen Fahrern interagieren können. Autonome Autoentwickler müssen die Entscheidungen und den Einfluss anderer Fahrer und Passagiere berücksichtigen. “

    Der Wissenschaftler ist unzufrieden mit der Tatsache, dass die Entwickler von Roboterautos ihre Projekte nicht der Öffentlichkeit zugänglich machen wollen. Dennoch können einige Daten aus Quellen gesammelt werden, die noch öffentlich zugänglich sind. Es handelt sich um Videos von YouTube, die die Bewegung von Roboterautos zeigen. Die meisten Einträge stammen von Tesla-Fahrern oder von Personen, die sich aus irgendeinem Grund dafür entscheiden, Tesla während der Fahrt zu entfernen. Es gibt auch Videos mit Autos von Google, Volvo und Honda.

    Laut WissenschaftlernYouTube-Benutzereinträge sind eine großartige Informationsquelle für autonome Fahrzeugmanagementsysteme. Diese Videos zeigen auch, wie Menschen mit Roboterautos interagieren. Insgesamt analysierten Experten 69 verschiedene Clips, die von 63 Nutzern aus den USA, Großbritannien, Deutschland, Frankreich, Schweden, Hongkong, Island und Kanada auf YouTube hochgeladen wurden. Durchschnittlich dauerte ein Video 9 Minuten. 7 Videos sind jedoch viel länger - in diesem Fall dauert die Dauer jedes Videos eine halbe Stunde. In einem der Fälle filmte der Autor des Videos seine gesamte Strecke mit einem System von 8 Rekordern.

    Zu Beginn haben sich die Wissenschaftler auf einen wichtigen Punkt geeinigt: Sie beziehen Informationen über den Betrieb autonomer Maschinen nur aus Videos und nicht aus Nachrichtenquellen oder Dokumenten, die von Unternehmen bereitgestellt werden, die Fahrzeuge entwickeln. Und es gab seine Ergebnisse - es war möglich, die Arbeit der Systeme ohne vorgefertigte Meinung zu studieren. Dazu trug auch bei, dass viele Videos mit Kommentaren von Schießteilnehmern und YouTube-Nutzern ergänzt wurden.

    Die Autoren der Arbeit untersuchten zwei Hauptaspekte der Bewegung von Mobilrädern auf der Straße. Der erste ist die Interaktion des Fahrers mit dem Computersteuerungssystem. Befindet sich ein solches System im Fahrzeug, lernt der Fahrer, damit zu interagieren. Die Wissenschaftler versuchten, die wichtigen Punkte dieser Interaktion zu beobachten. Der zweite Aspekt ist die Interaktion des Autopiloten mit anderen Fahrern auf der Straße.


    Die Situation auf der Straße, untersucht von den Projektteilnehmern. Das erste Bild ist eine Sonneneruption der Tesla-Kamera. Der zweite Frame - das System signalisiert die Gefahr. Der dritte - der Autopilot leitet das Auto in die Gegenfahrbahn. Viertens: Der Fahrer fängt die Steuerung ab und korrigiert die Situation (Frames - Screenshots aus dem Video sind nicht von bester Qualität, - Ed.)

    Wie sich herausstellte, funktionierten die Maschinen mit der automatischen Steuerung in vielen Fällen einwandfrei. Es wurden jedoch Probleme festgestellt. Zum Beispiel erkannte derselbe Autopilot in Tesla-Fahrzeugen manchmal unrichtige Straßenmarkierungen, verwirrte Fahrspuren oder funktionierte praktisch nicht mehr, weil helles Sonnenlicht auf die Front auftrat (aufgrund von Sonnenblendeffekten und einigen erfolglosen Zufällen, einem Unfall mit dem Tesla-Auto und dem Transporter)in dem der Besitzer des Elektroautos starb).


    Im Allgemeinen stellte sich heraus, dass die meisten Videoautoren nicht zu 100% auf die Steuerungssysteme ihrer Maschinen angewiesen sind. Und das ist gerechtfertigt, da es einige gefährliche Momente gab. Eines davon war zum Beispiel mit dem Zusammenspiel von Autopilot und anderen Fahrern verbunden. Der Motorradfahrer überholte Tesla und zeigte einen Übergang auf eine andere Spur. Das Computersystem erkannte die Geste nicht und schnitt den Motorradfahrer ab.

    Der zweite Fall zeigte den Unterschied zwischen den Aktionen des Autofahrers und dem Computersteuerungssystem. Auf dem Weg gab es zwei Roboterautos, zwischen denen ein durch die Verkehrsregeln vorgegebenes Intervall bestand, das die Sicherheit der beiden Fahrzeuge und ihrer Fahrer voraussetzte. Aber plötzlich war ein drittes Auto von einem Mann gefahren. Sein Fahrer entschied, dass die Entfernung zwischen den vor ihm fahrenden Autos gerade perfekt für ihn war und neu aufgebaut wurde. Auf der anderen Seite bemühen sich Autopiloten immer, einen Sicherheitsabstand einzuhalten, selbst wenn eine Ampel an der Ampel steht, wenn menschliche Fahrer ihre Autos nahe beieinander drücken und dabei fast keinen freien Platz lassen.


    Im Allgemeinen verwenden Fahrer auf der Straße oft verbale Signale, z. B. an einem Fußgänger oder einem anderen Auto vorbei. Der Autopilot erkennt solche Signale natürlich nicht. Und der Unterschied im Verhalten des Roboters und des Fahrers auf der Straße ist sehr unterschiedlich.

    Aus diesem Grund glauben die Autoren der Studie, dass die Entwickler von Computersteuerungssystemen für Automobile einen sehr wichtigen Faktor berücksichtigen müssen - die soziale Komponente des Straßenverkehrs. Dies ist schwierig, aber notwendig, da bisher viel mehr menschliche Fahrer auf den Straßen unterwegs sind als Roboterautos. Die Entwickler der letzteren müssen, im wahrsten Sinne des Wortes, ihren Systemen beibringen, Menschen zu „verstehen“ und nicht nur Straßenschilder und Markierungen zu lesen. Man kann damit argumentieren, aber es gibt hier ein rationales Korn.

    Die Wissenschaftler hoffen, dass die Ergebnisse ihrer Forschung von Entwicklern von Robotern genutzt werden, um effizientere Steuerungssysteme und einen vollwertigen Autopiloten zu schaffen.

    Jetzt auch beliebt: