Wie man künstliche Intelligenz den gesunden Menschenverstand lehrt

Ursprünglicher Autor: Clive Thompson
  • Übersetzung


Vor fünf Jahren sahen Programmierer von DeepMind, einem in London ansässigen Unternehmen, das sich auf AI spezialisiert hat, freudig zugesehen, wie AI das klassische Arcade-Spiel alleine spielen lernte. Sie nutzten die modische Technologie des Deep Learning (GO) für eine scheinbar seltsame Aufgabe: das in Atari gemachte Spiel in Breakout zu meistern , bei dem Sie den Ball von der Mauer schlagen müssen, damit die Steine ​​verschwinden.

GO ist selbstlernend für Autos. Sie geben der KI riesige Mengen an Daten, und diese erkennt Muster allmählich selbstständig. In diesem Fall passierten die Daten auf dem Bildschirm - die großen Pixel waren Ziegelsteine, eine Kugel und ein Schläger. In DeepMind AI, einem neuronalen Netzwerk, das aus Schichten von Algorithmen besteht, waren die Regeln des Spiels Breakout, seine Operationsprinzipien, Ziele und Methoden des Spiels nicht bekannt. Programmierer erlaubten einfach neuronalen Netzwerken, die Ergebnisse jeder Aktion zu studieren, wobei jeder Ball abprallte. Zu was führt es?

Es erwies sich als beeindruckende Fähigkeiten. In den ersten paar Versuchen hing die KI zufällig aus. Nachdem er einige hundert Male gespielt hatte, schlug er den Ball genau. Im 600. Spiel hatte das neuronale Netzwerk die Expertenbewegungen der Breakout-Spieler erraten, als der Spieler die Steine ​​durchbrach und den Ball schickte, um unabhängig auf die Wand zu springen.

"Es war eine große Überraschung für uns", sagte Demis Hasabis, Direktor von DeepMind. "Die Strategie floss aus dem System selbst." AI hat eine Fähigkeit für ungewöhnlich subtiles menschliches Denken gezeigt, um die internen Konzepte des Spiels zu verstehen. Da neuronale Netzwerke theoretisch die Struktur des menschlichen Gehirns grob kopieren, sollten sie unseren Denkstil gewissermaßen kopieren. Dieser Moment schien eine Bestätigung der Theorie zu sein.

Im vergangenen Jahr boten Computerwissenschaftler der Vicarious Company in San Francisco, eine Studentin der KI, eine interessante Möglichkeit, die KI unter realen Bedingungen zu testen. Sie nahmen die KI, die sie in DeepMind verwendeten, und trainierten sie, um Breakout zu spielen. Er hat es wunderbar gemeistert. Und dann fingen sie an, das Spiel ein bisschen zu optimieren. Entweder heben sie den Schläger hoch und fügen einen undurchdringlichen Bereich in der Mitte des Feldes hinzu.

Ein menschlicher Spieler könnte sich schnell an diese Veränderungen anpassen. aber das neuronale Netz ist ausgefallen. Die superintelligente KI scheint in der Lage zu sein, nur solche Ausbrüche zu spielen, die er für Hunderte von Versuchen untersucht hat. Er hat nichts Neues verdaut.

"Die Menschen können Muster nicht leicht erkennen", sagt mir der Informatikspezialist Dilip George, einer der Gründer von Vicarious. - Wir erstellen immer noch Modelle von dem, was er gesehen hat. Und diese kausalen Modelle - wir verbinden Ursache und Wirkung. " Die Menschen engagieren sich für Argumente und ziehen logische Schlussfolgerungen in Bezug auf die Welt um sie herum. Wir verfügen über eine Basis des gesunden Menschenverstands, die uns hilft, mit neuen Situationen umzugehen. Wenn wir Breakout sehen, etwas anders als das, was wir gerade gespielt haben, verstehen wir, dass es höchstwahrscheinlich ähnliche Regeln und Ziele haben wird. Das neuronale Netzwerk verstand nichts von Breakout. Es kann nur den Gesetzen folgen. Als sich das Muster änderte, wurde sie hilflos.

GO ist der König von AI. In den sechs Jahren, in denen es in den Mainstream eingebrochen ist, ist es die Hauptmethode, Maschinen zu lehren, die Welt um sie herum wahrzunehmen und zu erfahren. Es steht für die Spracherkennung von Alexa, hinter Waymos Handys, für sofortige Übersetzungen von Google. Uber ist in gewisser Weise eine große Optimierungsherausforderung und verwendet Machine Learning (MO), um vorherzusagen, wo Fahrgäste Autos benötigen. Baidu, ein chinesischer Tech-Gigant, hat 2000 Programmierer, die an neuronalen Netzwerken arbeiten. Über Jahre hinweg schien es, als würde sich GO nur verbessern und ein Auto unweigerlich mit einer flexiblen und schnellen Intelligenz ausstatten, die der Person entspricht.

Einige Ketzer behaupten jedoch, dass GO an die Wand stößt. Sie sagen, dass sie alleine niemals generalisierte künstliche Intelligenz (AII) erzeugen kann, weil der wahre menschliche Geist nicht nur Muster erkennt. Es ist Zeit für uns zu arbeiten, wie wir die KI mit dem gesunden Menschenverstand des Alltags, dem menschlichen Verstand, ausstatten können. Wenn uns dies nicht gelingt, warnen sie, werden wir den Kopf gegen die Einschränkungen von HE stoßen, wie Mustererkennungssysteme, die leicht getäuscht werden können, indem ein Teil der Eingabe geändert wird. Das führt dazu, dass das GO-Modell die Schildkröte als Pistole nimmt. Aber wenn wir das schaffen, werden sie Zeuge des explosiven Wachstums sicherer und nützlicherer Geräte werden - medizinische Roboter, die sich in einem unordentlichen Haus bewegen, Falschgelderkennungssysteme, die nicht unter falschen Positiven leiden.

Aber wie sieht die wahre Begründung im Auto aus? Und wenn GO uns nicht dazu bringen kann, was kann das?



Gary Marcus ist ein nachdenklicher 48-jähriger Professor für Psychologie und Neurologie an der New York University, der eine Brille mit zwei Brillengläsern trägt und wahrscheinlich der berühmteste Apostat für orthodoxe Tiefenbildung ist.

In den 80er und 90er Jahren interessierte sich Marcus zuerst für KI, als sich neuronale Netzwerke in der experimentellen Phase befanden, und seitdem haben sich seine Argumente nicht geändert. "Es ist nicht so, dass ich zu spät auf eine Party komme, und ich möchte hier alles aufgeben", sagte Marcus mir, als wir uns in seiner Wohnung in der Nähe der New York University trafen (wir sind auch Freunde). "Sobald die GO-Explosion stattfand, sagte ich: Jungs, das ist die falsche Richtung!"

Dann unterschied sich die GO-Strategie nicht von der aktuellen. Angenommen, Sie brauchen eine Maschine, um Gänseblümchen erkennen zu können. Zuerst müssen Sie die algorithmischen "Neuronen" kodieren und sie wie ein Sandwich zu Schichten zusammenfassen (bei mehreren Schichten wird der Buter dicker oder "tiefer" - daher das "tiefe" Lernen). In der ersten Ebene zeigen Sie das Bild des Gänseblümchens, und seine Neuronen werden aktiviert oder nicht aktiviert, je nachdem, ob das Bild den Beispielen von Gänseblümchen ähnelt, die zuvor angezeigt wurden. Das Signal geht dann zur nächsten Schicht, wo sich der Vorgang wiederholt. Infolgedessen sichten die Layer die Daten und liefern ein Ergebnis.

Erstens ist das neuronale Netzwerk mit blindem Raten beschäftigt; Sie fängt das Leben von vorne an. Es geht darum, nützliches Feedback zu geben. Jedes Mal, wenn die KI das Gänseblümchen nicht erraten kann, werden die Verbindungen, die zur falschen Antwort führen, in der Gruppe von Neuronen geschwächt. Wenn Sie raten, werden die Verbindungen verbessert. Nach genügend Zeit und Gänseblümchen wird das neuronale Netzwerk genauer. Sie lernt, bestimmte Muster von Gänseblümchen zu ergreifen, wodurch sie jedes Mal ein Gänseblümchen definieren kann (und keine Sonnenblumen oder Astern). Im Laufe der Jahre wurde die Grundidee - mit einem naiven Netzwerk zu beginnen und mit Wiederholungen zu trainieren - verbessert und schien in fast allen Anwendungen nützlich.

Aber Marcus war nicht überzeugt. Aus seiner Sicht war ein Nullpunkt ein Problem: Man geht davon aus, dass Menschen Intelligenz nur entwickeln, indem sie die Welt um sich herum beobachten, was bedeutet, dass auch Maschinen dazu in der Lage sind. Aber Marcus glaubt, dass die Leute nicht so arbeiten. Er folgt dem intellektuellen Weg von Noam Chomsky , der behauptet, dass Menschen mit einer Neigung zum Lernen und einem Programm zum Sprachenlernen und zur Interpretation der physischen Welt geboren werden.

Mit all ihrer angeblichen Ähnlichkeit mit dem Gehirn, so bemerkt er, funktionieren neuronale Netzwerke offenbar nicht wie ein menschliches Gehirn. Zum Beispiel benötigen sie zu viele Daten. In den meisten Fällen benötigt jedes Netzwerk Tausende oder Millionen von Beispielen, um zu lernen. Schlimmer noch: Jedes Mal, wenn Sie das Netzwerk dazu zwingen müssen, ein neues Objekt zu erkennen, müssen Sie bei Null anfangen. Ein neuronales Netzwerk, das darauf trainiert ist, Kanarienvögel zu erkennen, ist überhaupt nicht nützlich, um Vogellieder oder menschliche Sprache zu erkennen.

"Wir brauchen keine riesigen Datenmengen für das Training", sagt Marcus. Seine Kinder müssen nicht eine Million Autos sehen, bevor sie das Auto erkennen können. Besser noch, sie können verallgemeinern: Wenn sie zum ersten Mal einen Traktor sehen, verstehen sie, dass er wie ein Auto aussieht. Sie können auch aus dem Gegenteil raten. Google Translate kann das französische Äquivalent des englischen Satzes geben: "Das Glas wurde bewegt und es fiel vom Tisch." Er versteht jedoch nicht die Bedeutung von Wörtern und kann Ihnen nicht sagen, was passiert, wenn das Glas nicht bewegt wird. Wie Marcus feststellt, begreifen die Menschen nicht nur Grammatikmuster, sondern auch die Logik hinter den Wörtern. Sie können Ihrem Kind ein fiktives Verb "to plyat" geben, und er wird höchstwahrscheinlich vermuten, dass es in der Vergangenheitsform "plyak" ist. Aber er sah ein solches Wort nicht früher. Er war nicht "ausgebildet".

„GO-Systeme wissen nicht, wie sie abstraktes Wissen integrieren können“, sagt Marcus, der das Unternehmen gegründet hat, das die KI erstellt hat, um weniger Daten zu lernen (und 2016 an Uber verkauft).

In diesem Jahr veröffentlichte Marcus einen Vorabdruck seiner Arbeit zu arXiv, in dem er behauptet, dass die Zivilgesellschaft ohne neue Ansätze ihre derzeitigen Grenzen niemals überwinden könnte. Er braucht einen Durchbruch - integrierte oder ergänzende Regeln, die der KI helfen, über die Welt in der Welt zu denken.

Jetzt auch beliebt: