Können wir die Black Box künstlicher Intelligenz öffnen?

Published on October 21, 2016

Können wir die Black Box künstlicher Intelligenz öffnen?

Ursprünglicher Autor: Davide Castelvecchi
  • Übersetzung


Dean Pomerleau erinnert sich immer noch daran, wie er zuerst mit dem Black-Box-Problem fertig werden musste. Im Jahr 1991 unternahm er einen der ersten Versuche in diesem Bereich, der jetzt von allen untersucht wird, die versuchen, ein Ro-Mobile zu schaffen: Lernen, einen Computer zu fahren.

Und das bedeutete, dass Sie hinter dem Lenkrad eines speziell vorbereiteten Humvi (Armeefahrzeugs) sitzen und durch die Straßen der Stadt fahren müssen. So spricht über diese Pomelo, damals ein ehemaliger Student der Robotik an der Carnegie Mellon University. Ein Computer, der so programmiert ist, dass er durch die Kamera verfolgt, das Geschehen auf der Straße interpretiert und alle Bewegungen des Fahrers speichert, die er mitgemacht hat. Pomelo hoffte, dass das Auto irgendwann genug Assoziationen für unabhängiges Fahren aufbauen würde.

Bei jeder Fahrt trainierte Pomelo das System einige Minuten lang und ließ sie dann selbst steuern. Alles schien gut zu laufen - bis Humvee eines Tages auf die Brücke fuhr und sich plötzlich zur Seite drehte. Man konnte einen Unfall vermeiden, ergriff nur schnell das Lenkrad und kehrte zurück.

Im Labor versuchte Pomelo, einen Computerfehler zu beheben. "Eine meiner Aufgaben bestand darin, die" Black Box "zu öffnen und herauszufinden, woran er dachte", erklärt er. Aber wie? Er programmierte den Computer als ein "neuronales Netzwerk" - eine Art künstliche Intelligenz, die das Gehirn simuliert, und verspricht, im Umgang mit komplexen Situationen, die die reale Welt betreffen, bessere Algorithmen zu bieten als Standardalgorithmen. Leider sind solche Netzwerke so undurchsichtig wie das echte Gehirn. Sie speichern nicht alles, was sie studiert haben, in einem sauberen Speicherblock, sondern verschmieren die Informationen, sodass sie nur sehr schwer entschlüsselt werden können. Erst nach einer Vielzahl von Tests der Reaktion der Software auf verschiedene Eingabeparameter entdeckte Pomelo ein Problem: Das Netzwerk benutzte Gras entlang der Straßenränder, um die Richtung zu bestimmen, und daher verwirrte sie das Aussehen der Brücke.

Nach 25 Jahren wurde die Entschlüsselung von Blackboxen exponentiell schwieriger, während die Dringlichkeit dieser Aufgabe zunahm. Die Komplexität und Verbreitung von Technologie hat explosionsartig zugenommen. Pomelo, ein Teilzeit-Lehrroboter bei Carnegie Mellon, beschreibt sein langjähriges System als "neuronales Netzwerk für die Armen", verglichen mit den riesigen neuronalen Netzwerken, die auf modernen Maschinen implementiert sind. Die Technik des Deep Learning (GO), bei der Netzwerke auf Archiven von "Big Data" trainiert werden, findet verschiedene kommerzielle Anwendungen, von Roboterfahrzeugen bis zu Produktempfehlungen für Websites, die auf der Grundlage des Browserverlaufs erstellt wurden.

Technologie verspricht in der Wissenschaft allgegenwärtig zu sein. Zukünftige Funkobservatorien werden HOs verwenden, um nach sinnvollen Signalen in Datenarrays zu suchenansonsten wirst du nicht harken . Gravitationswellendetektoren verwenden sie, um kleine Geräusche zu verstehen und zu beseitigen. Verlage werden damit Millionen von Forschungsarbeiten und Büchern filtern und markieren. Einige glauben, dass Computer, die GO verwenden, in der Lage sind, Fantasie und Kreativität zu demonstrieren. "Sie können die Daten einfach ins Auto werfen, und Sie werden die Naturgesetze zurückgeben", sagt Jean-Roch Vlimant, Physiker am California Institute of Technology.

Aber solche Durchbrüche werden das Black-Box-Problem noch akuter machen. Wie genau findet das Auto sinnvolle Signale? Wie können Sie sicher sein, dass ihre Ergebnisse korrekt sind? Wie sehr sollten Menschen tiefem Lernen vertrauen? "Ich denke, mit diesen Algorithmen müssen wir nachgeben", sagt Robotik-Spezialist Hod Lipson von der Columbia University in New York. Er vergleicht die Situation mit einem Treffen mit intelligenten Aliens, deren Augen nicht nur Rot, Grün und Blau sehen, sondern auch die vierte Farbe. Ihm zufolge wird es sehr schwierig für die Menschen sein, zu verstehen, wie diese Außerirdischen die Welt sehen, und dass sie es uns erklären. Computer hätten die gleichen Probleme, ihre Entscheidungen zu erklären, sagt er. "Irgendwann wird es den Versuchen ähneln, Shakespeare einem Hund zu erklären."

KI-Forscher reagieren auf solche Probleme wie Pomelo - sie öffnen die Blackbox und führen neuronale Aktionen aus, um die Funktionsweise von Netzwerken zu verstehen. Die Antworten sind nicht intuitiv, sagt Vincenzo Innocente, ein CERN-Physiker, der zuerst KI in seinem Bereich eingesetzt hat. „Als Wissenschaftler bin ich nicht mit der einfachen Fähigkeit zufrieden, Hunde von Katzen zu unterscheiden. Ein Wissenschaftler sollte sagen können: Der Unterschied liegt in diesem und jenem. “

Gute Fahrt


Das erste neuronale Netzwerk wurde in den frühen fünfziger Jahren geschaffen, fast unmittelbar nach dem Aufkommen von Computern, die an den notwendigen Algorithmen arbeiten konnten. Die Idee ist, die Arbeit von kleinen Zählmodulen - Neuronen - zu simulieren, die in Schichten angeordnet und mit digitalen „Synapsen“ verbunden sind. Jedes Modul in der unteren Ebene empfängt externe Daten, z. B. Bildpixel, und verteilt diese Informationen dann auf einige der Module in der nächsten Ebene. Jedes Modul in der zweiten Schicht integriert die Eingangsdaten aus der ersten Schicht gemäß einer einfachen mathematischen Regel und überträgt das Ergebnis weiter. Als Ergebnis gibt die obere Schicht die Antwort - zum Beispiel bezieht sie das Originalbild auf "Katzen" oder "Hunde".


Träumt die KI von Elektrikern? Die Deep Dream-Technologie (Deep Dream) liefert als Eingabedaten für ein neuronales Netzwerk, das auf Gesichtserkennung trainiert ist, beispielsweise ein Bild einer Blume - und ändert diese dann sequentiell, um die maximale Antwort vom neuronalen Netzwerk zu erhalten.

Nach dem Training reagiert die erste Schicht des Netzwerks im Durchschnitt auf einfache Formen wie Grenzen, mittlere auf komplexe Formen, und diese arbeitet bereits vollständig mit Menschen.

Das Ergebnis von Deep Dream erinnert an eine Halluzination.


Die Fähigkeiten solcher Netzwerke beruhen auf ihrer Lernfähigkeit. Durch das Erlernen des ursprünglichen Datensatzes mit den gegebenen richtigen Antworten verbessern sie allmählich ihre Eigenschaften und passen den Einfluss aller Verbindungen an, um die richtigen Ergebnisse zu erzielen. Der Prozess emuliert das Training des Gehirns, das die Synapsen stärkt und schwächt, und gibt dem Ausgang ein Netzwerk, das Daten klassifizieren kann, die ursprünglich nicht Teil des Trainingssatzes waren.

Die Möglichkeit, in den 1990er Jahren Physiker vom CERN zu lernen, war einer der Ersten, die große neuronale Netzwerke für die Wissenschaftsarbeit adaptierten. Neuronale Netze haben die Rekonstruktion der Flugbahnen von subatomaren Granatsplittern, die bei Kollisionen von Partikeln am Large Hadron Collider zur Seite gestreut wurden, sehr unterstützt.

Diese Form des Lernens ist auch der Grund dafür, dass die Informationen im Netzwerk sehr verschmiert sind: Wie im Gehirn ist das Gedächtnis in der Stärke verschiedener Verbindungen kodiert und nicht wie in einer bekannten Datenbank an bestimmten Stellen gespeichert. „Wo ist die erste Ziffer Ihrer Telefonnummer in Ihrem Gehirn gespeichert? Vielleicht in einer Reihe von Synapsen, vielleicht nicht weit von den restlichen Zahlen “, sagt Pierre Baldi, Spezialist für maschinelles Lernen (MO) von der University of California. Es gibt jedoch keine bestimmte Bitfolge, die die Zahl codiert. Laut dem Computerwissenschaftler Jeff Clune von der University of Wyoming: "Obwohl wir diese Netzwerke schaffen, können wir sie nicht besser verstehen als das menschliche Gehirn."

Für Wissenschaftler, die mit Big Data arbeiten, bedeutet dies, dass GO sorgfältig verwendet werden muss. Andrea Vedaldi, Informatik-Spezialistin an der Universität Oxford, erklärt: Stellen Sie sich vor, das neuronale Netzwerk wird in Zukunft an Mammogrammen trainiert , die Aufschluss darüber geben, ob die betroffenen Frauen an Brustkrebs leiden. Nehmen wir danach an, dass das Gewebe einer bestimmten gesunden Frau für die Maschine anfällig zu sein scheint. "Ein neuronales Netzwerk kann lernen, Tumormarker zu erkennen - solche, die wir nicht kennen, aber Krebs vorhersagen können."

Wenn die Maschine nicht erklären kann, wie sie bestimmt wird, wird dies für Ärzte und Patienten laut Vedaldi zu einem ernsthaften Dilemma. Es ist nicht einfach für eine Frau, die präventive Entfernung der Brustdrüse aufgrund genetischer Merkmale, die zu Krebs führen können, zu unterziehen. Noch schwieriger wird es, eine solche Wahl zu treffen, denn es ist sogar unbekannt, was dieser Faktor ist - selbst wenn sich die Vorhersagen der Maschine als zutreffend erweisen.

"Das Problem ist, dass Wissen in das Netzwerk eingebettet ist, nicht in uns", sagt Michael Tyka, Biophysiker und Programmierer bei Google. „Haben wir etwas verstanden? Nein, das ist ein Netzwerk, das verstanden wird. “

Mehrere Wissenschaftlergruppen haben sich 2012 mit dem Problem der Black Box befasst. Ein Team um Geoffrey Hinton, einen Spezialisten des Verteidigungsministeriums der Universität von Toronto, nahm an einem Computer Vision-Wettbewerb teil und demonstrierte zum ersten Mal, dass die Verwendung von GO zur Klassifizierung von Fotos aus einer Datenbank mit 1,2 Millionen Bildern jeden anderen Ansatz übertroffen hat mit KI.

Die Vedaldi-Gruppe erkannte, wie dies möglich ist, und verwendete die Hinton-Algorithmen, die das neuronale Netzwerk verbessern sollen, und trieben sie zurück. Anstatt das Netzwerk für die korrekte Interpretation der Antwort zu lernen, nutzte das Team ein vorgebildetes Netzwerk und versuchte, die trainierten Bilder neu zu erstellen. Dies half den Forschern zu bestimmen, wie die Maschine einige Merkmale aufweist - es war, als ob sie nach einem hypothetischen neuronalen Netzwerk fragen würden, das Krebs vorhersagt: „Welcher Teil einer Mammographie hat Sie zum Krebsrisiko gebracht?“.

Im vergangenen Jahr haben Taika und seine Kollegen bei Google einen ähnlichen Ansatz gewählt. Ihr Algorithmus, den sie Deep Dream nannten, beginnt mit einem Bild von einer Blume und modifiziert sie, um die Reaktion eines bestimmten Neurons auf höchster Ebene zu verbessern. Wenn das Neuron Bilder von beispielsweise Vögeln markieren möchte, zeigt das veränderte Bild überall Vögel. Die letzten Bilder ähneln Visionen unter LSD, in denen Vögel in Gesichtern, Gebäuden und vielem mehr sichtbar sind. „Ich denke, das ist einer Halluzination sehr ähnlich“, sagt Taika, die ebenfalls Künstlerin ist. Als er und seine Kollegen das Potenzial des Algorithmus im Kreativbereich erkannten, beschlossen sie, es kostenlos herunterzuladen. Innerhalb weniger Tage wurde dieses Thema viral.

Das Cluna-Team nutzte Techniken, die die Leistung jedes Neurons maximieren, und nicht nur eines der Top-Neuronen. Das Team von Cluna stellte 2014 fest, dass das Black-Box-Problem schwieriger sein könnte, als es zuvor schien. Neuronale Netze lassen sich sehr leicht mit Bildern täuschen, die Menschen als zufälliges Rauschen oder abstrakte Muster wahrnehmen. Zum Beispiel kann das Netzwerk Wellenlinien nehmen und entscheiden, dass es ein Seestern ist, oder schwarze und weiße Streifen mit einem Schulbus verwechseln. Dieselben Trends haben sich außerdem in Netzwerken ergeben, die an anderen Datensätzen trainiert wurden.

Die Forscher haben mehrere Lösungen für das Problem der Narration von Netzwerken vorgeschlagen, eine gemeinsame Lösung wurde jedoch noch nicht gefunden. In realen Anwendungen kann dies gefährlich sein. Laut Clun ist eines der beängstigenden Szenarien, dass Hacker lernen, diese Netzwerkfehler zu nutzen. Sie können das Mobiltelefon an eine Plakatwand schicken, die er für die Straße mitnehmen wird, oder den Retina-Scanner am Eingang des Weißen Hauses täuschen. „Wir müssen die Ärmel hochkrempeln und eingehende wissenschaftliche Forschung betreiben, um das Verteidigungsministerium zuverlässiger und kluger zu machen“, schließt Klun.

Solche Probleme haben einige Informatiker dazu gebracht zu denken, dass es nicht wert ist, sich nur mit neuronalen Netzwerken zu beschäftigen. Zubin Gahramani [Zoubin Ghahramani], ein Wissenschaftler des US-Verteidigungsministeriums an der University of Cambridge, sagt, wenn eine KI Antworten geben muss, die von den Menschen leicht interpretiert werden können, wird dies zu "vielen Problemen führen, mit denen GO nicht umgehen kann". Einer der ziemlich verständlichen wissenschaftlichen Ansätze wurde 2009 erstmals von Lipson und dem Biologieforscher Michael Schmidt gezeigt, der zu dieser Zeit an der Cornell University arbeitete. Ihr Algorithmus, Eureqa, demonstrierte den Prozess der Wiederentdeckung der Newtonschen Gesetze durch Beobachtung eines einfachen mechanischen Objekts - eines Pendelsystems - in Bewegung.

Beginnend mit einer zufälligen Kombination mathematischer Bausteine ​​wie +, -, Sinus und Cosinus, ändert Eureqa durch Versuch und Irrtum, ähnlich wie die Darwinsche Evolution, sie bis zu den Formeln, die die Daten beschreiben. Sie bietet dann Experimente an, um die Modelle zu testen. Ein Vorteil ist die Einfachheit, sagt Lipson. „Das von Eureqa entwickelte Modell hat normalerweise ein Dutzend Parameter. Neuronale Netze haben Millionen davon. “

Auf dem Autopiloten


Im vergangenen Jahr veröffentlichte Garahmani den Algorithmus zur Automatisierung der Arbeit eines Wissenschaftlers auf der Grundlage von Daten, von Rohdaten bis hin zu abgeschlossenen wissenschaftlichen Arbeiten. Seine Software, Automatic Statistician, erkennt Trends und Anomalien in Datensätzen und gibt eine Schlussfolgerung, einschließlich einer ausführlichen Erläuterung der Gründe. Diese Transparenz ist in seinen Worten "absolut kritisch" für den Einsatz in der Wissenschaft, aber auch für kommerzielle Anwendungen. In vielen Ländern sind beispielsweise Banken, die sich weigern zu leihen, gesetzlich dazu verpflichtet, den Grund für die Ablehnung zu erklären. Dies kann für den GO-Algorithmus unmöglich sein.

Dieselben Bedenken gelten für verschiedene Organisationen, erklärt Ellie Dobson, Direktorin für Datenwissenschaft bei Arundo Analytics in Oslo. Wenn beispielsweise in Großbritannien aufgrund einer Änderung des Leitzinssatzes etwas schief geht, kann die Bank of England nicht einfach sagen: "Alles liegt an der Black Box".

Trotz all dieser Befürchtungen sagen Informatiker, dass Versuche, eine transparente KI zu schaffen, eine Ergänzung des GO sein sollten und diese Technologie nicht ersetzen sollten. Einige transparente Techniken funktionieren in Bereichen, die bereits als abstrakte Daten beschrieben wurden, möglicherweise gut, sie können jedoch nicht mit der Wahrnehmung umgehen, dh dem Extrahieren von Fakten aus Rohdaten.

Demnach sollten die komplexen Antworten, die dank des Verteidigungsministeriums erhalten wurden, Teil der Werkzeuge der Wissenschaft sein, da die reale Welt komplex ist. Für Phänomene wie das Wetter oder den Finanzmarkt können reduktionistische, synthetische Beschreibungen einfach nicht existieren. "Es gibt Dinge, die nicht in Worten beschrieben werden können", sagt Stéphane Mallat, angewandter Mathematiker an der Paris Polytechnic School. "Wenn Sie den Arzt fragen, warum er eine solche Diagnose gestellt hat, wird er Ihnen Gründe nennen", sagt er. - Warum brauchen Sie dann 20 Jahre, um ein guter Arzt zu werden? Weil Informationen nicht nur aus Büchern stammen. “

Baldi zufolge sollte ein Wissenschaftler GO akzeptieren und nicht viel um die Black Boxes baden. Sie haben so eine Black Box im Kopf. "Sie benutzen ständig das Gehirn, Sie vertrauen immer darauf und Sie verstehen nicht, wie es funktioniert."