Hat mein Algorithmus irgendwelche mentalen Probleme?

Published on May 15, 2018

Hat mein Algorithmus irgendwelche mentalen Probleme?

Ursprünglicher Autor: Thomas T Hills
  • Übersetzung


Hat mein Auto Halluzinationen? Leidet der Algorithmus, der Leiter des polizeilichen Überwachungssystems in meiner Stadt, an Paranoia? Marvin, der Android von Hitchhikers Guide to the Galaxy, hatte alle Dioden auf der linken Seite. Gibt es ähnliche Empfindungen in meinem Toaster?

Es klingt komisch, aber nur bis wir erkennen, dass sich unsere Algorithmen immer mehr an uns selbst ähneln. Je mehr wir über unser Gehirn lernen, desto mehr investieren wir dieses Wissen in die Erstellung algorithmischer Versionen von uns. Diese Algorithmen steuern die Geschwindigkeit von Robotern, bestimmen Ziele für autonome militärische Drohnen, berechnen unsere Anfälligkeit für kommerzielle und politische Werbung, finden uns in Online-Diensten und finden Risiken für Versicherungen und Kredite. Algorithmen werden zu einem fast vernünftigen Hintergrund unseres Lebens.

Die beliebtesten Algorithmen, die heute in der Arbeit verwendet werden, sind diejenigen mit tiefem Lernen . Sie kopieren die Architektur des menschlichen Gehirns und bilden komplexe Informationsmodelle. Sie sind darauf trainiert, die umgebende Realität durch ihre Wahrnehmung zu verstehen, zu bestimmen, was wichtig ist, und zu verstehen, was daraus entsteht. Sie ähneln unserem Gehirn und das Risiko ihrer psychischen Probleme steigt.

Deep Blue, der Algorithmus, der 1997 den Schachweltmeister Garry Kasparov gewann, verwendete die Brute-Force-Methode, die eine Million Positionen pro Sekunde überschritt und in der Zukunft bis zu 20 Schritte voraussagte. Jeder hat verstanden, wie es funktioniert, auch wenn er es nicht wiederholen konnte. AlphaGo, der tiefgreifende Algorithmus, der Lee Sedol im Jahr 2016 besiegt hat, ist radikal anders. Er nutzte neuronale Netzwerke, um sein eigenes Verständnis für das Spiel zu entwickeln, das als das schwierigste aller Brettspiele gilt. AlphaGo wurde trainiert, indem er andere beobachtete und mit sich selbst spielte. Go-Programmierer und Spieler sind verwirrt von der ungewöhnlichen Art, AlphaGo zu spielen. Seine Strategie erscheint zunächst ungewöhnlich. Und nur dann verstehen wir, was er meinte, und das überhaupt nicht 100%.

Um dir besser zu erklären, was ich unter Nachdenken verstehe, bedenke folgendes. Bei Programmen wie Deep Blue kann der Code einen Fehler enthalten. Sie können aus dem Speicherüberlauf fallen. Sie können aufgrund einer Endlosschleife gelähmt sein oder nur die falsche Antwort geben. Alle diese Probleme können jedoch von einem Programmierer gelöst werden, der Zugriff auf den Quellcode des Programms hat, mit dem der Algorithmus geschrieben wurde.

Algorithmen wie AlphaGo arbeiten völlig anders. Ihre Probleme sind sehr schwer zu erkennen, wenn Sie nur den Programmcode betrachten. Sie beziehen sich auf die interne Darstellung von Informationen. Diese Ansicht ist ein sich ständig verändernder multidimensionaler Raum, der an Traumlandschaften erinnert. Um die Probleme solcher Algorithmen zu lösen, bedarf es ebenso eines Psychotherapeuten für Algorithmen.

Nehmen Sie unbemannte Fahrzeuge. Robomobil, der das erste „Stoppschild“ in der realen Welt gesehen hatte, hatte bereits während des Trainings Millionen von Stoppschildern gesehen, als er dieses Zeichen aufbaute. Bei unterschiedlichen Lichtverhältnissen, bei gutem und schlechtem Wetter, mit Einschusslöchern und ohne diese - die "Stopp" -Schilder enthalten eine unglaubliche Menge an verschiedenen Informationen. Bei den meisten Varianten der normalen Bedingungen erkennt das Robomobil das "Stop" -Zeichen. Es sind jedoch nicht alle Bedingungen normal. Einige kürzlich durchgeführte Experimente haben gezeigt, dass einige schwarze Aufkleber, die das Stoppschild abdecken, von einem Algorithmus getäuscht werden können, der entscheidet, dass dies tatsächlich ein Zeichen für eine Geschwindigkeitsbegrenzung von bis zu 60 Meilen pro Stunde ist. Der Algorithmus, der etwas Ähnliches wie den kontrastierenden Schatten eines Baumes gefunden hat, beginnt zu halluzinieren.

Und wie viele Möglichkeiten gibt es, um Halluzinationen zu erfahren? Um dies herauszufinden, müssten wir dem Algorithmus alle möglichen Kombinationen von Eingabedaten geben. Dies bedeutet, dass etwas unendlich viele Möglichkeiten hat. Erfahrene Programmierer haben das schon lange gewusst und verwenden es, um sogenannte "Programme" zu erstellen. konträre Beispiele. Das AI LabSix-Forschungsteam des MIT hat gezeigt, dass durch die Übermittlung spezieller Bilder an den Bildklassifizierungsalgorithmus von Google und die Verwendung der Daten daraus die Schwächen ermittelt werden können. Und dann können sie diese Schwächen nutzen, um den Algorithmus zu täuschen - um ihn beispielsweise zum Glauben zu bringen, dass das Röntgenbild tatsächlich ein Bild von zwei Welpen ist, die im Gras spielen.

Algorithmen können auch Fehler machen, da sie manchmal Umgebungsmerkmale wahrnehmen, die mit dem Endergebnis korrelieren, obwohl sie keinen kausalen Zusammenhang damit haben. In der Welt der Algorithmen wird dies als Übertraining bezeichnet . Wenn dies im Gehirn geschieht, nennen wir es Aberglauben.

Einer der größten algorithmischen Fehler im Moment bleibt der sogenannte. " Parabola Google Flu"[Vorhersage von Influenza-Epidemien]. Google Grippe nutzte die Informationen, nach denen die Menschen bei Google suchen, um die Standorte und die Intensität von Grippeausbrüchen vorherzusagen. Zunächst funktionierten die Google Grippe-Vorhersagen gut, aber im Laufe der Zeit verschlechterten sich die Auswirkungen, bis das System schließlich voraussagte Zweimal mehr Fälle von Influenza als in den US-amerikanischen Zentren für Krankheitsbekämpfung (Google Centers for Disease Control). Google Grippe als algorithmischer Schamane hat einfach nicht darauf geachtet, was nötig war.

Vielleicht können algorithmische Pathologien korrigiert werden. Es handelt sich dabei um proprietäre Black Boxes, deren Aktualisierung durch die Handelsgesetze verboten ist. Im Buch " Weapons of Mathematical Destruction"Katie O'Neill aus dem Jahr 2016 beschreibt eine echte Parade von Freaks, die aus kommerziellen Algorithmen besteht, deren listige Pathologien das Leben der Menschen ruiniert haben. Algorithmische Fehler, die Arm und Reich voneinander trennen, sind besonders interessant. Arme Menschen haben eher Probleme mit Krediten, leben in Orten mit Erhöhte Kriminalitätsrate, umgeben von anderen armen Menschen mit ähnlichen Problemen: Aus diesem Grund wählen die Algorithmen diese Menschen als Ziele für irreführende Werbung, die sich von ihrer Verzweiflung nährt, und bieten ihnen einen StandardDarlehen, und sie schicken mehr Polizeibeamte in ihre Wohngebiete, was die Wahrscheinlichkeit erhöht, dass die Polizei sie wegen Verbrechen verhaften wird, die in derselben Häufigkeit und in reicheren Gegenden vorkommen. Die Algorithmen, die das Justizsystem verwendet, weisen diesen Menschen langfristige Laufzeiten zu, reduzieren ihre Chancen auf Bewährung, blockieren freie Stellen, erhöhen die Hypothekenzinsen, verlangen hohe Versicherungsprämien und so weiter.

Dieser algorithmische Teufelskreis ist in der Matrjoschka verborgen, die aus Blackboxen besteht: Algorithmen-Blackboxen, die den Prozess der Verarbeitung in ihren Gedanken an höhere Dimensionen verbergen, zu denen wir keinen Zugang haben, die in Blackboxen mit proprietären Rechten an Algorithmen verborgen sind. In einigen Orten, zum Beispiel in New York, hat dies zu Vorschlägen für die Annahme von Gesetzen geführt, die verpflichtet sind, die Fairness der Arbeit der Algorithmen zu überwachen, die von städtischen Diensten verwendet werden. Aber wenn wir nicht einmal kognitive Verzerrungen in uns selbst entdecken können, wie können wir dann erwarten, dass sie in unseren Algorithmen entdeckt werden?

Algorithmen, Schulungen zu menschlichen Daten, erfassen unsere Verzerrungen. In einer aktuellen StudieUnter der Leitung von Aileen Kaliskan von der Princeton University wurde festgestellt, dass die Algorithmen, die die Nachrichten trainieren, sehr schnell rassische und sexuelle Vorurteile erleiden. Kaliskan stellte fest: „Viele Menschen glauben, dass Autos keine Vorurteile haben. Maschinen trainieren jedoch mit menschlichen Daten. Und die Leute haben Vorurteile. “

Soziale Netzwerke sind ein Schlangennest von menschlichen Vorurteilen und Hass. Algorithmen, die viel Zeit in sozialen Netzwerken verbringen, werden schnell zu blinden Fanatikern. Sie erwerben Vorurteile gegen Krankenschwestern und Ingenieurinnen. Sie missverstehen Probleme wie Einwanderung und Minderheitenrechte. Ein bisschen mehr, und die Algorithmen werden beginnen, Menschen so unfair zu behandeln, wie Menschen miteinander in Beziehung stehen. Aber die Algorithmen sind ihrer Unfehlbarkeit von Natur aus zu sicher. Und solange Sie sie nicht auf das Gegenteil trainieren, haben sie keinen Grund, sich der Inkompetenz zu verdächtigen (alles ist genau wie bei den Menschen).

Die beschriebenen Algorithmen haben psychologische Probleme aufgrund der Qualität der Daten, auf denen sie trainieren. Algorithmen können jedoch aufgrund ihrer internen Struktur ähnliche Probleme haben. Sie können die alten Informationen vergessen, während sie die neue studieren. Stellen Sie sich vor, Sie erinnern sich an den Namen eines neuen Kollegen und haben plötzlich vergessen, wo Sie leben. In extremen Fällen können die Algorithmen unter dem sogenannten Algorithmus leiden. " Katastrophales Vergessen ", wenn der Algorithmus als Ganzes nichts Neues mehr studieren und merken kann. Die Theorie der altersbedingten kognitiven Beeinträchtigung basiert auf einer ähnlichen Idee: Wenn das Gedächtnis überlastet wird, benötigen Gehirn und Computer mehr Zeit, um das zu finden, was sie wissen.

Wann genau der Fall eine pathologische Wendung nimmt, hängt vom Standpunkt ab. Infolgedessen bleiben psychische Anomalien bei Menschen oft ungelöst. Synästhetiker wie meine Tochter, in deren Wahrnehmung die geschriebenen Buchstaben mit bestimmten Farben in Verbindung gebracht werden, wissen oft nicht, dass sie eine besondere Begabung für die Wahrnehmung haben, selbst für die Jugend. Zeugenaussagen von Ronald Reagans Sprachanalyse deuten nun darauf hin, dass er als Präsident an Demenz litt. Ein Artikel in The Guardian beschreibt, dass Massenexekutionen, die in den USA in den letzten fünf Jahren an etwa neun von zehn Tagen stattfanden, häufig in den sogenannten stattfinden. "Normale" Menschen, die die Verfolgung und Depression nicht aushalten können.

In vielen Fällen sind mehrere aufeinanderfolgende Unterbrechungen erforderlich, um ein Problem zu erkennen. Die Diagnose einer Schizophrenie dauert mindestens einen Monat, um die Symptome zu beobachten. Asoziale Persönlichkeitsstörungen - ein moderner Begriff für Psychopathie und Soziopathie - werden bei Menschen unter 18 Jahren nicht diagnostiziert und können nur dann abgegeben werden, wenn eine Person Verhaltensstörungen bis zu 15 Jahren hat.

Die meisten psychischen Störungen haben keine Biomarker, genauso wie der AlphaGo-Code keine Fehler enthält. Probleme in unserer "Ausrüstung" sind nicht sichtbar. Es ist in unserer "Software". Viele Optionen für die Verletzung des Gehirns machen jedes psychologische Problem einzigartig. Wir klassifizieren sie in breite Kategorien, wie Schizophrenie oderDas Asperger-Syndrom , aber die meisten Erkrankungen haben ein breites Spektrum und decken die Symptome ab, die bei den meisten Menschen in unterschiedlichem Ausmaß auftreten können. Im Jahr 2006 haben die Psychologen Matthew Keller und Joffrey Miller geschrieben, dass dies eine unvermeidliche Eigenschaft des Gehirns ist.

In einem Kopf wie dem unseren kann vieles schief gehen. Karl Jung hat einmal vorgeschlagen, dass in jedem vernünftigen Menschen ein Verrückter steckt. Je ähnlicher unsere Algorithmen uns werden, desto leichter kann er sich darin verstecken.

Thomas Hills ist Professor für Psychologie an der University of Warwick in Coventry, Großbritannien.