AI, Big Data und Technologie-Desinformation

Ursprünglicher Autor: Lee Gomes
  • Übersetzung


/ photo KamiPhuc CC

Normalerweise sprechen wir in unserem Blog über Cloud-Dienste , Hosting und verwandte Technologien. Heute sprechen wir über die Herausforderungen der technologischen Entwicklung im Allgemeinen, künstliche Intelligenz, Big Data und Michael Jordan (kein Basketballspieler).

Michael Jordan ist emeritierter Professor an der University of California in Berkeley und IEEE-Mitglied. Jordanien ist einer der angesehensten und angesehensten Menschen, ein Weltexperte auf dem Gebiet des maschinellen Lernens. Er ist zuversichtlich, dass die übermäßige Nutzung von Big Data nicht die erwarteten Auswirkungen hat und zu Katastrophen wie dem massiven Zusammenbruch von Brücken führen wird.

Versuchen wir, dieses Thema besser zu verstehen. Schauen wir uns die Definition des Begriffs „künstliche Intelligenz“ durch den Schöpfer der Lisp-Sprache, John McCarthy, an. In einem gleichnamigen Artikel („Was ist künstliche Intelligenz?“) Betonte er, dass KI mit der Aufgabe verbunden ist, Computer zum Verständnis der Arbeit der menschlichen Intelligenz zu verwenden, aber nicht auf die Verwendung von Methoden beschränkt ist, die in der Biologie beobachtet werden.

Natürlich ist diese Interpretation eindeutig weit von unseren Vorstellungen über das futuristische Bild der KI entfernt. Die Journalisten Gomez und Jordan bestätigen in ihrem Gespräch diese Idee und betonen das Vorhandensein einer Art Fehlinformation, die für verschiedene Medien, die an der Welle der wachsenden Popularität dieses Themas arbeiten, von Vorteil ist.

Michael greift auf die Erfahrung der Erforschung der neuronalen Netze zurück, über die seit den 1980er Jahren an jeder Ecke gesprochen wurde, und wiederholt dabei das, was in den 1960er Jahren bekannt war. Heute ist die Hauptidee ein Faltungsnetzwerk, aber es geht überhaupt nicht um Neurologie. Die Menschen sind davon überzeugt, dass sie verstehen müssen, wie das menschliche Gehirn Informationen verarbeitet, lernt und Entscheidungen trifft, aber in Wirklichkeit entwickelt sich die Wissenschaft in eine etwas andere Richtung.

Jordan sagt, dass die Neurowissenschaften Dutzende oder sogar Hunderte von Jahren brauchen werden, um die zugrunde liegenden Prinzipien des Gehirns zu verstehen. Heute nähern wir uns erst dem Beginn der Erforschung der Prinzipien der Präsentation, Speicherung und Verarbeitung von Informationen durch Neuronen. Wir haben praktisch kein Verständnis dafür, wie das Lernen tatsächlich in unserem Gehirn stattfindet. Obwohl für ähnliche Analogien seinen Platz. Daher begannen die Menschen nach Metaphern zu suchen, die mit der parallelen Arbeit des Gehirns zusammenhängen. Dies erwies sich als nützlich für die Entwicklung von Algorithmen, ging jedoch fast nicht über die Suche nach neuen Lösungen und Ideen hinaus.

Wenn wir uns weiterhin mit den Begriffen befassen, werden wir feststellen, dass die am Tiefenlernen beteiligten „Neuronen“ eine Metapher (oder, in der jordanischen Sprache, eine „Karikatur“ des Gehirns im Allgemeinen) sind, die nur der Kürze und Zweckmäßigkeit halber verwendet wird. In Wirklichkeit ist die Arbeit der Mechanismen des gleichen tiefen Lernens dem Verfahren zur Erstellung eines statistischen Modells der logistischen Regression viel näher als der Arbeit realer Neuronen.

John McCarthy wiederum betonte: Das Problem bestehe nicht nur darin, ein System zu schaffen, das dem Bild und der Ähnlichkeit der menschlichen Intelligenz entspreche, sondern auch darin, dass die Wissenschaftler selbst sich nicht an eine gemeinsame Meinung halten, was er (der Intellekt) ist und wofür welche spezifischen Prozesse verantwortlich sind. Zu sagen, dass wir diese Architektur „exakt neu erstellen“ und zum Laufen bringen können, ist in naher Zukunft äußerst unwahrscheinlich.

Big Data ist möglicherweise ein weiterer Medien-Trick, der von Tausenden von Forschern auf der ganzen Welt gepickt wurde. Die moderne Besessenheit von Big Data kann dazu führen, dass Schlussfolgerungen aus Daten mit kontroverser statistischer Stärke unkontrolliert herangezogen werden.

Für jede gegebene Datenbank können Sie eine Kombination von Spalten finden, die völlig zufällig ist, aber jede Hypothese, die berücksichtigt werden muss, um ein bestimmtes Problem zu lösen, genau beantwortet. Angesichts des Vorhandenseins von Millionen von Attributen für ein bestimmtes Objekt und einer nahezu unbegrenzten Anzahl von Kombinationen dieser Attribute ähnelt dies alles einem Witz über Shakespeare, eine Schreibmaschine und eine Million Affen.

Natürlich gibt es viele Ideen für die Überwachung der Forschung, mit denen Sie herausfinden können, mit welcher Häufigkeit Fehler in solchen Hypothesen aufgetreten sind. Die Verwendung von mathematischen und technischen Tools dauert jedoch lange und wir lernen immer noch, wie man mit Big Data umgeht.

In der Wissenschaft und in neuen Wissensgebieten sind die Grenzen und Rahmenbedingungen für die Forschung eines der Elemente, die für den Fortschritt erforderlich sind. Diese Aussage wird durch die Geschichte der ersten Systeme des technischen Sehens (Gesichtserkennung) sowie das Beispiel mit Sprachtechnologien (Erkennung einzelner Wörter) untermauert.

PS Wir versuchen, nicht nur unsere eigenen Erfahrungen mit dem Dienst zur Bereitstellung einer virtuellen 1cloud- Infrastruktur zu teilen , sondern auch über verschiedene Studien und Forscher zu sprechen, die in verwandte Wissensbereiche involviert sind.

Vergiss nicht, unseren Blog über Habré zu abonnieren , Freunde!

Jetzt auch beliebt: