Was denken Forscher über künstliche Intelligenz über die möglichen damit verbundenen Risiken?

Ursprünglicher Autor: Scott Alexander
  • Übersetzung
Die mit AI verbundenen Risiken haben mich 2007 interessiert. Zu dieser Zeit reagierten die meisten Leute auf dieses Thema wie folgt: "Sehr lustig, komm zurück, wenn jemand anderes als Internet-Idioten daran glauben wird."

In den folgenden Jahren äußerten mehrere äußerst intelligente und einflussreiche Persönlichkeiten, darunter Bill Gates , Stephen Hawking und Ilon Mask , öffentlich ihre Bedenken hinsichtlich der Risiken von AI, gefolgt von hunderten anderen Intellektuellen, von Oxford-Philosophen bis zu Kosmologen des MIT und Investoren aus Silicon Valley . Und wir sind zurück.

Dann änderte sich die Reaktion in: "Nun, einige Wissenschaftler und Geschäftsleute können es glauben, aber es ist unwahrscheinlich, dass sie echte Experten auf diesem Gebiet sein werden, die sich mit der Situation wirklich auskennen."

Von hier kamen Aussagen wie der Artikel in Popular Science " Bill Gates hat Angst vor der KI, aber KI-Forscher wissen es besser ":
Nach einem Gespräch mit KI-Forschern - echten Forschern, die solche Systeme kaum zum Laufen bringen oder gar gut funktionieren, wird deutlich, dass sie keine Angst haben, dass die Superintelligenz sich jetzt oder in Zukunft plötzlich an sie anschleichen wird. . Trotz all der erschreckenden Geschichten, die Mask erzählt, haben die Forscher keine Eile, Schutzräume zu bauen und die Selbstzerstörung des Countdowns zu beenden.

Oder, wie sie auf Fusion.net im Artikel " Einwand gegen Killerroboter von einer Person, die tatsächlich eine KI entwickelt " schrieb:
Andrew Angie entwickelt professionell AI-Systeme. Er unterrichtete einen KI-Kurs in Stanford, entwickelte KI bei Google und wechselte dann zu Baidu, einer chinesischen Suchmaschine, um seine Arbeit in der vordersten Reihe des Einsatzes von KI in der realen Welt fortzusetzen. Wenn er also hört, wie Ilon Musk oder Stephen Hawking - Menschen, die mit moderner Technologie nicht vertraut sind - von AI sprechen, die möglicherweise die Menschheit zerstören kann, kann man fast hören, wie er sein Gesicht bedeckt.

Ramez Naam [Ramez Naam] von Marginal Revolution wiederholt das Gleiche in dem Artikel " Was denken Forscher über die Risiken einer KI? ":
Ilon Musk, Stephen Hawking und Bill Gates haben kürzlich die Befürchtung geäußert, dass die Entwicklung der KI das "Killer-KI" -Szenario umsetzen und möglicherweise zum Aussterben der Menschheit führen kann. Sie gehören nicht zu KI-Forschern und arbeiteten, soweit ich weiß, nicht direkt mit KI. Was denken echte KI-Forscher über die Risiken von KI?

Er zitiert die Wörter von speziell ausgewählten KI-Forschern sowie die Autoren anderer Geschichten - und hört dann auf, ohne andere Meinungen zu erwähnen.

Aber sie existieren KI-Forscher, einschließlich führender Persönlichkeiten auf diesem Gebiet, äußerten von Anfang an ihre Besorgnis über die Risiken der KI und über die Intelligenz hinaus. Ich fange an, diese Leute aufzulisten, in der Spitze der Naam-Liste, und dann fortzufahren, warum ich dies nicht als „Diskussion“ im klassischen Sinne halte, die von der Auflistung der Leuchten erwartet wird.

Die Kriterien für meine Liste sind folgende: Ich erwähne nur die renommiertesten Forscher oder Professoren der Wissenschaft in guten Institutionen mit vielen Zitaten wissenschaftlicher Arbeiten oder sehr angesehene Wissenschaftler aus der Industrie, die für große Unternehmen arbeiten und eine gute Erfolgsgeschichte aufweisen. Sie machen KI und maschinelles Lernen. Sie haben einige starke Aussagen zur Unterstützung eines Standpunkts hinsichtlich des Eintretens einer Singularität oder eines ernsten Risikos durch die KI in naher Zukunft. Einige haben über diese Arbeit oder dieses Buch geschrieben. Einige drückten einfach ihre Gedanken aus und glaubten, dass dies ein wichtiges Thema sei, das es wert sei, untersucht zu werden.

Wenn jemand mit der Aufnahme einer Person in diese Liste nicht einverstanden ist oder meint, etwas Wichtiges vergessen zu haben, lassen Sie es mich wissen.

* * * * * * * * * * *

Stuart Russell- Professor für Informatik in Berkeley, Gewinner des IJCAI Computers And Thought Award, Forscher bei der Computermechanisierungsvereinigung, Forscher an der Amerikanischen Akademie für Fortgeschrittene Wissenschaftliche Forschung, Direktor des Zentrums für Intelligente Systeme, Gewinner des Blaise-Pascal-Preises usw. usw. Mitautor des Buches " AI: ein moderner Ansatz ", ein klassisches Lehrbuch, das an 1.200 Universitäten auf der ganzen Welt verwendet wird. Auf seiner Website schreibt er:
Im Bereich der KI haben sich 50 Jahre unter der Annahme entwickelt, dass je intelligenter, desto besser. Damit müssen Sie Angst zum Wohle der Menschheit kombinieren. Das Argument ist einfach:

1. Die KI wird wahrscheinlich erfolgreich erstellt.
2. Unbegrenzter Erfolg führt zu großen Risiken und großen Vorteilen.
3. Was können wir tun, um die Chancen zu erhöhen und Risiken zu vermeiden?

Einige Organisationen arbeiten bereits an diesen Themen, darunter das Institut für die Zukunft der Menschheit in Oxford, das Center für existenzielle Risikoforschung in Cambridge (CSER), das Institut für die Untersuchung der maschinellen Intelligenz in Berkeley und das Institute for Future Life in Harvard / MIT (FLI). Ich bin in den Beiräten von CSER und FLI.

Ebenso wie die Kernfusionsforscher das Problem der Beschränkung der Kernreaktionen als eines der Hauptprobleme auf ihrem Gebiet betrachteten, wird die Entwicklung des KI-Feldes unweigerlich Kontroll- und Sicherheitsfragen aufwerfen. Die Forscher werfen bereits erste Fragen auf, von rein technischen (grundsätzlichen Problemen der Rationalität und Nützlichkeit usw.) bis hin zu allgemein philosophischen.

Auf edge.org beschreibt er einen ähnlichen Standpunkt:
Wie Steve Omohandro, Nick Bostrom und andere erläuterten, kann die Diskrepanz bei Werten mit Entscheidungssystemen, deren Möglichkeiten ständig zunehmen, zu Problemen führen - vielleicht sogar zu den Problemen des Ausmaßes der Ausrottung der Arten, wenn sich die Maschinen als fähiger erweisen als Menschen. Einige glauben, dass es im nächsten Jahrhundert keine absehbaren Risiken für die Menschheit geben wird. Vielleicht vergisst man, dass der Zeitunterschied zwischen Rutherfords überzeugender Aussage, dass Kernenergie niemals wiedergewonnen werden kann, besteht und dass die von den Neutronen der Kettenreaktion initiierte Erfindung von Silard weniger als 24 Stunden dauerte. .

Er versuchte auch, diese Ideen in einem akademischen Umfeld darzustellen und wies darauf hin :
Ich finde, dass die Hauptleute in dieser Branche, die noch nie Ängste geäußert haben, der Meinung sind, dass dieses Problem sehr ernst genommen werden sollte. Je früher wir es ernst nehmen, desto besser wird es sein.

David McAllister ist Professor und Senior Fellow am Toyota Institute of Technology. Er ist Mitglied der University of Chicago, die zuvor an den Fakultäten des MIT und des Cornell Institute tätig war. Er ist ein Angestellter der American Association of AI, veröffentlichte mehr als einhundert Publikationen, forschte in den Bereichen Maschinelles Lernen, Programmtheorie, automatische Entscheidungsfindung, KI-Planung und Computerlinguistik und hatte gravierenden Einfluss auf die Algorithmen des berühmten Schachcomputers Deep Blue. Nach einem Artikel in der Pittsburgh Tribune Review:
Der Chicagoer Professor David McAllister hält es für unumgänglich, dass vollautomatische intelligente Maschinen die Möglichkeit haben, intelligentere Versionen von sich selbst zu entwickeln und zu erstellen, d. H. Der Beginn eines als [technologische] Singularität bekannten Ereignisses. Durch die Singularität werden Maschinen unendlich intelligent, was zu einem "unglaublich gefährlichen Szenario" führt.

In seinem Blog " Gedanken über Autos " schreibt er:
Die meisten Informatiker lehnen es ab, über echte Erfolge auf dem Gebiet der KI zu sprechen. Ich denke, es wäre vernünftiger zu sagen, dass niemand vorhersagen kann, wann eine KI erhalten wird, die mit dem menschlichen Geist vergleichbar ist. John McCarthy erzählte mir einmal, als er gefragt wurde, wie bald eine KI auf menschlicher Ebene geschaffen werden würde, antwortet er, dass sie fünf bis fünfhundert Jahre alt sei. Makarty war schlau. Angesichts der Unsicherheiten in diesem Bereich ist es sinnvoll, das Problem einer befreundeten KI zu berücksichtigen ...

In den frühen Stadien ist eine generalisierte KI sicher. Die frühen Stadien des AIS werden jedoch ein hervorragendes Testgelände für die KI in der Rolle des Dieners oder anderer Optionen sein, die eine freundliche KI darstellen. Ein experimenteller Ansatz wird auch von Ben Görzel in einem guten Beitrag in seinem Blog beworben. Wenn wir auf eine Ära sicherer und nicht zu intelligenter OII warten, haben wir Zeit, über gefährlichere Zeiten nachzudenken.

Er war Mitglied der AAAI-Expertengruppe für Langzeit-KI-Futures, die sich mit den Langzeitperspektiven von AI befasste, war Vorsitzender des Langzeitüberwachungsausschusses und wird wie folgt beschrieben :
McAllister sprach mit mir über den Ansatz von "Singularität", einem Ereignis, bei dem Computer intelligenter werden als Menschen. Er nannte nicht das genaue Datum ihrer Offensive, sagte aber, dass dies in den nächsten Jahrzehnten passieren könnte und am Ende definitiv passieren wird. Hier sind seine Ansichten zur Singularität. Zwei bedeutende Ereignisse werden eintreten: Betriebsrationalität, bei der wir leicht mit Computern sprechen können, und die KI-Kettenreaktion, bei der sich der Computer ohne Hilfe verbessern kann und diese dann erneut wiederholt. Wir werden die erste Veranstaltung in den automatischen Assistenzsystemen bemerken, die uns wirklich helfen wird. Später wird es wirklich interessant sein, mit Computern zu kommunizieren. Und damit Computer in der Lage sind, alles zu tun, was die Menschen tun können, muss auf das zweite Ereignis gewartet werden.

Hans Moravec ist ehemaliger Professor am Institut für Robotik der Carnegie Mellon University. Nach ihm ist das Moravek- Paradoxon benannt , der Gründer der SeeGrid Corporation , einem Unternehmen , das sich mit Bildverarbeitungssystemen für industrielle Anwendungen beschäftigt. Seine Arbeit „ Sensorsynthese im Sicherheitsgitter mobiler Roboter “ wurde mehr als tausendmal zitiert und er wurde eingeladen, einen Artikel für die britische Encyclopedia on Robotics zu schreiben, zu einer Zeit, als Artikel in Enzyklopädien von Weltexperten auf diesem Gebiet geschrieben wurden und nicht von Hunderten anonymer Internetkommentatoren.

Er ist auch der Autor des Buches " Roboter: Von einer einfachen Maschine zu einem transzendentalen Geist ", das Amazon wie folgt beschreibt:
In diesem spannenden Buch sagt Hans Moravek voraus, dass sich Autos bis 2040 dem intellektuellen Niveau der Menschen nähern werden und bis 2050 uns überholen werden. Obwohl Moravec das Ende einer Ära der menschlichen Herrschaft voraussagt, ist seine Vision dieses Ereignisses nicht so düster. Er isoliert sich nicht von der Zukunft, in der Maschinen die Welt beherrschen, sondern akzeptiert ihn und beschreibt einen erstaunlichen Standpunkt, nach dem intelligente Roboter unsere evolutionären Nachkommen werden. Moravec glaubt, dass am Ende dieses Prozesses "ein immenser Cyberspace sich mit dem unmenschlichen Supermind vereinen und sich mit Dingen befassen wird, die von Menschen so weit entfernt sind wie menschliche Angelegenheiten von Bakterien."

Shane Leg ist Mitbegründer von DeepMind Technologies , einem KI-Startup, das 2014 für 500 Millionen US-Dollar von Google erworben wurde. Er promovierte am Institut für KI ihnen. Dale Moule in der Schweiz und arbeitete auch in der Abteilung für Computational Neurobiology. Gatsby in London. Am Ende der Arbeit "machine superintelect" schreibt er :
Wenn es etwas gibt, das der absoluten Leistung nahe kommen kann, wird es eine superintelligente Maschine sein. Per Definition kann sie in einer Vielzahl von Umgebungen eine Vielzahl von Zielen erreichen. Wenn wir uns im Voraus sorgfältig auf eine solche Gelegenheit vorbereiten, können wir nicht nur eine Katastrophe vermeiden, sondern auch eine Zeit des Wohlstands beginnen, die anders ist als alle anderen zuvor.

In einem nachfolgenden Interview sagt er :
AI befindet sich jetzt an derselben Stelle, an der sich das Internet 1988 befand. In speziellen Anwendungen (Suchmaschinen wie Google, Hedge-Fonds und Bioinformatik) sind Anforderungen an das maschinelle Lernen erforderlich, und ihre Anzahl steigt von Jahr zu Jahr. Ich denke, dass dieser Prozess in der Mitte des nächsten Jahrzehnts weit verbreitet und spürbar werden wird. Der AI-Boom sollte im Bereich 2020 auftreten, gefolgt von einem Jahrzehnt schnellen Fortschritts, möglicherweise nach einer Marktkorrektur. Die KI-Stufe einer Person wird etwa Mitte 2020 geschaffen, obwohl viele Menschen den Beginn dieser Veranstaltung nicht akzeptieren werden. Danach werden die mit einer entwickelten KI verbundenen Risiken in die Praxis umgesetzt. Ich werde nicht über die "Singularität" sagen, aber sie erwarten, dass irgendwann nach der Schaffung des AIS verrückte Dinge passieren werden. Dies ist irgendwo zwischen 2025 und 2040.

Er und seine Mitbegründer Demis Khasabis und Mustafa Suleiman unterzeichneten eine Petition an das Institute for the Future Life bezüglich der Risiken von AI, und eine der Bedingungen für den Beitritt zu Google bestand darin, dass das Unternehmen sich einverstanden erklärt, einen AI-Ethikrat zu organisieren, um diese Fragen zu untersuchen.

Steve Omohandro [ Steve Omohundro ] - ein ehemaliger Professor für Informatik, Universität von Illinois, der Gründer einer Gruppe von Computer - Vision und am Zentrum für die Erforschung komplexer Systeme lernen, und die Erfinder von verschiedenen wichtigen Entwicklungen in maschinellem Lernen und Computer Vision. Er arbeitete an Lippenleserobotern, StarLisp, einer parallelen Programmiersprache und geometrischen Lernalgorithmen. Er leitet jetzt Self-Aware Systems."Ein Team von Wissenschaftlern, das dafür sorgt, dass intelligente Technologie der Menschheit zugute kommt." Seine Arbeit " Grundlagen der KI-Motivation " trug zur Verwirklichung des Bereichs Maschinenethik bei, da er feststellte, dass hochintelligente Systeme auf potenziell gefährliche Ziele abzielen. Er schreibt:
Wir haben gezeigt, dass alle fortgeschrittenen KI-Systeme wahrscheinlich eine Reihe von Grundmotivationen haben. Es ist äußerst wichtig, diese Motivationen zu verstehen, um Technologien zu schaffen, die der Menschheit eine positive Zukunft sichern. Yudkovsky forderte die Schaffung einer "freundlichen KI". Dazu müssen wir einen wissenschaftlichen Ansatz für „utilitaristische Entwicklung“ entwickeln, mit dem wir sozial nützliche Funktionen entwickeln können, die zu den gewünschten Abläufen führen. Der rasante technologische Fortschritt lässt vermuten, dass diese Probleme bald kritisch werden können.

Unter dem Link finden Sie seine Artikel über "Rationale KI für das Gemeinwohl".

Murray Shanahan promovierte in Cambridge in Informatik und ist nun Professor für kognitive Robotik am Imperial College London. Er veröffentlichte Arbeiten in Bereichen wie Robotik, Logik, dynamische Systeme, Computational Neuroscience, Philosophie des Geistes. Derzeit arbeitet er an dem Buch " Technological Singularity ", das im August veröffentlicht wird. Die Werbezusammenfassung von Amazon lautet wie folgt:
Shanakhan beschreibt technologische Fortschritte in der KI, die sowohl unter dem Einfluss von Wissen aus der Biologie als auch von Grund auf entwickelt wurden. Er erklärt, dass, wenn eine KI auf menschlicher Ebene erstellt wird - theoretisch möglich, aber eine schwierige Aufgabe - der Übergang zur überintelligenten KI sehr schnell vonstatten gehen wird. Shanahan reflektiert, was die Existenz supramentaler Maschinen für Bereiche wie Persönlichkeit, Verantwortung, Rechte und Individualität bewirken kann. Einige Vertreter der supramentalen KI können für den Menschen geschaffen werden, andere können außer Kontrolle geraten. (Das heißt Siri oder HAL?) Die Singularität stellt für die Menschheit sowohl eine existenzielle Bedrohung als auch eine existenzielle Chance dar, um ihre Grenzen zu überwinden. Shanahan macht klar, dass wir uns beide Möglichkeiten vorstellen müssen, wenn wir ein besseres Ergebnis erzielen wollen.

Marcus Hutter ist Professor für Informatik an der National Australian University. Zuvor arbeitete er am Institute of AI bei ihnen. Dale Moule in der Schweiz und am Nationalen Institut für Informatik und Kommunikation in Australien arbeitete auch an stimuliertem Lernen, Bayes'schen Schlussfolgerungen, rechnerischer Komplexitätstheorie, solomonianischer Theorie der induktiven Vorhersagen, Computer Vision und genetischen Profilen. Er hat auch viel über Singularität geschrieben. In dem Artikel " Kann Intellekt explodieren? " Schreibt er:
Dieses Jahrhundert kann eine technologische Explosion erleben, deren Ausmaß den Namen einer Singularität verdient. Das Standardszenario ist eine Gemeinschaft interagierender rationaler Individuen in der virtuellen Welt, die auf Computern mit hyperbolisch steigenden Rechenressourcen simuliert wird. Dies wird unvermeidlich von einer Geschwindigkeitsexplosion begleitet, die an der physikalischen Zeit gemessen wird, aber nicht notwendigerweise eine Explosion der Intelligenz. Wenn die virtuelle Welt von freien und interagierenden Individuen bevölkert wird, wird der Evolutionsdruck dazu führen, dass Individuen mit zunehmender Intelligenz entstehen, die um Rechenressourcen konkurrieren. Der Endpunkt dieser evolutionären Beschleunigung des Intellekts kann eine Gemeinschaft der intelligentesten Individuen sein. Einige Aspekte dieser einzigartigen Gemeinschaft können theoretisch mit modernen wissenschaftlichen Instrumenten untersucht werden.

Jürgen Schmidhuber ist Professor für KI an der Universität von Lugano und ehemaliger Professor für kognitive Robotik an der Technischen Universität München. Er entwickelt eines der fortschrittlichsten neuronalen Netzwerke der Welt, arbeitet an evolutionärer Robotik und der Theorie der rechnerischen Komplexität und dient als wissenschaftlicher Mitarbeiter an der Europäischen Akademie der Künste und Wissenschaften. In dem Buch " Hypotheses of Singularities " argumentiert er, "mit fortgesetzten Trends werden wir in den nächsten Jahrzehnten eine intellektuelle Explosion erleben." Als er bei Reddit AMA direkt nach den Risiken der KI gefragt wurde, antwortete er :
Stewart Russells Angst vor AI scheint vernünftig zu sein. Können wir etwas tun, um den Einfluss der KI zu kontrollieren? Als Antwort darauf, in einem nahen Faden versteckt, wies ich darauf hin: Auf den ersten Blick bietet die rekursive Selbstverbesserung der Maschinen von Gödel einen Weg, um eine zukünftige Superintelligenz zu schaffen. Die Selbstreparatur der Gödel-Maschine ist gewissermaßen optimal. Sie nimmt nur Änderungen am Code vor, die die Situation gemäß der ursprünglichen Dienstprogrammfunktion nachweislich verbessern. Das heißt, Sie haben am Anfang die Möglichkeit, es auf den richtigen Weg zu schicken. Andere Menschen können ihre Gödel-Autos jedoch auch mit anderen Funktionen ausstatten. Sie werden konkurrieren. Und die daraus resultierende Ökologie von Individuen, einige nützliche Funktionen, werden für unser physisches Universum besser geeignet sein als für anderefinde eine Nische zum Überleben . "

Richard Saton ist Professor und Mitglied des iCORE-Ausschusses an der University of Alberta. Er ist Forscher am Verband für die Entwicklung der KI und Mitautor des populärsten Lehrbuchs zum stimulierten Lernen , dem Entdecker der Methode der temporären Unterschiede, eines der wichtigsten in diesem Bereich.

In seinem BerichtAuf einer vom Institut für die Zukunft organisierten KI-Konferenz argumentierte Suton, dass „es eine echte Chance gibt, dass sogar während unseres Lebens eine KI geschaffen wird, die intellektuell mit einer Person vergleichbar ist, und fügte hinzu, dass diese KI„ uns nicht gehorchen “wird konkurrieren und kooperieren Sie mit uns “und dass„ wenn wir superintelligente Sklaven schaffen, werden wir superintelligente Gegner bekommen “. Abschließend sagte er, dass "wir über die Mechanismen (sozial, rechtlich, politisch, kulturell) nachdenken müssen, um das gewünschte Ergebnis zu erzielen", aber dass "unausweichlich gewöhnliche Menschen an Bedeutung verlieren werden". Er erwähnte auch ähnliche Probleme bei der Präsentation des Gadsby Institute. Auch im Glenn Beck- BuchEs gibt solche Zeilen: "Richard Saton, einer der größten Spezialisten für KI, prognostiziert irgendwo in der Mitte des Jahrhunderts eine Explosion der Intelligenz."

Andrew Davison ist Professor für Bildverarbeitung am Imperial College London und leitet die Robotik-Vision-Gruppe und das Robotiklabor Dyson sowie den Erfinder des computergestützten Lokalisierungs- und Auszeichnungssystems MonoSLAM. Auf seiner Website schreibt er :
Auf die Gefahr hin, in gewissen akademischen Kreisen in einer unangenehmen Lage zu sein, zu der, wie ich hoffe, ich gehöre, habe ich seit 2006 begonnen, die Idee der technischen Singularität mit ganzer Ernsthaftigkeit zu betrachten: Das exponentielle Wachstum der Technologie kann zur Entstehung einer übermenschlichen KI und anderen extrem starken Entwicklungen führen wird die Welt in einer überraschend nahen Zukunft verändern (vielleicht in den nächsten 20 bis 30 Jahren). Ich war sowohl von der Lektüre des Kurzweilschen Buches "Die Singularität ist nah" (ich fand es sensationell, aber im Allgemeinen faszinierend) als auch von meinen eigenen Beobachtungen des unglaublichen Fortschritts von Wissenschaft und Technologie, der gerade in den Bereichen Computer Vision und Robotik stattfindet, beeinflusst. mit wem ich persönlich verbunden bin. Moderne Entscheidungssysteme, Schulungen, auf Bayes'scher Wahrscheinlichkeitstheorie basierende Methoden,

Es ist schwer, sich alle möglichen Konsequenzen dessen, was passiert, positiv oder negativ, vorzustellen, und ich werde versuchen, nur die Tatsachen aufzuzählen, ohne die Meinungen zu treffen (obwohl ich selbst nicht im Lager von Superoptimisten bin). Ich bin der festen Überzeugung, dass es sich lohnt, mit Wissenschaftlern und der Öffentlichkeit darüber zu sprechen. Ich werde eine Liste von "Zeichen der Singularität" erstellen und aktualisieren. Es werden kaum Neuigkeiten über Technologie oder Neuigkeiten sein, die meine Gefühle bestätigen, dass sich Technologie überraschenderweise schneller und schneller entwickelt, und nur sehr wenige Leute denken jetzt über die Konsequenzen nach.

Alan Turing und Irving John Good brauchen keine Einführung. Turing erfand die mathematischen Grundlagen der Computational Science und benannte nach ihm die Turing-Maschine, Turing-Vollständigkeit und Turing-Test. Hood arbeitete mit Turing bei Bletchley Park zusammen, half bei der Entwicklung eines der ersten Computer und entwickelte viele bekannte Algorithmen, beispielsweise den schnellen diskreten Fourier-Transformations-Algorithmus, den sogenannten FFT-Algorithmus. In seiner Arbeit „Kann digitale Maschinen denken?“ Schreibt Turing:
Nehmen wir an, dass solche Maschinen erstellt werden können, und berücksichtigen Sie die Konsequenzen ihrer Erstellung. Zweifellos wird eine solche Handlung auf Feindseligkeit stoßen, wenn wir seit den Zeiten von Galileo nicht in religiöser Toleranz vorgerückt sind. Die Opposition wird aus Intellektuellen bestehen, die Angst haben, ihre Arbeit zu verlieren. Wahrscheinlich werden sich die Intellektuellen aber irren. Es wird möglich sein, viele Dinge in Angriff zu nehmen, indem versucht wird, unseren Intellekt auf dem von den Maschinen festgelegten Normenniveau zu halten, da es nach dem Start der Maschinenmethode nicht lange dauern muss, bis die Maschinen unsere unbedeutenden Möglichkeiten überschreiten. Irgendwann sollte man erwarten, dass die Maschinen die Kontrolle übernehmen.

Goode entwickelte diese Idee in den 60er Jahren im Atlas-Computerlabor in der Begründung der ersten ultraintellektuellen Maschine :
Wir definieren eine ultraintelligente Maschine als eine Maschine, die eine Person in jeder intellektuellen Arbeit übertrifft. Da die Entwicklung solcher Maschinen ein Beispiel für intellektuelle Arbeit ist, kann eine ultraintelligente Maschine Maschinen von besserer Qualität entwickeln. Zweifellos sollte man daher eine "Explosion des Intellekts" erwarten, und der menschliche Intellekt wird weit hinter sich lassen. Daher ist die Erfindung der ultraintelligenten Maschine die letzte der Erfindungen, die vom Menschen gemacht werden muss.

* * * * * * * * * * *

Es macht mir Sorgen, dass diese Liste den Eindruck erwecken könnte, dass es in einem bestimmten Bereich Streit zwischen „Gläubigen“ und „Skeptikern“ gibt, in denen sie sich gegenseitig in die Luft jagen. Aber ich dachte nicht so.

Wenn ich Artikel über Skeptiker lese, stoße ich immer auf zwei Argumente. Erstens sind wir immer noch weit von menschlicher KI entfernt, ganz zu schweigen von Superintelligenz, und es gibt keinen offensichtlichen Weg, solche Höhen zu erreichen. Zweitens: Wenn Sie ein Verbot der KI-Forschung fordern, sind Sie ein Idiot.

Ich stimme beiden Punkten vollkommen zu. Wie die Führer der Risikobewegung AI.

Umfrage unter KI-Forschern ( Muller & Bostrom, 2014)) zeigten, dass sie im Durchschnitt 50% für die Tatsache ausgeben, dass die AIs auf menschlicher Ebene bis 2040 Oden und 90% - bis 2075 - erscheinen werden. Im Durchschnitt glauben 75% von ihnen, dass Superintelligenz („Machine Intelligence“ die Möglichkeiten ernsthaft übersteigt jede Person in den meisten Berufen ") erscheint innerhalb von 30 Jahren nach dem Auftreten der KI auf menschlicher Ebene. Auch wenn die Technik dieser Umfrage Zweifel aufwirft, wenn wir die Ergebnisse akzeptieren, stellt sich heraus, dass die meisten KI-Forscher darin einig sind, dass etwas, das besorgt sein sollte, in einer oder zwei Generationen auftauchen wird.

Der Direktor des Instituts für maschinelle Intelligenz, Luc Müelhauser, und der Direktor des Instituts für die Zukunft der Menschheit, Nick Bostrom, erklärten jedoch, dass ihre Vorhersagen für die Entwicklung der KI viel später seien als die von den an der Umfrage beteiligten Wissenschaftlern vorausgesagten. Wenn zu studierenNach den Vorhersagen der KI von Stuart Armstrong ist zu erkennen, dass sich die von den KI-Anhängern gemachten Schätzungen für den Zeitpunkt des Auftretens der KI im Allgemeinen nicht von denen der KI-Skeptiker unterscheiden. Darüber hinaus gehört Armstrong selbst zu den langfristigsten Prognosen in dieser Tabelle. Trotzdem arbeitet Armstrong jetzt am Institut für die Zukunft der Menschheit und macht auf die Risiken der KI und die Notwendigkeit aufmerksam, die Ziele der Superintelligenz zu studieren.

Der Unterschied zwischen Befürwortern und Skeptikern besteht nicht in ihrer Einschätzung, wann wir mit dem Auftreten von KI auf menschlicher Ebene rechnen müssen, sondern darin, wann wir uns darauf vorbereiten müssen.

Was uns zum zweiten Punkt bringt. Die Position der Skeptiker ist, so scheint es, die, dass wir wahrscheinlich einige kluge Leute schicken sollten, um an einer vorläufigen Bewertung des Problems zu arbeiten, es besteht jedoch keine Notwendigkeit, das Studium der KI in Panik zu versetzen oder zu untersagen.

Fans von AI bestehen jedoch darauf, dass, obwohl wir das Studium der KI nicht unbedingt in Panik versetzen oder verbieten müssen, es sich wahrscheinlich lohnt, ein paar kluge Leute zu einer vorläufigen Bewertung des Problems zu schicken.

Yang Lekun ist vielleicht der leidenschaftlichste Skeptiker gegenüber den Risiken von AI. Er wurde in einem Artikel über Popular Science in einem Beitrag zur Marginal Revolution reichlich zitiert und sprach auch mit KDNuggets und IEEE.zu den "unvermeidlichen Fragen der Singularität", die er selbst als "so weit weg, dass Science Fiction darüber geschrieben werden kann" beschreibt. Als er jedoch gebeten wurde, seine Position zu klären, erklärte er:
Ilon Musk ist sehr besorgt über die existenziellen Bedrohungen der Menschheit (deshalb baut er Raketen, um Menschen dazu zu bringen, andere Planeten zu kolonisieren). Und obwohl das Risiko eines AI-Aufstandes sehr gering und der Zukunft sehr fern ist, müssen wir darüber nachdenken, Vorsichtsmaßnahmen und Regeln entwickeln. So wie das Bioethik-Komitee in den 70er und 80er Jahren vor der umfassenden Nutzung der Genetik erschien, brauchen wir Komitees für die Ethik der KI. Aber, wie Joshua Bengio schrieb, bleibt uns noch viel Zeit.

Eric Horwitz ist ein weiterer Experte, der häufig als Skandalismus und Zwang bezeichnet wird. Sein Standpunkt wurde in Artikeln wie "Der Direktor der Microsoft-Forschungsabteilung meint, dass eine außer Kontrolle geratene KI uns nicht töten wird " und " Eric Horvitz von Microsoft glaubt, dass KI keine Angst haben sollte ". Aber was sagte er in einem längeren Interview mit NPR:
Keyst: Horvitz bezweifelt, dass sich virtuelle Sekretäre jemals in etwas verwandeln, das die Welt erobern wird. Er sagt, dass man so erwarten kann, dass sich der Drachen zu einer Boeing 747 entwickelt. Bedeutet das, dass er sich über die Singularität lustig macht?

Horwitz: Nein. Ich denke, dass es eine Mischung von Begriffen gab, und ich selbst habe auch gemischte Gefühle.

Keysträger: Insbesondere aufgrund von Ideen wie Singularität versuchen Horvitz und andere Spezialisten für AI zunehmend, die ethischen Probleme, die in den kommenden Jahren auftreten können, mit einer eng fokussierten KI zu lösen. Sie stellen auch mehr futuristische Fragen. Wie können Sie beispielsweise einen Not-Aus-Schalter für einen Computer erstellen, der sich selbst ändern kann?

Horwitz: Ich bin der festen Überzeugung, dass der Einsatz hoch genug ist, um Zeit und Energie darauf zu verwenden, aktiv nach Lösungen zu suchen, auch wenn die Wahrscheinlichkeit solcher Ereignisse gering ist.

Dies fällt im Allgemeinen mit der Position vieler der eifrigsten KI-Risikomischer zusammen. Mit solchen Freunden und Feinden werden keine benötigt.

Der Artikel in Slate, " Fürchte dich nicht vor AI ", zeigt auch überraschend viele Dinge im richtigen Licht:
Wie Musk selbst erklärt, besteht die Lösung des Problems der KI-Risiken in der nüchternen und vernünftigen gemeinsamen Arbeit von Wissenschaftlern und Gesetzgebern. Es ist jedoch ziemlich schwer zu verstehen, wie das Geschwätz über "Dämonen" zur Erreichung dieses noblen Ziels beitragen kann. Sie kann mit ihr stören.

Erstens, in der Idee des Skripts, dass Skynet riesige Löcher klafft. Und obwohl Forscher auf dem Gebiet der Informatik der Meinung sind, dass Mask 'Argumentation "nicht ganz wahnsinnig" sei, sind sie immer noch zu weit von der Welt entfernt, in der der Hype um AI etwas weniger als die AI-Realität, mit der unsere Informatikexperten konfrontiert sind, verkleidet.

Yang Lekun, Leiter des AI-Labors auf Facebook, fasste diese Idee 2013 in einem Beitrag auf Google+ kurz zusammen: Der Hype schmerzt die KI. In den letzten fünf Jahrzehnten hat der Hype die KI viermal getötet. Es muss gestoppt werden. "Lekun und andere haben zu Recht Angst vor dem Hype. Die Unfähigkeit, die hohen Erwartungen der Science-Fiction zu erfüllen, führt zu erheblichen Einschnitten bei den Budgets für die KI-Forschung.

Wissenschaftler, die an AI arbeiten, sind kluge Leute. Sie sind nicht daran interessiert, in die klassischen politischen Fallen zu geraten, in die sie in Lager eingeteilt werden und sich gegenseitig der Panik oder des Straußismus beschuldigen. Offensichtlich versuchen sie, ein Gleichgewicht zwischen der Notwendigkeit zu finden, Vorarbeiten im Zusammenhang mit der Gefahr zu beginnen, die sich irgendwo in der Ferne abzeichnet, und dem Risiko, einen so starken Hype zu verursachen, der sie treffen wird.

Ich möchte nicht sagen, dass es keine Meinungsverschiedenheiten darüber gibt, wie schnell Sie mit der Behandlung dieses Problems beginnen müssen. Im Grunde kommt es darauf an, ob man sagen kann, dass „wir das Problem lösen werden, wenn wir darauf stoßen“ oder einen unerwarteten Start erwarten, durch den alles außer Kontrolle gerät und man sich deshalb darauf vorbereiten muss im voraus. Ich sehe immer weniger, als ich möchte, dass Beweise vorliegen, dass die meisten KI-Forscher, die ihre eigene Meinung haben, die zweite Möglichkeit verstehen. Was kann ich sagen, wenn selbst in dem Artikel über Marginal Revolution ein Experte zitiert wird, der sagt, dass Superintelligenz keine große Bedrohung darstellt, weil "intelligente Computer keine Ziele für sich selbst setzen können", obwohl jeder, der Bostrom liestweiß, dass dies das ganze Problem ist.

Es bleibt noch viel zu tun. Aber nicht gezielt Artikel auswählen, in denen "echte Experten für AI keine Angst vor Superintelligenz haben".

Jetzt auch beliebt: