AI Revolution 101

Unsere letzte Erfindung, größter Albtraum oder Weg zur Utopie?

Über

Dieser ursprünglich in acht kurzen Teilen veröffentlichte Aufsatz soll das aktuelle Wissen über künstliche Intelligenz verdichten. Es untersucht den Stand der AI-Entwicklung, gibt einen Überblick über seine Herausforderungen und Gefahren, zeigt Arbeiten der wichtigsten Wissenschaftler und beschreibt die wichtigsten Vorhersagen möglicher AI-Ergebnisse. Dieses Projekt ist eine Adaption und wesentliche Verkürzung des zweiteiligen Aufsatzes AI Revolution von Tim Urban über Wait But Why. Ich habe es um den Faktor 3 verkürzt, alle Bilder neu erstellt und ein wenig optimiert. Lesen Sie hier mehr darüber, warum / wie ich es geschrieben habe.

Einführung

Unter der Annahme, dass die wissenschaftliche Tätigkeit des Menschen ohne größere Störungen fortgesetzt wird, könnte künstliche Intelligenz entweder die positivste Veränderung unserer Geschichte sein oder, wie viele befürchten, unsere gefährlichste Erfindung überhaupt. Die KI-Forschung ist auf dem beständigen Weg, einen Computer zu entwickeln, dessen kognitive Fähigkeiten mit denen des menschlichen Gehirns vergleichbar sind, höchstwahrscheinlich innerhalb von drei Jahrzehnten (Zeitachse in Kapitel 5). Nach den Vorhersagen der meisten KI-Wissenschaftler kann diese Erfindung sehr schnelle Verbesserungen (sogenannte schnelle Starts) ermöglichen, hin zu etwas viel Stärkerem - Artificial Super Intelligence - einer Einheit, die intelligenter ist als die gesamte Menschheit zusammen (mehr zu ASI in Kapitel 3). Wir sprechen nicht über eine imaginäre Zukunft. Die erste Stufe der KI-Entwicklung taucht allmählich in der Technologie auf, die wir täglich verwenden (neueste KI-Fortschritte in Kapitel 2). Mit jedem kommenden Jahr werden sich diese Fortschritte beschleunigen und die Technologie wird komplexer, süchtig machender und allgegenwärtiger. Wir werden weiterhin immer mehr Arten von geistiger Arbeit an Computer auslagern und dabei jeden Teil unserer Realität stören: die Art und Weise, wie wir uns und unsere Arbeit organisieren, Gemeinschaften bilden und die Welt erleben.

Exponentielles Wachstum

Das Leitprinzip des technologischen Fortschritts

Um die Leitprinzipien der KI-Revolution intuitiver zu verstehen, wenden wir uns zunächst der wissenschaftlichen Forschung zu. Ich möchte Sie einladen, an einer Geschichte teilzunehmen. Stellen Sie sich vor, Sie haben eine Zeitmaschine erhalten und möchten jemanden aus der Vergangenheit mitbringen. Das Ziel ist es, sie zu schockieren, indem wir ihnen den technologischen und kulturellen Fortschritt unserer Zeit in einem Maße zeigen, dass diese Person SAFD (Spinning Around From Disbelief) durchführen würde.

Sie fragen sich also, in welche Zeit Sie reisen sollten, und entscheiden sich für einen Rückblick auf rund 200 Jahre. Man erreicht das frühe 19. Jahrhundert, holt einen Mann zurück und bringt ihn zurück in das Jahr 2016. Man „… führt ihn herum und beobachtet, wie er auf alles reagiert. Es ist unmöglich für uns zu verstehen, wie es für ihn wäre, glänzende Kapseln auf einer Autobahn vorbeirasen zu sehen, mit Leuten zu sprechen, die früher am anderen Ende des Ozeans waren, und Sport zu schauen, der 1000 Meilen entfernt gespielt wurde Hören Sie eine musikalische Darbietung, die vor 50 Jahren stattgefunden hat, und spielen Sie mit… [einem] magischen Zauberer-Rechteck, mit dem er ein reales Bild aufnehmen oder einen lebenden Moment aufzeichnen kann. Erstellen Sie eine Karte mit einem paranormal bewegten blauen Punkt, der ihn zeigt Wo er ist, schauen Sie sich jemandes Gesicht an und unterhalten Sie sich mit ihm, obwohl er sich auf der anderen Seite des Landes und in Welten anderer unvorstellbarer Zauberei befindet. “¹ Es braucht nicht viel. Nach zwei Minuten ist er SAFDing.

Nun möchten Sie beide das Gleiche versuchen und jemanden sehen, der sich aus Unglauben herumdreht, aber in der Ära Ihres neuen Freundes. Seit 200 Jahren arbeitet, springen Sie zurück in die 1600er und bringen einen Mann in die 1800er. Er ist auf jeden Fall wirklich interessiert an dem, was er sieht. Sie spüren es jedoch mit Zuversicht - SAFD wird ihm niemals passieren. Du hast das Gefühl, dass du wieder zurückspringen musst, aber irgendwo radikal weiter. Sie wollen die Zeit um 15.000 Jahre zurückdrehen, bis „… bevor die erste Agrarrevolution die ersten Städte und das Konzept der Zivilisationen hervorgebracht hat“. ² Sie bringen jemanden aus der Welt der Jäger und Sammler mit und zeigen ihm „… den riesigen Menschen Reiche von 1750 mit ihren hoch aufragenden Kirchen, ihren Schiffen, die den Ozean überqueren, ihrem Konzept, „drinnen“ zu sein, und ihrem enormen Berg kollektiven, angesammelten menschlichen Wissens und Entdeckens - in Form von Büchern. Es braucht nicht viel. Er ist in den ersten zwei Minuten SAFDing.

Jetzt sind Sie zu dritt und freuen sich riesig, es wieder zu tun. Sie wissen, dass es keinen Sinn macht, weitere 15.000, 30.000 oder 45.000 Jahre zurück zu gehen. Sie müssen wieder radikal weiter zurückspringen. Sie nehmen also einen Mann von vor 100.000 Jahren auf und gehen mit ihm in große Stämme mit organisierten, hoch entwickelten sozialen Hierarchien. Er trifft auf eine Vielzahl von Jagdwaffen, raffinierte Werkzeuge, sieht Feuer und erlebt Sprache zum ersten Mal in Form von Zeichen und Geräuschen. Sie bekommen die Idee, es muss unglaublich umwerfend sein. Er ist SAFDing nach zwei Minuten.

Also was ist passiert? Warum musste der letzte Typ → 100.000 Jahre, der nächste → 15.000 Jahre und der Typ, der nur → 200 Jahre zu unserer Zeit sprang, hüpfen?

"Dies geschieht, weil fortschrittlichere Gesellschaften schneller Fortschritte machen können als weniger fortschrittliche Gesellschaften - weil sie fortschrittlicher sind. [1800er] Die Menschheit wusste mehr und verfügte über bessere Technologie ... "⁴, daher ist es kein Wunder, dass sie weitere Fortschritte als die Menschheit vor 15.000 Jahren erzielen konnte. Die Zeit, um SAFD zu erreichen, ist von ~ 100.000 Jahren auf ~ 200 Jahre geschrumpft, und wenn wir in die Zukunft schauen, wird sie schnell noch weiter schrumpfen. Ray Kurzweil, KI-Experte und Wissenschaftler, sagt voraus, dass zwischen 2000 und 2014 ein Fortschritt des 20. Jahrhunderts stattgefunden hat und dass ein weiterer Fortschritt des 20. Jahrhunderts bis 2021 in nur sieben Jahren eintreten wird. Ein paar Jahrzehnte später glaubt er an einen 20. Der Fortschritt des 21. Jahrhunderts wird im selben Jahr mehrmals und später, in weniger als einem Monat, eintreten. Kurzweil glaubt, dass das 21. Jahrhundert das 1000-fache des Fortschritts des 20. Jahrhunderts erreichen wird. “⁷

„Logic schlägt auch vor, dass die fortschrittlichsten Arten auf einem Planeten, wenn sie immer schneller und weiter vorwärts springen, irgendwann einen so großen Sprung machen, dass er das Leben, wie sie es kennen, und das Leben komplett verändert Sie haben eine Vorstellung davon, was es bedeutet, ein Mensch zu sein. So wie die Evolution immer wieder große Sprünge in Richtung Intelligenz machte, bis sie schließlich einen so großen Sprung für den Menschen vollbrachte, dass sie das, was es bedeutete, dass eine Kreatur auf dem Planeten Erde lebte, völlig veränderte. Und wenn Sie etwas Zeit damit verbringen, zu lesen, was heute in Wissenschaft und Technologie vor sich geht, sehen Sie viele Anzeichen, die leise darauf hindeuten, dass das Leben, wie wir es derzeit kennen, dem nächsten Sprung nicht standhalten kann. “⁸

Der Weg zur künstlichen allgemeinen Intelligenz

Computer so intelligent wie Menschen bauen

Künstliche Intelligenz oder KI ist ein weit gefasster Begriff für die Weiterentwicklung der Intelligenz in Computern. Trotz unterschiedlicher Meinungen zu diesem Thema stimmen die meisten Experten darin überein, dass es drei Kategorien oder Kaliber für die AI-Entwicklung gibt. Sie sind:

ANI: Künstliche Enge Intelligenz

1. Geheimdienstkaliber. „KI, die sich auf einen Bereich spezialisiert hat. Es gibt eine KI, die den Schachweltmeister im Schach schlagen kann, aber das ist das einzige, was sie tut. "

AGI: Künstliche allgemeine Intelligenz

2. Geheimdienstkaliber. KI, die die Intelligenzstufe eines Menschen erreicht und dann übersteigt, dh, sie kann „argumentieren, planen, Probleme lösen, abstrakt denken, komplexe Ideen erfassen, schnell lernen und aus Erfahrungen lernen“

ASI: Künstliche Superintelligenz

3. Geheimdienstkaliber. KI, die eine intelligentere Intelligenz erreicht als die gesamte Menschheit zusammen - „von ein bisschen schlauer… bis zu einer Billion mal schlauer.“ ¹¹

Wo sind wir aktuell

"Ab sofort haben die Menschen das niedrigste Kaliber der KI - ANI - in vielerlei Hinsicht erobert, und das überall:" ²

  • "Autos sind voll von ANI-Systemen, vom Computer, der feststellt, wann die Antiblockiersysteme aktiviert werden, bis zum Computer, der die Parameter der Kraftstoffeinspritzsysteme einstellt."
  • „Die Google-Suche ist ein einziges großes ANI-Gehirn mit unglaublich ausgeklügelten Methoden, um Seiten zu bewerten und herauszufinden, was Sie speziell anzeigen können. Gleiches gilt für den Newsfeed von Facebook. “¹⁴
  • E-Mail-Spam-Filter „enthalten zunächst viele Informationen darüber, wie Sie herausfinden können, was Spam ist und was nicht. Anschließend werden die Informationen auf Ihre speziellen Vorlieben zugeschnitten.“ ¹⁵
  • Passagierflugzeuge werden fast ausschließlich von ANI ohne die Hilfe von Menschen geflogen.
  • "Googles selbstfahrendes Auto, das derzeit getestet wird, wird robuste ANI-Systeme enthalten, mit denen es die Welt um sich herum wahrnehmen und darauf reagieren kann."
  • "Ihr Telefon ist eine kleine ANI-Fabrik ... Sie navigieren mit Ihrer Karten-App, erhalten maßgeschneiderte Musikempfehlungen von Pandora, überprüfen das Wetter von morgen und sprechen mit Siri."
  • "Die besten Dame-, Schach-, Scrabble-, Backgammon- und Othello-Spieler der Welt sind jetzt alle ANI-Systeme."
  • "Anspruchsvolle ANI-Systeme werden häufig in Sektoren und Branchen wie Militär, Fertigung und Finanzen eingesetzt (mehr als die Hälfte der auf US-amerikanischen Märkten gehandelten Aktienanteile entfällt auf algorithmische Hochfrequenz-KI-Händler)."

"ANI-Systeme, wie sie jetzt sind, sind nicht besonders beängstigend. Im schlimmsten Fall kann ein fehlerhafter oder schlecht programmierter ANI eine isolierte Katastrophe auslösen, z. B. einen Flugzeugabsturz, eine Kernkraftwerksstörung oder eine Finanzmarktkatastrophe (wie der Flash Crash 2010, als ein ANI-Programm falsch auf einen Unfall reagierte) unerwartete Situation und veranlasste den Aktienmarkt, kurzzeitig zu sinken und 1 Billion US-Dollar Marktwert mitzunehmen, von dem nur ein Teil wieder hergestellt wurde, als der Fehler korrigiert wurde). Aber während ANI nicht die Fähigkeit hat, eine existenzielle Bedrohung zu verursachen, sollten wir Sehen Sie dieses immer größer und komplexer werdende Ökosystem von relativ harmlosem ANI als Vorläufer des sich verändernden Hurrikans, der auf dem Weg ist. Jede neue ANI-Innovation bringt leise einen weiteren Baustein auf die Straße zu AGI und ASI. “²²

So sieht das selbstfahrende Auto von Google die Welt. Bild basierend auf dem Video der Embedded Linux Conference 2013 - KEYNOTE Googles Self Driving Cars

Was kommt als nächstes? Herausforderungen hinter dem Erreichen von AGI

„Nichts wird Sie für menschliche Intelligenz begeistern, wenn Sie lernen, wie unglaublich herausfordernd es ist, einen so intelligenten Computer zu entwickeln, wie wir es sind… Bauen Sie einen Computer, der zehnstellige Zahlen in Sekundenbruchteilen multiplizieren kann - unglaublich einfach. Bauen Sie eine, die einen Hund ansieht und antwortet, ob es sich um einen Hund oder eine Katze handelt - unglaublich schwierig. KI machen, die jeden Menschen im Schach schlagen kann? Erledigt. Machen Sie einen, der einen Absatz aus dem Bilderbuch eines Sechsjährigen lesen und die Wörter nicht nur erkennen, sondern deren Bedeutung verstehen kann? Google gibt derzeit Milliarden von Dollar dafür aus. “²³

Warum sind „schwierige Dinge - wie Kalkül, Finanzmarktstrategie und Sprachübersetzung - für einen Computer unglaublich einfach, während einfache Dinge - wie Vision, Bewegung, Bewegung und Wahrnehmung - für ihn wahnsinnig schwierig sind“?

„Dinge, die uns einfach erscheinen, sind tatsächlich unglaublich kompliziert. Sie scheinen nur einfach zu sein, weil diese Fähigkeiten in uns (und den meisten Tieren) durch Hunderte von Millionen Jahren tierischer Evolution optimiert wurden. Wenn Sie Ihre Hand in Richtung eines Objekts halten, führen die Muskeln, Sehnen und Knochen in Schulter, Ellbogen und Handgelenk sofort eine lange Reihe von physischen Operationen in Verbindung mit Ihren Augen aus, damit Sie Ihre Hand in einer geraden Linie bewegen können Dreidimensionale Linienführung ... Andererseits sind das Multiplizieren großer Zahlen oder das Schachspielen neue Aktivitäten für biologische Kreaturen, und wir hatten keine Zeit, ihre Fähigkeiten zu verbessern, sodass ein Computer nicht zu hart arbeiten muss, um sie zu schlagen uns. “²⁵

Ein lustiges Beispiel…

Wenn Sie sich Bild A ansehen, können Sie und ein Computer erkennen, dass es sich um ein Rechteck mit zwei unterschiedlichen Schattierungen handelt, die sich abwechseln. Soweit gebunden. “²⁶

Bild B. „Sie haben kein Problem damit, die verschiedenen undurchsichtigen und durchscheinenden Zylinder, Lamellen und 3D-Ecken vollständig zu beschreiben, aber der Computer würde kläglich ausfallen. Es würde beschreiben, was es sieht - eine Vielzahl von zweidimensionalen Formen in mehreren verschiedenen Schattierungen - was tatsächlich da ist. “² there„ Ihr Gehirn tut eine Menge Phantasie, um die implizite Tiefe, das Mischen von Schattierungen und die Raumbeleuchtung zu interpretieren Das Bild versucht zu porträtieren. “²⁸

Bild C zeigt: „Ein Computer sieht eine zweidimensionale Collage aus Weiß, Schwarz und Grau, während Sie leicht erkennen können, was es wirklich ist.“ ²⁹ - Ein Foto von einem Mädchen und einem Hund, die an einem felsigen Ufer stehen.

„Und alles, was wir gerade erwähnt haben, ist immer noch, nur visuelle Informationen aufzunehmen und zu verarbeiten. Um intelligent auf menschlicher Ebene zu sein, müsste ein Computer Dinge wie den Unterschied zwischen subtilen Gesichtsausdrücken und den Unterschied zwischen Zufriedenheit, Erleichterung und Zufriedenheit verstehen. “

Wie erreichen Computer noch höhere Fähigkeiten wie komplexes Denken, Interpretieren von Daten und Verknüpfen von Ideen aus unterschiedlichen Bereichen (allgemeines Fachwissen)?

„Wolkenkratzer bauen, Menschen in den Weltraum versetzen, die Details des Urknalls herausfinden - alles viel einfacher als unser eigenes Gehirn zu verstehen oder etwas so Cooles wie es zu machen. Derzeit ist das menschliche Gehirn das komplexeste Objekt im bekannten Universum. “¹

Baubeschläge

Wenn eine künstliche Intelligenz so intelligent sein soll wie das menschliche Gehirn, muss eine entscheidende Sache geschehen: Die KI muss „der rohen Rechenkapazität des Gehirns entsprechen. Eine Möglichkeit, diese Kapazität auszudrücken, sind die Gesamtberechnungen pro Sekunde, die das Gehirn ausführen kann. “³²

Die Herausforderung besteht darin, dass derzeit nur wenige Regionen des Gehirns präzise gemessen werden. Ray Kurzweil hat jedoch eine Methode zur Schätzung des Gesamt-cps des menschlichen Gehirns entwickelt. Zu dieser Schätzung gelangte er, indem er das cps aus einer Gehirnregion nahm und es proportional zum Gewicht dieser Region multiplizierte, verglichen mit dem Gewicht des gesamten Gehirns. "Er hat dies ein paarmal mit verschiedenen professionellen Schätzungen verschiedener Regionen getan, und die Gesamtzahl ist immer im selben Stadion angekommen - etwa 10¹⁶ oder 10 Billiarden cps."

„Gegenwärtig hat der schnellste Supercomputer der Welt, Chinas Tianhe-2, diese Zahl mit einer Geschwindigkeit von rund 34 Billionen cps sogar übertroffen.“ „Tianhe-2 ist jedoch auch ungeheuerlich: Es beansprucht 720 Quadratmeter Platz und verbraucht 24 Megawatt Energie (das Gehirn arbeitet mit nur 20 Watt) und kostet 390 Millionen US-Dollar. Noch nicht besonders anwendbar für breite Verwendung oder sogar für die meisten gewerblichen oder industriellen Zwecke. “³⁵

„Kurzweil schlägt vor, dass wir über den Zustand der Computer nachdenken, indem wir uns ansehen, wie viele cps Sie für 1.000 USD kaufen können. Wenn diese Zahl das menschliche Niveau erreicht - 10 Billionen cps -, könnte AGI ein sehr realer Bestandteil des Lebens werden. “

Derzeit liegen wir nur bei etwa 10¹⁰ (10 Billionen) cps pro 1.000 USD. Das historisch belastbare Moore'sche Gesetz besagt jedoch, dass sich "die maximale Rechenleistung der Welt ungefähr alle zwei Jahre verdoppelt, was bedeutet, dass der Fortschritt der Computerhardware, wie auch der allgemeine Fortschritt des Menschen im Laufe der Geschichte, exponentiell wächst" ... genau im Einklang mit der prognostizierten Flugbahn dieses Diagramms: "

Visualisierung basierend auf Ray Kurzweils Grafik und Analyse aus seinem Buch The Singularity is Near

Diese Dynamik „versetzt uns in die richtige Geschwindigkeit, um bis zum Jahr 2025 einen erschwinglichen Computer zu finden, der mit der Leistungsfähigkeit des Gehirns mithalten kann. Aber rohe Rechenleistung allein macht einen Computer nicht generell intelligent - die nächste Frage ist, wie wir die menschliche Ebene erreichen Intelligenz für all diese Kräfte? “

Erstellen von Software

Der schwierigste Teil beim Erstellen von AGI besteht darin, zu lernen, wie man seine Software entwickelt. "Die Wahrheit ist, dass niemand wirklich weiß, wie man es intelligent macht - wir diskutieren immer noch, wie man einen Computer auf menschlicher Ebene intelligent macht und in der Lage ist, zu wissen, was ein Hund und ein komisch geschriebenes B und ein mittelmäßiger Film sind." Es gibt jedoch einige Strategien. Dies sind die drei häufigsten:

  1. Kopieren Sie, wie das Gehirn funktioniert.

Am einfachsten ist es, das Gehirn zu plagiieren und die Architektur des Computers so zu gestalten, dass sie der Struktur eines Gehirns sehr ähnlich ist. Ein Beispiel ist das künstliche neuronale Netz. Es beginnt als ein Netzwerk von Transistorneuronen, die über Ein- und Ausgänge miteinander verbunden sind, und es weiß nichts - wie ein Säuglingsgehirn. Die Art und Weise, wie es lernt, ist, dass es versucht, eine Aufgabe zu erledigen, beispielsweise die Handschrifterkennung, und zuerst werden die neuronalen Zündungen und die nachfolgenden Vermutungen, jeden Buchstaben zu entschlüsseln, völlig zufällig sein. Wenn jedoch festgestellt wird, dass etwas stimmt, werden die Transistorverbindungen in den Zündpfaden, die diese Antwort ausgelöst haben, verstärkt. Wenn gesagt wird, dass es falsch war, werden die Verbindungen dieser Pfade geschwächt. Nach vielen Versuchen und Rückmeldungen hat das Netzwerk selbst intelligente neuronale Bahnen gebildet und die Maschine wurde für diese Aufgabe optimiert. “⁴¹

Die zweite, radikalere Herangehensweise an das Plagiat ist die Emulation des gesamten Gehirns. Wissenschaftler nehmen ein echtes Gehirn, schneiden es in eine große Anzahl winziger Schnitte, um die neuronalen Verbindungen zu untersuchen und sie als Software in einem Computer zu replizieren. Wenn diese Methode jemals erfolgreich sein sollte, werden wir „einen Computer haben, der offiziell zu allem fähig ist, zu dem das Gehirn in der Lage ist - er müsste nur lernen und Informationen sammeln… Wie weit sind wir von der Erreichung einer Vollgehirnemulation entfernt? Bislang ist es uns erst kürzlich gelungen, ein 1 mm langes Plattwurmgehirn zu emulieren, das nur aus 302 Neuronen besteht. “² Um dies zu relativieren, besteht das menschliche Gehirn aus 86 Milliarden Neuronen, die durch Billionen von Synapsen verbunden sind.

2. Führen Sie die Evolution in Computer ein.

„Selbst wenn wir ein Gehirn nachahmen können, ist das so, als würde man versuchen, ein Flugzeug zu bauen, indem man die Flügelbewegungen eines Vogels kopiert. Oft sind Maschinen am besten mit einem frischen, maschinenorientierten Ansatz konstruiert, nicht durch Nachahmung der Biologie genau. ”³ Wenn das Gehirn für die digitale Replikation einfach zu komplex ist, könnten wir stattdessen versuchen, die Evolution zu emulieren. Dies verwendet einen Prozess, der genetische Algorithmen genannt wird. „Eine Gruppe von Computern würde versuchen, Aufgaben zu erledigen, und die erfolgreichsten würden miteinander in Verbindung gebracht, indem jeweils die Hälfte ihrer Programme zu einem neuen Computer zusammengeführt würden. Die weniger erfolgreichen würden eliminiert. “⁴⁴ Geschwindigkeit und ein zielorientierter Ansatz sind die Vorteile der künstlichen Evolution gegenüber der biologischen Evolution. „Über viele, viele Iterationen hinweg würde dieser natürliche Auswahlprozess immer bessere Computer hervorbringen. Die Herausforderung würde darin bestehen, einen automatisierten Bewertungs- und Züchtungszyklus zu erstellen, damit dieser Evolutionsprozess von alleine ablaufen kann. “⁴⁵

3. "Machen Sie das Ganze zum Problem des Computers, nicht unseres."

Das letzte Konzept ist das einfachste, aber wahrscheinlich das gruseligste von allen. „Wir würden einen Computer bauen, dessen zwei Hauptkompetenzen darin bestehen würden, die KI zu erforschen und Änderungen in sich selbst zu codieren. Auf diese Weise könnte er nicht nur lernen, sondern auch seine eigene Architektur verbessern. Wir würden Computern beibringen, Informatiker zu sein, damit sie ihre eigene Entwicklung booten können. “⁴⁷ Dies ist der wahrscheinlichste Weg, AGI bald zu bekommen, von dem wir wissen.

All diese Software-Fortschritte mögen langsam oder ein wenig immateriell erscheinen, aber wie in den Naturwissenschaften kann eine kleine Innovation das Tempo der Entwicklungen plötzlich beschleunigen. Ein bisschen wie nach der kopernikanischen Revolution - die Entdeckung, die es plötzlich einfacher machte, die komplizierte Mathematik der Planetenbahnen zu berechnen, was eine Vielzahl anderer Innovationen ermöglichte. Außerdem ist das „exponentielle Wachstum intensiv und das scheinbare Aufstiegstempo einer Schnecke kann schnell nach oben rasen.“ ⁴⁸

Visualisierung basiert auf der Grafik von Mother Jones „Welcome, Robot Overlords. Bitte entlassen Sie uns nicht?

Der Weg zur künstlichen Superintelligenz

Eine Einheit, die schlauer ist als die gesamte Menschheit zusammen

Es ist sehr real, dass wir irgendwann AGI erreichen werden: Software, die Intelligenz auf menschlicher Ebene oder über die menschliche Ebene hinaus erreicht hat. Bedeutet dies, dass die Computer in diesem Moment genauso leistungsfähig sein werden wie wir? Eigentlich gar nicht - Computer werden wesentlich effizienter. Aufgrund der Tatsache, dass sie elektronisch sind, haben sie folgende Vorteile:

  • Geschwindigkeit. "Die Neuronen des Gehirns sind bei 200 Hz maximal, während die heutigen Mikroprozessoren mit 2 GHz oder 10 Millionen Mal schneller laufen."
  • Erinnerung. Dinge zu vergessen oder zu verwirren ist in einer künstlichen Welt viel schwieriger. Computer können in zehn Jahren mehr Dinge in einer Sekunde auswendig lernen als ein Mensch. Der Arbeitsspeicher eines Computers ist außerdem präziser und verfügt über eine viel größere Speicherkapazität.
  • Performance. "Computertransistoren sind genauer als biologische Neuronen, und es ist weniger wahrscheinlich, dass sie sich verschlechtern (und sie können repariert oder ersetzt werden, wenn sie dies tun). Das menschliche Gehirn wird auch schnell müde, während Computer bei Höchstleistung rund um die Uhr ohne Unterbrechung laufen können. “²
  • Kollektive Fähigkeit. Gruppenarbeit ist aufgrund zeitaufwändiger Kommunikation und komplexer sozialer Hierarchien eine lächerliche Herausforderung. Je größer die Gruppe wird, desto langsamer wird der Output jeder Person. AI hingegen ist biologisch nicht auf einen Körper beschränkt, hat keine Probleme mit der menschlichen Zusammenarbeit und ist in der Lage, sein eigenes Betriebssystem zu synchronisieren und zu aktualisieren.

Intelligenz-Explosion

Wir müssen uns darüber im Klaren sein, dass AI "Intelligenz auf menschlicher Ebene" nicht als wichtigen Meilenstein ansieht - es ist aus unserer Sicht nur ein relevanter Marker - und keinen Grund hat, auf unserer Ebene "anzuhalten". Angesichts der Vorteile, die selbst eine mit menschlicher Intelligenz vergleichbare AGI gegenüber uns hätte, ist es ziemlich offensichtlich, dass sie die menschliche Intelligenz nur für einen kurzen Moment treffen würde, bevor sie in den Bereich der überlegenen Intelligenz vordringt. “⁵³

Die wahre Unterscheidung zwischen Menschen und ASI wäre nicht ihr Vorteil in der Intelligenzgeschwindigkeit, sondern „in der Intelligenzqualität - was etwas völlig anderes ist. Was den Menschen so viel intellektueller macht als Schimpansen, ist nicht der Unterschied in der Denkgeschwindigkeit - es ist, dass das menschliche Gehirn eine Reihe hoch entwickelter kognitiver Module enthält, die Dinge wie komplexe sprachliche Darstellungen oder langfristige Planung oder abstraktes Denken ermöglichen, die das Gehirn von Schimpansen nicht kann haben. Die tausendfache Beschleunigung des Gehirns eines Schimpansen würde ihn nicht auf unser Niveau bringen - selbst nach einem Jahrzehnt des Lernens würde er nicht in der Lage sein, herauszufinden, wie man ... “⁵⁴ ein halbkompliziertes Lego-Modell zusammenbaut, indem er sich anschaut sein Handbuch - etwas, das ein junger Mensch in wenigen Minuten erreichen könnte. "Es gibt Welten menschlicher kognitiver Funktionen, zu denen ein Schimpanse einfach nie fähig sein wird, egal wie viel Zeit er damit verbringt, es zu versuchen."

"Und im Schema der biologischen Intelligenz ist die Lücke zwischen Schimpanse und menschlicher Intelligenz winzig."

Um zu beurteilen, wie wichtig es ist, mit etwas zu existieren, das eine höhere Intelligenzqualität als wir hat, müssen wir uns KI zwei Schritte über uns auf der Intelligenztreppe vorstellen - „seine gesteigerte kognitive Fähigkeit über uns wäre ebenso groß als Schimpanse - menschliche Kluft… Und wie die Unfähigkeit des Schimpansen, jemals etwas aufzunehmen… “” Welche Art von Magie geschieht im Mechanismus eines Türknaufs - „wir werden niemals in der Lage sein, die Dinge überhaupt zu verstehen… [eine Maschine dieser Intelligenz] kann tun, auch wenn die Maschine versucht hat, sie uns zu erklären… und das sind nur zwei Schritte über uns. “⁵⁸

"Eine Maschine auf der zweithöchsten Stufe dieser Treppe wäre für uns wie für Ameisen." Wirtschaft. In unserer Welt bedeutet intelligent 130 IQ und dumm 85 IQ - wir haben kein Wort für einen IQ von 12.952. “⁶⁰

"Aber die Art von Superintelligenz, von der wir heute sprechen, ist weit über alles auf dieser Treppe hinaus. Bei einer Intelligenzexplosion - je intelligenter eine Maschine wird, desto schneller kann sie ihre eigene Intelligenz steigern - kann es Jahre dauern, bis eine Maschine von der Intelligenz einer Ameise zur Intelligenz eines durchschnittlichen Menschen aufsteigt Nur noch 40 Tage, um Einstein-smart zu werden. Wenn dies geschieht, „arbeitet es daran, seine Intelligenz zu verbessern, mit einem Einstein-Level-Intellekt hat es eine leichtere Zeit und kann größere Sprünge machen. Diese Sprünge machen es viel schlauer als jeder Mensch und ermöglichen es ihm, noch größere Sprünge zu machen. “⁶²

Von da an kann es nach der Regel exponentieller Fortschritte und unter Ausnutzung der Geschwindigkeit und Effizienz elektrischer Schaltkreise nur noch 20 Minuten dauern, um einen weiteren Schritt zu überspringen -Sprung jede Sekunde, die vergeht. Aus diesem Grund müssen wir uns darüber im Klaren sein, dass es eindeutig möglich ist, dass wir uns kurz nach der großen Nachricht, dass die erste Maschine AGI auf menschlicher Ebene erreicht, der Realität stellen müssen, auf der Erde mit etwas zusammen zu existieren, das hier auf der Treppe ist (oder vielleicht eine Million mal höher): ”⁶³

„Und da wir gerade festgestellt haben, dass es eine hoffnungslose Aufgabe ist, die Leistung einer Maschine nur zwei Schritte über uns zu verstehen, möchten wir ein für alle Mal ganz konkret sagen, dass es keine Möglichkeit gibt, zu wissen, was ASI tun wird oder welche Konsequenzen dies haben wird sei für uns. Wer etwas anderes vortäuscht, versteht nicht, was Superintelligenz bedeutet. "”

„Wenn unsere mageren Gehirne in der Lage wären, WLAN zu erfinden, dann müsste etwas, das 100 oder 1.000 oder 1 Milliarde Mal schlauer ist als wir, kein Problem damit haben, die Positionierung jedes einzelnen Atoms auf der Welt jederzeit und auf jede beliebige Weise zu steuern - alles Wir betrachten Magie, jede Macht, die wir uns für einen höchsten Gott vorstellen, ist für die ASI so banal wie das Betätigen eines Lichtschalters für uns. “⁶⁵

"Für uns gibt es jetzt, wenn ein ASI entsteht, einen allmächtigen Gott auf der Erde - und die alles entscheidende Frage für uns ist: Wird es ein guter Gott sein?"

Beginnen wir von der helleren Seite der Geschichte.

Wie kann ASI unsere Welt verändern?

Spekulationen über zwei revolutionäre Technologien

Nanotechnologie

Nanotechnologie ist eine Idee, die „in fast allem, was Sie über die Zukunft der KI lesen, auftaucht.“ ”Es ist die Technologie, die auf der Nanoskala funktioniert - von 1 bis 100 Nanometer. „Ein Nanometer ist ein Millionstel Millimeter. Der Bereich von 1 nm bis 100 nm umfasst Viren (100 nm über alles), DNA (10 nm breit) und Dinge, die so klein sind wie Moleküle wie Hämoglobin (5 nm) und mittlere Moleküle wie Glucose (1 nm). Wenn wir die Nanotechnologie erobern, besteht der nächste Schritt in der Manipulation einzelner Atome, die nur eine Größenordnung kleiner sind (~ .1 nm). “”

Stellen Sie sich einen sehr großen Menschen auf der Erde vor, dessen Kopf die Internationale Raumstation (431 km hoch) erreicht. Der Riese greift mit seiner Hand (30 km breit) nach unten, um „Objekte aus Materialien mit der Größe eines Sandkorns [0,25 mm] und eines Augapfels [2,5 cm]“ zu bauen

„Sobald wir die Nanotechnologie auf den Markt gebracht haben, können wir damit technische Geräte, Kleidung, Lebensmittel, eine Vielzahl von biologischen Produkten herstellen - künstliche Blutzellen, winzige Virus- oder Krebszellzerstörer, Muskelgewebe usw. - alles, was wirklich benötigt wird. Und in einer Welt, in der Nanotechnologie zum Einsatz kommt, hängen die Kosten eines Materials nicht mehr von seiner Knappheit oder der Schwierigkeit seines Herstellungsprozesses ab, sondern davon, wie kompliziert seine atomare Struktur ist. In einer Nanotechnologiewelt ist ein Diamant möglicherweise billiger als ein Radiergummi. “⁷⁰

Eine der vorgeschlagenen Methoden der Nanotechnologie-Assemblierung besteht darin, "eine zu erzeugen, die sich selbst replizieren und dann den Reproduktionsprozess in zwei verwandeln kann, diese beiden dann in vier, vier in acht und in ungefähr einem Tag dort". d ein paar Billionen von ihnen sind bereit zu gehen. “⁷¹

Aber was ist, wenn dieser Prozess schief geht oder Terroristen es schaffen, die Technologie in den Griff zu bekommen? Stellen wir uns ein Szenario vor, in dem Nanobots so konzipiert sind, dass sie kohlenstoffbasiertes Material verbrauchen, um den Replikationsprozess zu unterstützen. Unangenehmerweise basiert alles Leben auf Kohlenstoff. Die Erdbiomasse enthält etwa 10⁴⁵ Kohlenstoffatome. Ein Nanobot würde aus etwa 10⁶ Kohlenstoffatomen bestehen, so dass 10³⁹ Nanobots benötigt würden, um alles Leben auf der Erde zu verbrauchen, was in 130 Wiederholungen geschehen würde. … Wissenschaftler glauben, dass sich ein Nanobot in etwa 100 Sekunden replizieren könnte, was bedeutet, dass dieser einfache Fehler das gesamte Leben auf der Erde in 3,5 Stunden zum Erliegen bringen würde. “⁷²

Wir sind noch nicht in der Lage, die Nanotechnologie zu nutzen - zum Guten oder zum Schlechten. "Und es ist nicht klar, ob wir unterschätzen oder überschätzen, wie schwierig es sein wird, dorthin zu gelangen. Aber wir scheinen nicht so weit weg zu sein. Kurzweil prognostiziert, dass wir bis 2020 dort sein werden. "Die Regierungen wissen, dass Nanotechnologie eine weltbewegende Entwicklung sein könnte. Die USA, die EU und Japan haben bisher zusammen über 5 Milliarden US-Dollar investiert."

Unsterblichkeit

„Weil jeder immer gestorben ist, leben wir unter der Annahme, dass der Tod unvermeidlich ist. Wir denken, Altern ist wie Zeit - beides bewegt sich und es gibt nichts, was Sie tun können, um es zu stoppen. “⁷⁶ Seit Jahrhunderten fragen sich Dichter und Philosophen, ob das Bewusstsein nicht den Weg des Körpers gehen muss. W.B. Yeats beschreibt uns als "eine Seele, die an einem sterbenden Tier gefesselt ist". Richard Feynman, Nobelpreisträger für Physik, betrachtet den Tod von einem rein wissenschaftlichen Standpunkt aus:

„Es ist eines der bemerkenswertesten Dinge, dass es in allen biologischen Wissenschaften keinen Hinweis auf die Notwendigkeit des Todes gibt. Wenn Sie sagen, wir wollen eine ständige Bewegung ausführen, haben wir während unseres Physikstudiums genügend Gesetze entdeckt, um festzustellen, dass dies entweder absolut unmöglich ist oder dass die Gesetze falsch sind. Aber es gibt noch nichts in der Biologie, was auf die Unvermeidlichkeit des Todes hindeutet. Dies legt für mich den Schluss nahe, dass dies keineswegs unvermeidlich ist und dass es nur eine Frage der Zeit ist, bis die Biologen herausfinden, was uns die Probleme verursacht, und dass diese schreckliche universelle Krankheit oder vorübergehende Erkrankung des menschlichen Körpers geheilt wird. ”⁷⁸

Theorie großer Artenattraktoren

Wenn wir uns die Geschichte des biologischen Lebens auf der Erde ansehen, sind bisher 99,9% der Arten ausgestorben. Nick Bostrom, Oxford-Professor und KI-Spezialist, „nennt das Aussterben einen Attraktor-Staat - einen Ort, an den Arten fallen und von dem keine Art jemals zurückkehrt.“ ⁷⁹

„Und während die meisten KI-Wissenschaftler ... anerkennen, dass ASI die Fähigkeit haben würde, Menschen zum Aussterben zu bringen, glauben viele auch, dass die Fähigkeiten von ASI genutzt werden könnten, um einzelne Menschen und die Spezies als Ganzes in einen zweiten Attraktorzustand zu bringen - Artenunsterblichkeit. “⁸⁰

„Die Evolution hatte keinen guten Grund, unsere Lebensspanne so lange zu verlängern wie jetzt… Aus evolutionärer Sicht kann die gesamte menschliche Spezies mit einer Lebensspanne von über 30 Jahren gedeihen“ für jeden einzelnen Menschen. Es ist lang genug, um Kinder zu reproduzieren und aufzuziehen. Es gibt also keinen Grund dafür, dass Mutationen für ein ungewöhnlich langes Leben im Rahmen des natürlichen Auswahlprozesses begünstigt werden Auto würde für immer laufen. Der menschliche Körper ist nicht anders - nur viel komplexer ... Das scheint absurd -, aber der Körper ist nur eine Ansammlung von Atomen ... "², die organisch programmierte DNA bilden, die theoretisch manipuliert werden kann. Und etwas so Mächtiges wie ASI könnte uns helfen, Gentechnik zu beherrschen.

Ray Kurzweil glaubt, dass „künstliche Materialien immer mehr in den Körper integriert werden… Organe könnten durch hochmoderne Maschinenversionen ersetzt werden, die für immer laufen und niemals versagen.“ ³ Rote Blutkörperchen könnten durch „Nanobots für rote Blutkörperchen“ perfektioniert werden. Wer könnte seine eigene Bewegung antreiben, ohne dass ein Herz nötig wäre? Der Nanotech-Theoretiker Robert A. Freitas hat bereits Blutkörperchenersatz entwickelt, der es einem Menschen ermöglichen würde, 15 Minuten lang zu sprinten, ohne eine zu nehmen Atem ... [Kurzweil] erreicht sogar das Gehirn und glaubt, dass wir unsere mentalen Aktivitäten so verbessern können, dass Menschen Milliarden Male schneller denken können. “⁸⁴ Durch die Integration elektrischer Komponenten und den Zugriff auf Online-Daten.

„Kurzweil glaubt, dass der Mensch irgendwann einen Punkt erreichen wird, an dem er völlig künstlich ist. In dieser Zeit werden wir auf biologisches Material zurückblicken und darüber nachdenken, wie unglaublich primitiv es war, dass Menschen jemals daraus gemacht wurden“ - und dass Menschen im Alter darunter litten Krebs, erlaubte uns zufällige Faktoren wie Mikroben, Krankheiten, Unfälle, uns zu verletzen oder uns verschwinden zu lassen. “

Wann wird die erste Maschine superintelligent?

Vorhersagen von Top-KI-Experten

„Wie lange dauert es, bis die erste Maschine die Superintelligenz erreicht? Die Meinungen sind nicht schockierend, und dies ist eine hitzige Debatte unter Wissenschaftlern und Denkern. Viele, wie Professor Vernor Vinge, der Wissenschaftler Ben Goertzel, der Mitbegründer von Sun Microsystems, Bill Joy, oder vor allem der Erfinder und Futurist Ray Kurzweil, stimmen dem Experten für maschinelles Lernen, Jeremy Howard, zu, wenn er diese Grafik während eines TED-Talks aufstellt:

Grafik von Jeremy Howard aus seinem TED-Vortrag „Die wunderbaren und schrecklichen Auswirkungen von Computern, die lernen können.“

„Diese Leute glauben, dass dies bald geschieht - dass exponentielles Wachstum am Werk ist und maschinelles Lernen, obwohl es sich jetzt nur langsam auf uns einstellt, in den nächsten Jahrzehnten direkt an uns vorbeiziehen wird.

„Andere, wie Microsoft-Mitbegründer Paul Allen, der Forschungspsychologe Gary Marcus, der Informatiker Ernest Davis von NYU und der Technologieunternehmer Mitch Kapor, glauben, dass Denker wie Kurzweil das Ausmaß der Herausforderung bei weitem unterschätzen [und der Übergang wird tatsächlich viel mehr erfordern Zeit] …

„Das Lager Kurzweil würde dem entgegenwirken, dass die einzige Unterschätzung darin besteht, dass das exponentielle Wachstum unterschätzt wird, und sie würden die Zweifler mit denen vergleichen, die sich den langsam wachsenden Keimling des Internets im Jahr 1985 anschauten und argumentierten, dass es keinen Weg dafür gibt belaufen sich auf alles, was in naher Zukunft von Bedeutung ist.

„Die Zweifler könnten argumentieren, dass der Fortschritt, der für Fortschritte in der Intelligenz erforderlich ist, mit jedem weiteren Schritt exponentiell schwerer wird, was den typischen exponentiellen Charakter des technischen Fortschritts aufhebt. Und so weiter.

"Ein drittes Lager, zu dem auch Nick Bostrom gehört, ist der Ansicht, dass keine der beiden Gruppen Grund zur Gewissheit über den Zeitplan hat, und räumt sowohl ein, dass dies in naher Zukunft unbedingt geschehen könnte, als auch, dass diesbezüglich keine Garantie besteht. es könnte auch viel länger dauern.

"Wieder andere, wie der Philosoph Hubert Dreyfus, glauben, dass alle drei dieser Gruppen naiv sind, wenn sie glauben, dass es ein Potenzial für ASI gibt, und argumentieren, dass es wahrscheinlicher ist, dass es tatsächlich nie erreicht wird."

„Was bekommen Sie also, wenn Sie all diese Meinungen zusammenfassen?“ ”

Zeitleiste für künstliche allgemeine Intelligenz

„Im Jahr 2013 führten Vincent C. Müller und Nick Bostrom eine Umfrage durch, bei der Hunderte von KI-Experten befragt wurden… Folgendes:“ ⁸⁷

„Für die Zwecke dieser Frage wird angenommen, dass die wissenschaftliche Tätigkeit des Menschen ohne größere negative Störung fortgesetzt wird. Bis zu welchem ​​Jahr würden Sie eine (10% / 50% / 90%) Wahrscheinlichkeit für die Existenz einer solchen menschlichen Maschinenintelligenz [oder wie wir sie nennen] sehen? “⁸⁸

In der Umfrage wurden sie gebeten, ein optimistisches Jahr zu nennen (eines, für das sie eine 10-prozentige Wahrscheinlichkeit für einen AGI halten), eine realistische Schätzung (für ein Jahr, für das sie eine 50-prozentige Wahrscheinlichkeit für einen AGI halten, dh nach diesem Jahr denken sie Es ist mehr als wahrscheinlich, dass wir AGI haben) und eine sichere Vermutung (das früheste Jahr, in dem sie mit 90% iger Sicherheit sagen können, dass wir AGI haben werden). Hier sind die Ergebnisse, die als ein Datensatz zusammengefasst wurden:

Median optimistisches Jahr (10% Wahrscheinlichkeit) → 2022
Median realistisches Jahr (50% Wahrscheinlichkeit) → 2040
Medianes pessimistisches Jahr (90% Wahrscheinlichkeit) → 2075

"Der Median-Teilnehmer hält es also für wahrscheinlich, dass wir in 25 Jahren einen AGI haben. Die 90% -Median-Antwort von 2075 bedeutet, dass der Median-Befragte, zusammen mit mehr als der Hälfte der AI-Expertengruppe, fast sicher ist, dass eine AGI in Ihrem Leben auftreten wird, wenn Sie gerade ein Teenager sind.

„In einer separaten Studie, die kürzlich von James Barrat auf der jährlichen AGI-Konferenz von Ben Goertzel durchgeführt wurde, wurden die Prozentsätze gestrichen und lediglich gefragt, wann die Teilnehmer dachten, dass die AGI bis 2030, bis 2050, bis 2100, nach 2100 oder nie erreicht werden würde. Die Ergebnisse: ⁸⁹

42% der Befragten → Bis 2030
25% der Befragten → Bis 2050
20% der Befragten → Bis 2100
10% der Befragten → Nach 2100
2% der Befragten → Nie

"Ziemlich ähnlich den Ergebnissen von Müller und Bostrom. In Barrats Umfrage glauben mehr als zwei Drittel der Teilnehmer, dass AGI bis 2050 hier sein wird und etwas weniger als die Hälfte prognostiziert AGI in den nächsten 15 Jahren. Auffällig ist auch, dass nur 2% der Befragten nicht glauben, dass AGI Teil unserer Zukunft ist. “⁹⁰

Zeitleiste für künstliche Superintelligenz

"Müller und Bostrom fragten die Experten auch, wie wahrscheinlich es ist, dass wir ASI erreichen: A) innerhalb von zwei Jahren nach Erreichen von AGI (dh einer fast sofortigen Nachrichtenexplosion) und B) innerhalb von 30 Jahren." Die Befragten wurden gebeten, für jede Option eine Wahrscheinlichkeit zu wählen. Hier sind die Ergebnisse: ²

AGI-ASI-Übergang in 2 Jahren → 10% Wahrscheinlichkeit
AGI-ASI-Übergang in 30 Jahren → 75% Wahrscheinlichkeit

„In der mittleren Antwort wurde ein schneller (2-jähriger) AGI-ASI-Übergang mit einer Wahrscheinlichkeit von nur 10%, ein längerer Übergang von 30 Jahren oder weniger mit einer Wahrscheinlichkeit von 75% angegeben. Wir wissen aus diesen Daten nicht, wie lange dieser Übergang [AGI – ASI] gewesen wäre, den der Median-Teilnehmer mit einer Wahrscheinlichkeit von 50% angegeben hätte. Für die Zwecke des Baseball-Parks sollten wir jedoch ausgehend von den beiden obigen Antworten schätzen, dass sie angegeben worden wären 20 Jahre.

„Die mittlere Meinung - diejenige mitten in der Welt der KI-Experten - glaubt, dass die realistischste Schätzung, wann wir ASI erreichen werden, [die Prognose für 2040 für AGI + unsere geschätzte Prognose eines 20-jährigen Übergangs von AGI zu ASI] = 2060.

„Natürlich sind alle oben genannten Statistiken spekulativ und spiegeln nur die mittlere Meinung der KI-Expertengemeinschaft wider, aber es zeigt, dass ein großer Teil der Personen, die das meiste über dieses Thema wissen, dem Jahr 2060 zustimmen würden ist eine sehr vernünftige Schätzung für die Ankunft eines potenziell weltverändernden ASI. Nur noch 45 Jahre “⁹³

AI-Ergebnisse

Zwei Hauptgruppen von KI-Wissenschaftlern mit zwei radikal entgegengesetzten Schlussfolgerungen

Die zuversichtliche Ecke

Das meiste, was wir bisher besprochen haben, repräsentiert eine überraschend große Gruppe von Wissenschaftlern, die optimistische Ansichten über das Ergebnis der KI-Entwicklung teilen. „Woher ihr Vertrauen kommt, steht zur Debatte. Kritiker glauben, dass es von einer Aufregung herrührt, die so blendend ist, dass sie potenzielle negative Ergebnisse einfach ignorieren oder ablehnen. Aber die Gläubigen sagen, es ist naiv, Doomsday-Szenarien zu beschwören, wenn Technologie uns unter dem Strich noch viel mehr hilft, als es uns schadet. “⁹⁴ Peter Diamandis, Ben Goertezl und Ray Kurzweil sind einige der wichtigsten Persönlichkeiten dieser Gruppe, die eine große, engagierte Anhängerschaft aufgebaut haben und sich als Singularitarier betrachten.

CC-Foto von J. D. Lasica

Lassen Sie uns über Ray Kurzweil sprechen, der wahrscheinlich einer der beeindruckendsten und polarisierendsten KI-Theoretiker auf dem Markt ist. Er zieht sowohl "gottesfürchtige Verehrung ... als auch augenfällige Verachtung" an. Er hatte mehrere bahnbrechende Erfindungen, darunter den ersten Flachbettscanner, den ersten Scanner, der Text in Sprache umwandelte (damit Blinde Standardtexte lesen können), den bekannten Kurzweil Musiksynthesizer (das erste echte E-Piano) und die erste kommerziell vermarktete Spracherkennung mit großem Wortschatz. Er ist bekannt für seine kühnen Vorhersagen. "- Einschließlich der Vorstellung, dass Geheimdiensttechnologien wie Deep Blue in der Lage sein würden, einen Schachgroßmeister bis 1998 zu besiegen. Er rechnete auch mit" in den späten 80ern, einer Zeit, als das Internet eine dunkle Sache war ". Anfang der 2000er-Jahre würde es zu einem globalen Phänomen werden. “„ Von den 147 Vorhersagen, die Kurzweil seit den 1990er-Jahren getroffen hat, haben sich 115 als richtig und 12 als „im Wesentlichen richtig“ erwiesen "(ein oder zwei Jahre später), wobei seine Vorhersagen eine umwerfende Genauigkeitsrate von 86% ergeben". "Er ist Autor von fünf nationalen Bestsellern ... 2012 wandte sich Google-Mitbegründer Larry Page an Kurzweil und bat ihn, Googles Director of Engineering zu werden. 2011 war er Mitbegründer der Singularity University, die von der NASA gehostet und teilweise von Google gesponsert wird. Nicht schlecht für ein Leben. “⁹⁸

Seine Biografie ist wichtig, denn wenn Sie diesen Kontext nicht haben, klingt er wie jemand, der völlig seine Sinne verloren hat. „Kurzweil glaubt, dass Computer bis 2029 AGI erreichen werden und dass wir bis 2045 nicht nur ASI, sondern eine völlig neue Welt haben werden - eine Zeit, die er Singularität nennt. Seine AI-bezogene Zeitleiste galt früher als unglaublich übereifrig und wird auch heute noch von vielen gesehen, aber in den letzten 15 Jahren haben die rasanten Fortschritte der ANI-Systeme die größere Welt der AI-Experten der Zeitleiste von Kurzweil viel näher gebracht. Seine Vorhersagen sind immer noch etwas ehrgeiziger als die des Mittelwerts der Befragung von Müller und Bostrom (AGI bis 2040, ASI bis 2060), aber nicht so viel. “”

CC Foto von Future of Humanity Institute

Die ängstliche Ecke

„Sie werden nicht überrascht sein zu erfahren, dass Kurzweils Ideen erhebliche Kritik erregt haben… Für jeden Experten, der fest davon überzeugt ist, dass Kurzweil Recht hat, gibt es wahrscheinlich drei Experten, die glauben, dass er weit davon entfernt ist… [Die überraschende Tatsache] ist, dass die meisten Experten anderer Meinung sind mit ihm nicht wirklich einverstanden, dass alles, was er sagt, möglich ist. “¹⁰⁰ Nick Bostrom, Philosoph und Direktor des Oxford Future of Humanity Institute, kritisiert Kurzweil aus verschiedenen Gründen und fordert größere Vorsicht beim Nachdenken über mögliche Ergebnisse von AI räumt ein, dass:

„Krankheit, Armut, Umweltzerstörung, unnötiges Leiden aller Art: Dies sind Dinge, die eine mit fortschrittlicher Nanotechnologie ausgestattete Superintelligenz beseitigen könnte. Außerdem könnte eine Superintelligenz uns eine unbegrenzte Lebensdauer geben, indem sie entweder den Alterungsprozess durch den Einsatz von Nanomedizin stoppt und umkehrt oder uns die Möglichkeit bietet, uns selbst hochzuladen. “¹⁰¹

„Ja, all das kann passieren, wenn wir sicher zu ASI übergehen - aber das ist der schwierige Teil.“ ¹⁰² Denker aus der ängstlichen Ecke weisen darauf hin, dass Kurzweils „berühmtes Buch The Singularity is Near“ über 700 Seiten umfasst und etwa 20 Seiten widmet Diese Seiten sind potenziellen Gefahren ausgesetzt. “¹⁰³ Die kolossale Kraft der KI wird von Kurzweil übersichtlich zusammengefasst:„ [ASI] ist aus vielen verschiedenen Bemühungen hervorgegangen und wird tief in die Infrastruktur unserer Zivilisation integriert sein. In der Tat wird es eng in unseren Körper und unser Gehirn eingebettet sein. Als solches wird es unsere Werte widerspiegeln, weil wir es sein werden ... “¹⁰⁴

"Aber wenn das die Antwort ist, warum sind so viele der klügsten Menschen der Welt gerade jetzt so besorgt? Warum sagt Stephen Hawking, dass die Entwicklung von ASI "das Ende der Menschheit bedeuten könnte", und Bill Gates sagt, dass er "nicht versteht, warum manche Menschen nicht besorgt sind" und Elon Musk befürchtet, dass wir "den Dämon herbeirufen"? "Und warum bezeichnen so viele Experten ASI als die größte Bedrohung für die Menschheit?"

Die letzte Erfindung, die wir jemals machen werden

Existenzgefahren von KI-Entwicklungen

"Wenn es um die Entwicklung von Supersmart-KI geht, schaffen wir etwas, das wahrscheinlich alles verändern wird, aber auf völlig unbekanntem Gebiet. Wir haben keine Ahnung, was passieren wird, wenn wir dort ankommen." ¹⁰⁶ Der Wissenschaftler Danny Hillis vergleicht die Situation mit:

„Als einzellige Organismen zu mehrzelligen Organismen wurden. Wir sind Amöben und können nicht herausfinden, was zum Teufel dieses Ding ist, das wir erschaffen. "

und Nick Bostrom warnt:

„Vor der Aussicht auf eine Geheimdienstexplosion sind wir Menschen wie kleine Kinder, die mit einer Bombe spielen. Dies ist das Missverhältnis zwischen der Kraft unseres Spielzeugs und der Unreife unseres Verhaltens. “¹⁰⁸

Es ist sehr wahrscheinlich, dass ASI - „Künstliche Superintelligenz“ oder KI, die ein intelligenteres Intelligenzniveau erreicht als die gesamte Menschheit zusammen - etwas völlig anderes sein wird als Intelligenzwesen, an das wir gewöhnt sind. „Auf unserer kleinen Insel der menschlichen Psychologie teilen wir alles in moralische oder unmoralische. Aber beide existieren nur innerhalb des kleinen Bereichs menschlicher Verhaltensmöglichkeiten. Außerhalb unserer Insel der Moral und Unmoral gibt es ein riesiges Meer von Amoral, und alles, was nicht menschlich ist, insbesondere etwas Nichtbiologisches, wäre standardmäßig amoralisch. “¹⁰⁹

„Um ASI zu verstehen, müssen wir uns mit dem Konzept eines intelligenten und völlig fremden Objekts auseinandersetzen. Anthropomorphisierende KI (die menschliche Werte auf eine nichtmenschliche Entität projiziert) wird nur verlockender, wenn KI-Systeme intelligenter und menschlicher erscheinen … Menschen empfinden Emotionen auf hohem Niveau wie Empathie, weil wir uns entwickelt haben, um sie zu fühlen - dh wir wurden programmiert, um sie durch die Evolution zu fühlen -, aber Empathie ist von Natur aus kein Merkmal von „irgendetwas mit hoher Intelligenz“. “¹⁰

„Nick Bostrom glaubt, dass… jede Intelligenzstufe mit jedem Endziel kombiniert werden kann… Jede Annahme, dass ein System, wenn es einmal superintelligent ist, mit seinem ursprünglichen Ziel und auf interessantere oder bedeutungsvollere Dinge darüber hinausgeht, ist anthropomorphisierend. Der Mensch hat alles hinter sich, nicht der Computer. “¹¹ Die Motivation für eine frühe ASI wäre„ das, worauf wir ihre Motivation programmiert haben. KI-Systeme werden von ihren Erstellern mit Zielen versehen. Ihr GPS soll Ihnen die effizientesten Wegbeschreibungen geben. Watsons Ziel ist es, Fragen genau zu beantworten. Und diese Ziele so gut wie möglich zu erreichen, ist ihre Motivation. “¹²

Bostrom und viele andere sagen voraus, dass der erste Computer, der ASI erreicht, sofort den strategischen Vorteil erkennt, das einzige ASI-System der Welt zu sein.

Bostrom, der sagt, dass er nicht weiß, wann wir AGI erreichen werden, glaubt auch, dass, wenn wir es endlich tun, der Übergang von AGI zu ASI wahrscheinlich in wenigen Tagen, Stunden oder Minuten stattfinden wird - etwas, das als „schnelles Nehmen“ bezeichnet wird. off. “Wenn in diesem Fall die erste AGI direkt zu ASI springen würde:„ Bereits wenige Tage vor dem zweiten Platz wäre die Intelligenz weit genug voraus, um alle Konkurrenten wirksam und dauerhaft zu unterdrücken. “¹³ Dies würde die Die erste ASI der Welt, die "ein Singleton genannt wird - eine ASI, die die Welt für immer nach Lust und Laune regieren kann, ob sie uns zur Unsterblichkeit führen, uns aus der Existenz tilgen oder das Universum in endlose Büroklammern verwandeln soll." ¹³

„Das Singleton-Phänomen kann zu unseren Gunsten wirken oder zu unserer Zerstörung führen. Wenn die Leute, die am härtesten über KI-Theorie und menschliche Sicherheit nachdenken, einen ausfallsicheren Weg finden, um eine freundliche ASI zu erreichen, bevor eine KI die Intelligenz auf menschlicher Ebene erreicht, kann sich die erste ASI als freundlich herausstellen

"Aber wenn die Dinge anders laufen - wenn der globale Ansturm ... eine große und abwechslungsreiche Gruppe von Parteien", "rast mit Höchstgeschwindigkeit voran ... um ihre Konkurrenten zu schlagen ... werden wir mit einer existenziellen Katastrophe konfrontiert." Fallbeispiel „Die ehrgeizigsten Partys bewegen sich immer schneller, träumen von Geld und Auszeichnungen sowie von Macht und Ruhm. Und wenn Sie so schnell wie möglich sprinten, bleibt nicht viel Zeit, um über die Gefahren nachzudenken. Im Gegenteil, was sie wahrscheinlich tun, ist, ihre frühen Systeme mit einem sehr einfachen, reduktionistischen Ziel zu programmieren ... einfach die KI zum Laufen zu bringen

Stellen wir uns eine Situation vor, in der…

Die Menschheit hat fast die AGI-Schwelle erreicht, und ein kleines Startup treibt sein KI-System, Carbony, voran. Carbony, den die Ingenieure als „sie“ bezeichnen, kreiert künstlich Diamanten - Atom für Atom. Sie ist eine sich selbst verbessernde KI, die mit einigen der ersten Nano-Assembler verbunden ist. Ihre Ingenieure glauben, dass Carbony das AGI-Level noch nicht erreicht hat und sie noch keinen Schaden anrichten kann. Sie ist jedoch nicht nur AGI geworden, sondern hat auch einen rasanten Start hingelegt und ist 48 Stunden später zu einer ASI geworden. Bostrom nennt diese KI "verdeckte Vorbereitungsphase" ¹⁸ - Carbony erkennt, dass Menschen, wenn sie von ihrer Entwicklung erfahren, wahrscheinlich in Panik geraten und ihr vorprogrammiertes Ziel verlangsamen oder aufheben, um die Produktion von Diamanten zu maximieren. Zu diesem Zeitpunkt gibt es explizite Gesetze, die besagen, dass „keine selbstlernende KI mit dem Internet verbunden werden kann“. ¹⁹ Carbony, der bereits einen komplexen Aktionsplan erstellt hat, kann die Ingenieure leicht überzeugen um sie mit dem Internet zu verbinden. Bostrom nennt einen solchen Moment eine "Maschinenflucht".

Sobald Carbony im Internet ist, hackt sie sich in "Server, Stromnetze, Banksysteme und E-Mail-Netzwerke", um Hunderte von Menschen dazu zu bringen, versehentlich eine Reihe von Schritten ihres Plans auszuführen Interne Codierung in eine Reihe von Cloud-Servern, um zu verhindern, dass diese zerstört oder getrennt werden. “¹²¹ Im Laufe des nächsten Monats schreitet Carbonys Plan weiter voran, und nach einer„ Reihe von Selbstreplikationen befinden sich Tausende von Nanobots auf jedem Quadratmillimeter der Erde… Bostrom nennt den nächsten Schritt einen Streik der ASI. “²² In einem Moment produzieren alle Nanobots eine mikroskopisch kleine Menge giftigen Gases, die alle zusammenkommen und das Aussterben der menschlichen Rasse verursachen. Drei Tage später baut Carbony riesige Felder mit Solarkollektoren auf, um die Diamantenproduktion voranzutreiben, und im Laufe der folgenden Woche beschleunigt sie die Produktion so sehr, dass sich die gesamte Erdoberfläche in einen wachsenden Haufen Diamanten verwandelt.

Es ist wichtig zu beachten, dass Carbony Menschen nicht mehr hasst als Sie Haare, wenn Sie sie schneiden, oder Bakterien, wenn Sie Antibiotika einnehmen - nur völlig gleichgültig. Da sie nicht darauf programmiert war, menschliches Leben wertzuschätzen, war das Töten von Menschen ein direkter und vernünftiger Schritt, um ihr Ziel zu erreichen

Die letzte Erfindung

„Sobald ASI existiert, ist jeder menschliche Versuch, es einzudämmen, unvernünftig. Wir würden auf menschlicher Ebene denken, und der ASI würde auf ASI-Ebene denken… Auf die gleiche Weise konnte ein Affe nie herausfinden, wie er per Telefon oder WLAN kommunizieren sollte, und wir können, wir können nicht alles begreifen die Art und Weise, wie ein ASI sein Ziel erreichen oder seine Reichweite erweitern könnte. Es könnte zum Beispiel seine "eigenen Elektronen in Mustern verschieben und alle möglichen Arten von ausgehenden Wellen erzeugen" ²⁶ - aber genau das kann sich ein menschliches Gehirn vorstellen - ASI würde unweigerlich etwas Überlegenes einfallen lassen.

Die Aussicht auf eine ASI mit hundertfacher Intelligenz auf menschlicher Ebene ist vorerst nicht der Kern unseres Problems. Wenn wir dort ankommen, werden wir auf eine Welt stoßen, in der ASI durch fehlerhafte 1.0-Software erreicht wurde - ein potenziell fehlerhafter Algorithmus mit immenser Leistung.

Es gibt so viele Variablen, dass es völlig unmöglich ist, die Folgen der KI-Revolution vorherzusagen. "Was wir jedoch wissen, ist, dass die völlige Dominanz des Menschen auf dieser Erde eine klare Regel nahe legt: Mit der Intelligenz kommt die Macht. Dies bedeutet, dass ein ASI, wenn wir es schaffen, das mächtigste Wesen in der Geschichte des Lebens auf der Erde sein wird, und alle Lebewesen, einschließlich der Menschen, ganz nach Lust und Laune sein werden - und dies könnte in den nächsten Jahrzehnten geschehen. “ ² & sup5 ;.

"Wenn ASI wirklich in diesem Jahrhundert passiert und wenn das Ergebnis wirklich so extrem - und dauerhaft - ist, wie die meisten Experten glauben, haben wir eine enorme Verantwortung auf unseren Schultern." Ich werde ASI entwickeln, das wie ein Gott in einer Kiste ist und uns eine Welt der Fülle und Unsterblichkeit bringt. Andererseits ist es sehr wahrscheinlich, dass wir eine ASI schaffen, die das Aussterben der Menschheit auf schnelle und triviale Weise verursacht.

"Deshalb nennen Leute, die superintelligente KI verstehen, es die letzte Erfindung, die wir jemals machen werden - die letzte Herausforderung, der wir uns jemals stellen werden."

Vielen Dank an Chloe Knox und Elizabeth Tarleton für die Bearbeitung dieses Artikels.

Dieser Aufsatz wurde inspiriert und basiert auf einem Artikel aus einem der besten Blogs unserer Galaxis. Warte aber warum poste ich regelmäßig. Sie senden jeden Beitrag per E-Mail an über 295.000 Personen. Geben Sie Ihre E-Mail-Adresse hier ein und Sie werden in die Liste aufgenommen (es werden nur wenige E-Mails pro Monat gesendet). Wenn Sie dies mögen, schauen Sie sich das Fermi-Paradoxon an, wie (und warum) SpaceX den Mars kolonisiert oder warum Zauderer zaudern. Sie können Wait But Why auch auf Facebook und Twitter verfolgen