Tiefer gehen: Eine Ideengeschichte in der KI-Forschung

Träumen Androiden von elektrischen Schafen? Kehren wir zu einer Zeit zurück, in der KI-Fragen unkomplizierter (aber immer noch schwer zu beantworten) waren.

Künstliche Intelligenz bewegt sich schnell. Die Stimmung ist überall. Fakten beginnen sich wie Science-Fiction-Filme und Science-Fiction-Filme wie eine Version der Realität (mit besseren Grafiken) anzuhören. Es kann sein, dass die KI endlich den Reifegrad erreicht hat, den sie seit Jahrzehnten anstrebt, und hartnäckig abgelehnt wurde, was Teile ihrer Gemeinschaft und die ganze Welt misstrauisch gegenüber ihrer Durchführbarkeit macht.

Frankenstein kann für die Gegenwart relevante Parallelen enthalten. Mary Shelleys Gothic-Roman enthält eine Diskussion über die Folgen der Schaffung und Einführung eines künstlichen Wesens in die Gesellschaft. Die Kreatur verblüfft uns mit ihrer unmenschlichen Gräueltat und dennoch menschlichen Manifestationen von Schwäche, Bedürfnis nach Kameradschaft und Existenzkrise.

Man könnte sagen, wir sollten uns auf die Zukunft und die Folgen unserer Entdeckungen konzentrieren. Aber wie kann man sich auf das Chaos konzentrieren, das durch das Einbringen einer Armee von Kreaturen in ein System entsteht, das so kompliziert ist wie die heutige Gesellschaft? Man könnte sich auch auf die Errungenschaften konzentrieren, die Erfolgsgeschichten, die diese Ideen aufrichtig klingen ließen. Aber wie kann man ex post zwischen richtiger Intuition und Glück unterscheiden?

Es braucht Selbstbeherrschung und Weisheit, um die Zweige Ihrer Arbeit für eine Weile beiseite zu legen und die Festigkeit ihrer Wurzeln zu bewerten. Ein blühender Baum kann ablenken.

Ob Sie den Regeln des logischen Denkens in den antiken griechischen Philosophen, der Formulierung des Denkens in arabischen Mathematikern oder der Kraft des mathematischen Wissens in Intellektuellen des 19. Jahrhunderts nachgehen - eine beunruhigende Vorstellung wird klar: Die Fragen sind tiefer als die Netzwerke, die Sie entwerfen können ( sogar unter Berücksichtigung von Moores Gesetz).

"Ich glaube, was wir werden, hängt davon ab, was uns unsere Väter in merkwürdigen Momenten lehren, wenn sie nicht versuchen, uns zu lehren. Wir sind aus kleinen Fetzen von Weisheit zusammengesetzt. “
Umberto Eco

Der Rest der Diskussion wird aus der Geschichte der KI hervorgehen. Nicht die Geschichte der Errungenschaften, sondern die Geschichte der Fragen, Argumente und Überzeugungen einiger bedeutender Personen. Die meisten Ereignisse drehen sich um die 60er Jahre, die Ära AI erhielt ihre offizielle Definition, ihren Zweck, ihre wissenschaftliche Gemeinschaft und ihre Gegner.

Können Maschinen denken?

1950 versucht Alan Turing, diese absichtlich vereinfacht formulierte Frage in seiner wegweisenden Arbeit Computing Machinery and Intelligence zu beantworten. In Anerkennung seiner Mehrdeutigkeit und der Grenzen, die es dem Verständnis von KI auferlegt, formuliert er ein Gedankenexperiment, das auch als Turing-Test bekannt ist:

Spieler A ist ein Mann, Spieler B ist eine Frau und Spieler C hat beide Geschlechter. C spielt die Rolle des Vernehmers und ist nicht in der Lage, beide Spieler zu sehen, kann jedoch über unpersönliche Notizen mit ihnen kommunizieren. Durch Fragen an A und B versucht C festzustellen, welcher der beiden der Mann und welcher die Frau ist. A hat die Aufgabe, den Vernehmer zu einer falschen Entscheidung zu verleiten, während B versucht, den Vernehmer bei der richtigen Entscheidung zu unterstützen.

Die umformulierte Frage lautet dann:

Was passiert, wenn eine Maschine in diesem Spiel die Rolle von A übernimmt? Wird der Vernehmer so oft falsch entscheiden, wie er es tut, wenn das Spiel zwischen zwei Menschen gespielt wird?

Turings Ansatz scheint der Doktrin des Ententests zu folgen: Wenn es wie eine Ente aussieht, wie eine Ente schwimmt und wie eine Ente quakt, dann ist es wahrscheinlich eine Ente.

In Bezug auf „menschliche“ Aspekte der Intelligenz, wie beispielsweise das Bewusstsein, ist er der Ansicht, dass Sie niemandem (oder etwas anderem) die Schuld geben können, keine Eigenschaft zu besitzen, die Sie noch nicht definiert haben. Daher ist Bewusstsein bei unserer Suche nach KI irrelevant.

Gödels Unvollständigkeitssätze waren ein Hindernis für den Versuch, über KI zu sprechen. Demnach kann die mathematische Logik nicht gleichzeitig vollständig und konsistent sein, weshalb von Maschinen, die mit mathematischer Logik zum Lernen ausgestattet sind, wie im Fall der KI, erwartet wird, dass sie beim Lernen einiger Wahrheiten versagen. Die Antwort von Turing ist ziemlich entwaffnend: Woher weißt du, dass der menschliche Intellekt nicht auch mit seinen Einschränkungen einhergeht?

Turings Aufsatz ist sowohl in Bezug auf Argumente als auch in Bezug auf eine klare, dialektische Struktur verschwenderisch, jedoch beschränkt auf Spekulationen über Technologien, die noch entdeckt werden mussten.

Schritte zur künstlichen Intelligenz

Marvin Minsky war einer der Väter der KI als Forschungsgebiet. In dem staubigen Album mit AI-Familienfotos wäre Minsky dieser alte Mann, der einem Familienessen Unbehagen bereitet: „Alter Onkel Minsky. Er war bezaubernd eigenartig und hatte immer etwas Interessantes zu sagen. “

Minsky war einer der Organisatoren der Dartmouth Conference im Jahr 1956, bei der künstliche Intelligenz erstmals als Begriff und Feld definiert wurde. Man erinnert sich vor allem an seine Überzeugung, dass KI machbar ist, und an seine Abwertung, wenn man sie mit falschen Mitteln verfolgt.

Mal sehen, was Minsky 1961 zu sagen hatte, als er nach den bisherigen Fortschritten in der KI gefragt wurde.

Sollen wir fragen, was Intelligenz wirklich ist? Ich bin der Meinung, dass dies eher eine ästhetische Frage oder ein Sinn für Würde als eine technische Frage ist! Für mich bedeutet „Intelligenz“ nicht viel mehr als den Komplex von Leistungen, den wir respektieren, aber nicht verstehen. So ist es in der Regel mit der Frage der "Tiefe" in der Mathematik. Sobald der Beweis eines Theorems wirklich verstanden ist, scheint sein Inhalt trivial zu werden.

Minsky erkennt die inhärenten Schwierigkeiten bei der Definition der KI an und verfolgt diese. Zunächst setzt er die Säulen für die KI. Ihm zufolge sind dies Suche, Mustererkennung, Lernen, Planen und Induktion.

Wenn der eigentliche Zweck des Programms darin besteht, eigene Lösungen zu suchen und zu finden, kann die Mustererkennung dazu beitragen, die geeigneten Werkzeuge zu erkennen, das Lernen kann zu einer Verbesserung durch Erfahrung beitragen, und die Planung kann zu einer effizienteren Exploration führen. Zu der Möglichkeit, eine Maschine mit induktiven Fähigkeiten zu bauen und damit zu argumentieren, muss Minsky sagen:

Nun [nach Gödels Unvollständigkeitssatz] kann es kein System für induktive Inferenz geben, das in allen möglichen Universen gut funktioniert. Aber angesichts eines Universums [unserer Welt] oder eines Ensembles von Universen und eines Erfolgskriteriums wird dieses (erkenntnistheoretische) Problem für Maschinen eher technisch als philosophisch.

Der Rest des Textes enthält einen immer wiederkehrenden Drang zu klären, dass das Streben nach KI durch komplexe, hierarchische Architekturen erfolgen sollte. Aus diesem Grund stellt er den Perzeptron-Ansatz in Frage, da er bei mäßig schwierigen Problemen scheitert. Und ehrlich gesagt können wir nicht erwarten, dass die Realität einfach ist.

Man kann Minsky die Verantwortung zuschreiben, die Forschung an Perzeptronen zu entmutigen, was wahrscheinlich die Blüte des tiefen Lernens verzögerte. Die Erkenntnis, dass man auch mit einfachen Bausteinen komplizierte Probleme lösen kann, indem man in tiefe Architekturen eintaucht, scheint seiner genialen Einsicht jedoch entgangen zu sein.

Seine Äußerungen können jedoch als letztendlich konstruktive Kritik angesehen werden, da sie der Gemeinschaft halfen, die Schwächen der ursprünglichen Ansätze zu erforschen. Auch tiefes Lernen mag das Beste sein, was wir bisher haben (und wie großartig die Anwendungen sind), sollte aber nicht unbedingt als der Heilige Gral der KI angesehen werden.

Köpfe, Gehirne und Programme

1980 wurde John Searle wütend. Obwohl er wahrscheinlich früher wütend geworden ist, ist dies der Moment, an dem er beschlossen hat, seine Ablehnung einer starken KI öffentlich zu machen. In der Tat klingt sogar der Titel sarkastisch. Ich habe das Gefühl, Searle packt mich am Kragen und winkt kräftig mit dem Finger und sagt: „Lass mich dir helfen, ein paar grundlegende Unterscheidungen zu treffen, junger Junge.“

"Man hat den Eindruck, dass Leute in der KI, die so etwas schreiben, glauben, sie könnten damit durchkommen, weil sie es nicht wirklich ernst nehmen, und sie glauben auch nicht, dass es jemand anderes tun wird." Ich schlage zumindest für einen Moment vor, es ernst zu nehmen. “

Searle greift ausschließlich die Vorstellung einer starken KI an, die er als die Fähigkeit eines Computers ansieht, jedes menschenähnliche Verhalten zu üben. Er übersetzt dies in die Fähigkeit einer Maschine, Bewusstsein zu demonstrieren, das er in Analogie widerlegt. Sein berühmtes Gedankenexperiment, das chinesische Zimmer, sieht so aus:

Sie sind ein einsprachiger englischer Sprecher, der in einem Raum mit den folgenden Dingen eingesperrt ist: eine große Menge chinesischer Schrift (als Skript bezeichnet), eine weitere große Menge chinesischer Schrift (als Story bezeichnet) und ein Satz englischer Regeln, die Sie anweisen, wie Sie Chinesisch zuordnen Symbole des zweiten Stapels zum ersten (als Programm bezeichnet). Anschließend erhalten Sie eine weitere Charge chinesischer Schrift (diesmal als Fragen bezeichnet) und einen weiteren Satz englischer Anweisungen mit Regeln, die die Fragen den beiden anderen Chargen zuordnen. Herzlichen Glückwunsch, Sie haben gerade Chinesisch gelernt!

Dies ist das chinesische Raumexperiment, das 1980 von Searle eingeführt wurde. Ein Gedankenexperiment ist kein Experiment an sich, da sein Ziel nicht darin besteht, die möglichen Konsequenzen einer Idee zu untersuchen. Das älteste und berühmteste Experiment ist wahrscheinlich Galileos Schiefer Turm von Pisa (dachten Sie auch, dass Galileo tatsächlich Äpfel vom Turm fallen ließ?).

Der Punkt von Searle ist, dass die Tatsache, dass Sie chinesische Antworten durch Akzeptieren chinesischer Fragen erstellen können, nicht bedeutet, dass Sie Chinesisch verstehen, wenn diese Fähigkeit durch Befolgen von Regeln in einer anderen Sprache erstellt wurde. Infolgedessen sollte eine Maschine, die die erwartete Ausgabe liefert, nachdem sie den entsprechenden Algorithmus erhalten hat, nicht als „denkende“ Einheit betrachtet werden.

Was Searle nicht bestreitet, ist die Fähigkeit eines Programms, wie in Bezug auf einige funktionale Argumente zu denken. Er wirft aktuellen KI-Forschern vor, verhaltensorientiert und operationalistisch zu sein, da sie versuchen, ein Programm mit einem Verstand gleichzusetzen (was wahr ist), ohne jedoch die Bedeutung des Gehirns außer Acht zu lassen.

Seiner Meinung nach stammt das Bewusstsein nur aus biologischen Operationen, und da ein Programm von seiner Implementierung völlig unabhängig ist (da es auf jeder Hardware ausgeführt werden kann), kann es kein Bewusstsein aufweisen.

Wenn man den Originaltext liest, hat man das Gefühl, eine unreife Gemeinschaft von Informatikern anzugreifen, die sich nicht die Mühe gemacht hat, einen Konsens darüber zu erzielen, was Intelligenz ist, und dennoch versucht, sie basierend auf teleologischen Ansätzen und Spekulationen zu simulieren.

Minskys Reaktion auf Searle und auf philosophische Ansätze im Allgemeinen ist so nihilistisch wie es nur geht: "Sie missverstehen und sollten ignoriert werden."

Elefanten spielen kein Schach.

Und du solltest sie nicht schlecht fühlen lassen. Dieser Artikel, geschrieben von Rodney A. Brooks im Jahr 1990, ist ein Versuch eines Nouvelle AI-Evangelisten, unter Einsatz beider Argumente und seiner Roboterflotte zu überzeugen, dass die klassische Herangehensweise an AI etwas Raum für ihn lassen sollte.

Um das Gefühl dieser Ära zu bekommen, erlebte AI seinen zweiten Winter. Die Finanzierung wurde gekürzt, als Unternehmen und Regierungen erkannten, dass die Community die Erwartungen zu hoch angesetzt hatte.

Zeit für Selbstbeobachtung. Wenn etwas grundlegend versagt, gibt es zwei Möglichkeiten: Entweder ist es unmöglich, es zu erreichen, oder Ihr Ansatz ist fehlerhaft.

Brooks vermutete, dass die Stagnation der KI auf ihrem Dogma funktionaler Repräsentationen beruht. Die Symbolsystemhypothese ist eine langjährige Sicht auf die Funktionsweise von Intelligenz. Demnach handelt es sich bei der Welt um Wesenheiten wie Menschen, Autos und kosmische Liebe. Daher ist es natürlich, sie mit Symbolen abzugleichen und Maschinen damit zu versorgen. Wenn diese Hypothese korrekt ist, haben Sie der Maschine alle erforderlichen Informationen zur Verfügung gestellt, damit sie mit Informationen „aufwarten“ kann.

Obwohl diese Annahme nicht problematisch erscheint, hat sie einige weitreichende Konsequenzen, die für die schlechte Leistung der KI verantwortlich sein könnten:

  • Das Symbolsystem reicht nicht aus, um die Welt zu beschreiben. Entsprechend dem Rahmenproblem ist es ein logischer Irrtum, alles anzunehmen, was nicht explizit angegeben ist. Bis zu diesem Punkt schlägt Brooks charmant vor: Warum nicht die Welt als sein eigenes Modell nehmen?
  • Intelligenz kann nicht aus einfachen Berechnungen hervorgehen. Der immense Einsatz von Heuristiken, die zum Trainieren intelligenter Algorithmen erforderlich sind, steht im Widerspruch zu unserem Versuch, Wissen zu schaffen. (Ihre Gittersuche beleidigt den menschlichen Intellekt.)
  • Die Besessenheit von AI, die Allgemeinheit eines gelernten Modells sicherzustellen, hat zu einem Phänomen geführt, das Brooks Puzzlitis nennt: Übermäßige Anstrengungen, um zu beweisen, dass der Algorithmus in unklaren Fällen funktioniert. Es ist sicherlich eine attraktive Fähigkeit, aber es scheint keine grundlegende Konsequenz des Wissens zu sein und unsere Welt ist ziemlich konsequent.

Brooks Gegenvorschlag ist die physikalische Erdungshypothese. Das heißt, künstliche Intelligenz kann direkt mit der Welt interagieren und sie als ihre eigene Repräsentation verwenden. Dies ändert zweifellos die Standardpraxis der KI: Vom Lernen, das immense Rechenressourcen, die Anleitung von Experten und einen nie befriedigten Bedarf an Trainingsdaten erfordert, schlägt Brook vor, physische Einheiten mit billiger Hardware auszustatten und sie in die Welt zu setzen. Aber unterschätzt dies das Problem?

Brooks sieht, dass Intelligenz aus kollektivem Verhalten entsteht, nicht aus komplizierten Teilen. Die vielleicht tiefgreifendste Beobachtung seiner Experimente betrifft, wie „zielgerichtetes Verhalten aus den Wechselwirkungen einfacherer, nicht zielgerichteter Verhaltensweisen entsteht“. Es muss kein vorbestimmtes Koordinationsmuster geben, da eine intelligente Maschine ihre eigenen Strategien entwickeln sollte, um optimal mit der Welt zu interagieren.

Brooks Argument der Evolution ist ein langer Weg, um uns von der Bedeutung der physikalischen Grundhypothese zu überzeugen: Der Mensch ist das häufigste und der Intelligenz am nächsten liegende Beispiel. Ist es bei unserem Versuch, dieses Merkmal wiederherzustellen, nicht selbstverständlich, die Evolution zu beobachten, einen langsamen, anpassungsfähigen Prozess, der allmählich zur Formulierung der menschlichen Zivilisation führte? Wenn man bedenkt, wie lange es gedauert hat, Fähigkeiten wie Interaktion, Reproduktion und Überleben zu entwickeln, im Gegensatz zu unseren noch jungen Fähigkeiten, eine Sprache zu sprechen oder Schach zu spielen, kann man zu dem Schluss kommen, dass dies die schwierigsten Fähigkeiten sind, die es zu entwickeln gilt . Warum also nicht darauf konzentrieren?

Obwohl Brook begeistert von der praktischen Anwendbarkeit seines Ansatzes ist, erkennt er seine theoretischen Grenzen an, was auf die Tatsache zurückzuführen ist, dass wir noch kein vollständiges Verständnis der Dynamik interagierender Populationen entwickeln müssen. Einmal mehr zeigt sich die Missachtung eines Ingenieurs gegenüber philosophischen Einwänden:

"Zumindest wenn unsere Strategie die Sesselphilosophen nicht überzeugt, wird unser technischer Ansatz die Welt, in der wir leben, radikal verändert haben."

KI manifestiert Fortschritt

Obwohl die KI in einem Meer von Fragen schwimmt, manifestiert sie etwas, das wir nicht bestreiten können: Fortschritt. Dennoch ist es eine mühsame Aufgabe, aktuelle Anwendungen von den Auswirkungen des technologischen Fortschritts und der heuristischen Vorteile zu befreien, um eine genaue Wahrnehmung der Qualität der aktuellen Forschung zu erhalten.

Wird sich Deep Learning als ein würdiges Instrument erweisen, um unsere immer anspruchsvolleren Kriterien der Intelligenz zu erfüllen? Oder ist dies eine weitere Zwischeneiszeit, bevor die KI wieder den Winter erreicht?

Darüber hinaus haben sich die Anliegen und Fragen von rein philosophischen zu sozialen verschoben, da die Konsequenzen der KI im Alltag offensichtlicher und dringlicher werden als die Notwendigkeit, Bewusstsein, Gott und Intelligenz zu verstehen. Dies ist jedoch möglicherweise noch schwieriger zu beantworten und fordert uns auf, noch tiefer zu graben.

Als Wittgenstein den Tractactus schrieb, war er mit der Gefahr eines fundamentalen Trugschlusses konfrontiert: Seine Argumente fielen der Lehre seiner Arbeit zum Opfer. Das heißt, wenn man seine Lehre als wahr annahm, waren seine Argumente unlogisch und daher sollte seine Lehre falsch sein. Doch Wittgenstein dachte anders:

"Meine Vorschläge sind auf diese Weise aufschlussreich: Wer mich versteht, erkennt sie schließlich als sinnlos, wenn er durch sie hindurch auf sie über sie geklettert ist."

Um die Wahrheit hinter einer komplizierten Idee zu verstehen, müssen wir uns weiterentwickeln. Wir müssen fest an unserem vorherigen Schritt festhalten und bereit sein, ihn aufzugeben. Nicht jeder Schritt muss korrekt sein, aber er muss verstanden werden. Als Wittgenstein später mit diesem Argument konfrontiert wurde, sagte er, dass er keine Leiter brauche, da er in der Lage sei, sich der Wahrheit direkt anzunähern.

Vielleicht brauchen wir es noch.