KI für Dinosaurier

Alles, was Sie über AI wissen müssen - in weniger als 8 Minuten.

Über alles ein bisschen Bescheid zu wissen ist oftmals besser als über eine einzige Expertenkompetenz zu verfügen. Dies gilt insbesondere für Personen, die in Schwellenländern debattieren. Vor allem Tech.

Die meisten Leute glauben, ein wenig über KI zu wissen. Aber das Feld ist so neu und wächst so schnell, dass die derzeitigen Experten täglich neue Wege beschreiten. Es gibt so viel Wissenschaft zu entdecken, dass Technologen und politische Entscheidungsträger aus anderen Bereichen schnell einen Beitrag auf dem Gebiet der KI leisten können.

Hier kommt dieser Artikel ins Spiel. Mein Ziel war es, eine Kurzreferenz zu erstellen, die technisch versierte Menschen schnell mit AI-Begriffen, -Sprache und -Techniken vertraut macht. Hoffentlich kann dieser Text von den meisten Nichtpraktizierenden verstanden werden und dient gleichzeitig als Referenz für alle.

Einführung

Künstliche Intelligenz (KI), tiefes Lernen und neuronale Netze sind Begriffe, mit denen leistungsfähige Techniken auf der Basis maschinellen Lernens beschrieben werden, die viele Probleme der realen Welt lösen können.

Obwohl deduktives Denken, Schliessen und Treffen von Entscheidungen, die mit dem menschlichen Gehirn vergleichbar sind, ein wenig entfernt sind, gab es in letzter Zeit viele Fortschritte in Bezug auf KI-Techniken und zugehörige Algorithmen. Insbesondere mit der zunehmenden Verfügbarkeit großer Datenmengen, aus denen KI lernen kann.

Das Gebiet der KI stützt sich auf viele Gebiete, darunter Mathematik, Statistik, Wahrscheinlichkeitstheorie, Physik, Signalverarbeitung, maschinelles Lernen, Informatik, Psychologie, Linguistik und Neurowissenschaften. Fragen rund um die soziale Verantwortung und Ethik von KI ziehen Parallelen zu vielen Zweigen der Philosophie.

Die Motivation für die Weiterentwicklung der KI-Techniken besteht darin, dass die zur Lösung von Problemen mit vielen Variablen erforderlichen Lösungen unglaublich kompliziert, schwer zu verstehen und nicht einfach manuell zusammenzustellen sind.

Zunehmend verlassen sich Unternehmen, Forscher und Einzelpersonen auf maschinelles Lernen, um Probleme zu lösen, ohne dass umfassende Programmieranweisungen erforderlich sind. Dieser Black-Box-Ansatz zur Problemlösung ist von entscheidender Bedeutung. Für menschliche Programmierer wird es immer komplexer und zeitaufwendiger, Algorithmen zu schreiben, die zur Modellierung und Lösung datenintensiver Probleme erforderlich sind. Selbst wenn wir eine nützliche Routine für die Verarbeitung großer Datenmengen erstellen, ist diese in der Regel äußerst komplex, schwierig zu warten und nicht angemessen zu testen.

Modernes maschinelles Lernen und KI-Algorithmen sowie korrekt berücksichtigte und aufbereitete Trainingsdaten können die Programmierung für uns übernehmen.

Überblick

Intelligenz: Die Fähigkeit, Informationen wahrzunehmen und als Wissen beizubehalten, um sie auf adaptive Verhaltensweisen in einer Umgebung oder einem Kontext anzuwenden.

Diese Wikipedia-Definition von Intelligenz kann sowohl für organische Gehirne als auch für Maschinen gelten. Intelligenz impliziert kein Bewusstsein, ein weit verbreitetes Missverständnis, das von Science-Fiction-Autoren verbreitet wird.

Wenn Sie im Internet nach AI-Beispielen suchen, werden Verweise auf Watson von IBM angezeigt. Ein Algorithmus für maschinelles Lernen, der durch den Gewinn der TV-Quizshow Jeopardy im Jahr 2011 bekannt wurde. Seitdem wurde er für eine Reihe von kommerziellen Anwendungen als Vorlage verwendet. Apple, Amazon und Google arbeiten hart daran, ein ähnliches System in unsere Häuser und Taschen zu bringen.

Natürliche Sprachverarbeitung und Spracherkennung waren die ersten kommerziellen Anwendungen des maschinellen Lernens. Weitere automatisierte Erkennungsaufgaben (Muster, Text, Audio, Bild, Video, Gesicht, ...) folgen. Das Anwendungsspektrum ist explosionsartig und umfasst autonome Fahrzeuge, medizinische Diagnosen, Spiele, Suchmaschinen, Spam-Filter, Kriminalitätsbekämpfung, Marketing, Robotik, Fernerkundung, Computer Vision, Transportwesen, Musikerkennung, Klassifizierung ...

Die KI ist so in die von uns verwendete Technologie eingebettet, dass sie von vielen nicht mehr als „KI“, sondern nur noch als Erweiterung des Computerbereichs angesehen wird. Fragen Sie jemanden auf der Straße, ob er eine KI auf seinem Telefon hat, und er wird wahrscheinlich nein sagen. KI-Algorithmen sind jedoch überall in der Kamera integriert, angefangen bei Texterkennung bis hin zum Autofokus-System. Die allgemeine Ansicht ist, dass AI noch nicht eingetroffen ist. Aber es ist jetzt hier und schon seit einiger Zeit.

AI ist ein ziemlich verallgemeinerter Begriff. Der Schwerpunkt der meisten Forschungsarbeiten liegt auf dem etwas engeren Gebiet der künstlichen neuronalen Netze und des tiefen Lernens.

Wie dein Gehirn funktioniert

Das menschliche Gehirn ist ein exquisiter Kohlenstoffcomputer, der schätzungsweise eine Milliarde Milliarden Berechnungen pro Sekunde (1000 Petaflops) durchführt und dabei rund 20 Watt Strom verbraucht. Der chinesische Supercomputer Tianhe-2 (zum Zeitpunkt des Schreibens der schnellsten der Welt) verwaltet nur 33.860 Billionen Berechnungen pro Sekunde (33,86 Petaflops) und verbraucht 17600000 Watt (17,6 Megawatt). Wir haben noch einen weiten Weg vor uns, bevor unsere Siliziumkreationen mit den Kohlenstoffkreationen der Entwicklung Schritt halten.

Der genaue Mechanismus, mit dem das Gehirn denkt, steht zur Diskussion und weiteren Untersuchung an (Ich mag die Theorie, dass das Gehirn Quanteneffekte nutzt, aber das ist ein anderer Artikel). Das Innenleben orientiert sich jedoch häufig am Konzept der Neuronen und ihrer Netzwerke. Es wird angenommen, dass das Gehirn rund 100 Milliarden Neuronen enthält.

Neuronen interagieren und kommunizieren auf Wegen, die das Weitergeben von Nachrichten ermöglichen. Die Signale von einzelnen Neuronen werden gewichtet und kombiniert, bevor andere Neuronen aktiviert werden. Dieser Prozess der Weitergabe von Nachrichten, des Kombinierens und Aktivierens anderer Neuronen wird schichtübergreifend wiederholt. Bei den 100 Milliarden Neuronen im menschlichen Gehirn ist die Summe dieser gewichteten Signalkombination komplex. Und das ist eine erhebliche Untertreibung.

Aber so einfach ist das nicht. Jedes Neuron wendet eine Funktion oder Transformation auf seine gewichteten Eingaben an, bevor geprüft wird, ob eine Aktivierungsschwelle erreicht wurde. Diese Kombination von Faktoren kann linear oder nicht linear sein.

Die anfänglichen Eingangssignale stammen aus einer Vielzahl von Quellen… unseren Sinnen, der internen Überwachung der Körperfunktionen (Blutsauerstoffgehalt, Mageninhalt…). Ein einzelnes Neuron kann Hunderttausende von Eingangssignalen empfangen, bevor entschieden wird, wie es reagieren soll.

Denken oder Verarbeiten und die daraus resultierenden Anweisungen an unsere Muskeln sind die Summierungen von Eingangssignalen und Rückkopplungsschleifen über viele Schichten und Zyklen des neuronalen Netzwerks. Die neuronalen Netze des Gehirns ändern und aktualisieren sich jedoch auch, einschließlich Änderungen der zwischen Neuronen angewendeten Gewichtung. Dies wird durch Lernen und Erfahrung verursacht.

Dieses Modell des menschlichen Gehirns wurde als Vorlage verwendet, um die Fähigkeiten des Gehirns in einer Computersimulation nachzubilden ... einem künstlichen neuronalen Netzwerk.

Künstliche Neuronale Netze (ANNs)

Künstliche neuronale Netze sind mathematische Modelle, die von biologischen neuronalen Netzen inspiriert sind und diesen nachgebildet wurden. ANNs können nichtlineare Beziehungen zwischen Ein- und Ausgängen modellieren und verarbeiten. Adaptive Gewichte zwischen den künstlichen Neuronen werden durch einen Lernalgorithmus abgestimmt, der beobachtete Daten mit dem Ziel liest, die Ausgabe zu verbessern.

Mithilfe von Optimierungstechniken wird die ANN-Lösung so weit wie möglich an die optimale Lösung angepasst. Wenn die Optimierung erfolgreich ist, kann der ANN das jeweilige Problem mit hoher Leistung lösen.

Eine ANN wird unter Verwendung von Schichten von Neuronen modelliert. Die Struktur dieser Ebenen wird als Architektur des Modells bezeichnet. Neuronen sind einzelne Recheneinheiten, die Eingaben empfangen und mithilfe einer mathematischen Funktion bestimmen können, ob Nachrichten weitergeleitet werden.

In einem einfachen Dreischichtenmodell ist die erste Ebene die Eingabeebene, gefolgt von einer ausgeblendeten Ebene und einer Ausgabeebene. Jede Schicht kann ein oder mehrere Neuronen enthalten.

Je komplexer Modelle mit mehr Schichten und mehr Neuronen werden, desto größer werden ihre Fähigkeiten zur Problemlösung. Wenn das Modell für das gegebene Problem jedoch zu groß ist, kann das Modell nicht effizient optimiert werden. Dies wird als Überanpassung bezeichnet.

Die grundlegende Modellarchitektur und -optimierung sind neben den Lernalgorithmen zum Einlesen der Daten die Hauptelemente der ANN-Techniken. Alle Komponenten tragen die Leistung des Modells.

Modelle zeichnen sich in der Regel durch eine Aktivierungsfunktion aus. Dies wird verwendet, um die gewichtete Eingabe eines Neurons in seine Ausgabeaktivierung umzuwandeln. Es gibt eine Auswahl von Transformationen, die als Aktivierungsfunktion verwendet werden können.

ANNs können extrem leistungsfähig sein. Auch wenn die Mathematik einiger Neuronen einfach ist, wird das gesamte Netzwerk komplexer. Aus diesem Grund werden ANNs als Black-Box-Algorithmen betrachtet. Die Auswahl von ANN als Werkzeug zur Lösung eines Problems sollte mit Bedacht erfolgen, da es nicht möglich ist, den Entscheidungsprozess des Systems später aufzuheben.

Foto von Patrick Tomasso auf Unsplash

Tiefes Lernen

Deep Learning ist ein Begriff, der verwendet wird, um neuronale Netze und verwandte Algorithmen zu beschreiben, die Rohdaten verbrauchen. Die Daten werden durch die Ebenen des Modells verarbeitet, um eine Zielausgabe zu berechnen.

Unbeaufsichtigtes Lernen ist der Bereich, in dem sich tiefe Lerntechniken auszeichnen. Ein ordnungsgemäß konfigurierter ANN kann automatisch Merkmale in den Eingabedaten identifizieren, die wichtig sind, um die gewünschte Ausgabe zu erzielen. Herkömmlicherweise ist der Programmierer, der das System erstellt, für die Sinnhaftigkeit der eingegebenen Daten verantwortlich. Im Deep-Learning-Setup kann das Modell jedoch selbst bestimmen, wie die Daten interpretiert werden müssen, um aussagekräftige Ergebnisse zu erzielen. Sobald ein optimiertes System trainiert wurde, wird der Rechenaufwand, der Speicherbedarf und der Leistungsbedarf des Modells erheblich reduziert.

Kurz gesagt: Feature-Learning-Algorithmen ermöglichen es einer Maschine, mit geeigneten Daten für eine bestimmte Aufgabe zu lernen. Die Algorithmen lernen, wie man lernt.

Deep Learning wurde auf eine Vielzahl von Aufgaben angewendet und gilt als eine der innovativen KI-Techniken. Es gibt gut konzipierte Algorithmen, die für überwachte, unbeaufsichtigte und halbüberwachte Lernprobleme geeignet sind.

Schattenlernen ist ein Begriff, der verwendet wird, um eine einfachere Form des Tiefenlernens zu beschreiben, bei dem die Auswahl von Merkmalen der Daten eine Vorabverarbeitung und genauere Kenntnisse durch den Programmierer erfordert. Die resultierenden Modelle können transparenter sein und eine höhere Leistung auf Kosten einer längeren Zeit in der Entwurfsphase erbringen.

Zusammenfassung

AI ist ein leistungsfähiges Feld der Datenverarbeitung und kann komplexe Ergebnisse schneller liefern als die herkömmliche Algorithmusentwicklung durch Programmierer. ANNs und Deep Learning-Techniken können eine Vielzahl schwieriger Probleme lösen. Der Nachteil ist, dass die optimierten Modelle Black-Box-Modelle sind und von ihren menschlichen Schöpfern nicht entfernt werden können. Dies kann zu ethischen Problemen führen, denen Datentransparenz wichtig ist.