Ein Fall, bei dem die Entwicklung der künstlichen Intelligenz nicht reguliert wird

Was fällt Ihnen ein, wenn Sie den Begriff künstliche Intelligenz hören? Der Terminator? HAL von Space Odyssey? Der Roboterleutnant AUTO in Wall-E? Oder der Tod von Elain Herzberg, die in Arizona von Ubers selbstfahrendem Auto getötet wurde?

Unabhängig davon, was Ihnen sofort in den Sinn kommt, hat die populäre Kultur künstliche Intelligenz als Antagonist in vielen zukünftigen apokalyptischen Filmen dargestellt, die ein Gefühl der Angst und eine geheimnisvolle Wolke über die wahren Fähigkeiten künstlicher Intelligenz hervorruft - in vielerlei Hinsicht erinnert dies an Die Angst der Öffentlichkeit vor Haien, die durch die Herstellung von Kiefer für immer verändert wurde. Bei all der Unruhe um künstliche Intelligenz beginnen die Aufsichtsbehörden, wenn auch langsam, Aufmerksamkeit zu schenken und sich auf die Sorgen der Menschen zu konzentrieren.

Während die künstliche Intelligenz, die im öffentlichen Bereich verwendet wird, über bestimmte Sicherheitsvorkehrungen zum Schutz der Interessen der Menschheit verfügen sollte, sollte die Entwicklung neuer Algorithmen im privaten Sektor nicht eingeschränkt werden.

Für diesen Mangel an Regulierung werden vier Hauptgründe genannt:

1. Wissenschaft. Sollten wir die Wissenschaft regulieren? Künstliche Intelligenz ist ein Gebiet der Wissenschaft, das der Chemie, Physik und Nanotechnologie ähnlich ist. Nie zuvor haben wir den menschlichen Einfallsreichtum eingeschränkt; Seit Jahrtausenden sind die Menschen ständig innovativ, um neue technologische Durchbrüche zu entwickeln, und haben somit unsere allgemeine Lebensqualität verbessert. In der Vergangenheit sind Menschen unaufhörliche Entdecker, von Sir Edmund Hillary bis zu Julius Oppenheimer, und der technologische Fortschritt wird mit Einschränkungen behaftet. Dies wird zwangsläufig ignoriert. Obwohl sich die wissenschaftliche Gemeinschaft damit einverstanden erklärt hatte, nicht mit CRISPR an menschlichen Embryonen zu experimentieren, ignorierte der schurkische chinesische Wissenschaftler He Jiankui die wissenschaftliche Gemeinschaft und schuf genedierte Babys².

2. Ungebildete Regulierungsbehörden. In manchen Fällen folgen Politiker den Stimmen ihrer Wähler, da sie auf Wiederwahl hoffen und ihren Ruf nicht beeinträchtigen wollen. Wenn jedoch die Öffentlichkeit insgesamt wenig über die Auswirkungen künstlicher Intelligenz informiert ist, werden politische Entscheidungen auf der Grundlage schlecht informierter Bürger getroffen. Durch die negative Darstellung künstlicher Intelligenz in den Medien werden viele Menschen hinsichtlich der positiven Aspekte im Dunkeln gelassen: Krebserkennung, langwierige / monotone Aufgaben beseitigen, mehr Freizeit schaffen und menschliche Fehler in der Belegschaft reduzieren. Es gibt eine Fülle von Positiven, die schwer zu erkennen sind. Durch die Einschränkung der Nutzung und Entwicklung künstlicher Intelligenz werden diese positiven Auswirkungen minimiert.

3. Mangel an Kreativität Bis zu Beginn der künstlichen allgemeinen Intelligenz, wenn ein Algorithmus eine menschliche Aufgabe ohne explizite Anweisung ausführen kann und aus seinen Fehlern lernen kann, kommt vom Computer wenig Kreativität. Sicher, zuvor nicht erkannte Zusammenhänge können in Daten gefunden werden, aber Romane, Lieder und Kunstwerke können nicht mit der gleichen künstlerischen Meisterschaft und Kreativität wie Menschen erstellt werden. Während manche Menschen befürchten, dass humanoide Roboter in Zukunft den Planeten erobern werden, stellt die Abwesenheit von Kreativität des Computers sicher, dass die derzeitigen menschlichen Fähigkeiten nicht übertroffen werden. Einfach ausgedrückt: Computer sind keine Bedrohung für das menschliche Leben.

4. Globaler Wettbewerb. Wenn die Vereinigten Staaten die Entwicklung künstlicher Intelligenz durch Regulierung behindern, werden andere Länder wahrscheinlich nicht nachziehen und ihre Forschung weiterhin finanzieren. Und da künftige Konflikte hauptsächlich über das Computernetz ausgetragen werden und unbemannte Fahrzeuge Informationen sammeln und Missionen ausführen, ist die Vorbereitung auf dieses Worst-Case-Szenario unerlässlich. So gibt es bereits Spekulationen über die Entwicklung von Algorithmen, die Zivilpersonen von Feinden auf dem Schlachtfeld unterscheiden können3. Ob sich die Vereinigten Staaten für die Verwendung automatisierter Prozesse in der Kriegsführung entscheiden, liegt im Ermessen der Regierung. Durch diese technologischen Fähigkeiten ist jedoch sichergestellt, dass in schwierigen Situationen ein letzter Ausweg besteht. Es ist besser, die Technologie zur Verfügung zu haben, als sich gegen dominante Gegner wehrlos zu halten. Und wie das alte Sprichwort sagt: "Auf das Beste hoffen, auf das Schlimmste vorbereiten".

Es ist wichtig, die künstliche Intelligenz zu klären, von der die Bürger direkt betroffen sein sollten. Entwickler sollten jedoch nicht in dem geregelt sein, was sie recherchieren können / können. In ähnlicher Weise kann ein pharmazeutischer Chemiker das entwickeln, was er / sie im Labor wählt, aber er muss die Genehmigung der Regierung erhalten, um ein Medikament auf den Markt zu bringen.

Gegenwärtig bestehen die meisten Bedenken hinsichtlich künstlicher Intelligenz aus der Angst, dass Maschinen einen eigenen Geist entwickeln und sich gegen die Schöpfer wenden. Wir wissen jedoch, dass Maschinen nur eines können: Befolgen Sie die Anweisungen des Menschen. Außerdem schafft künstliche Intelligenz keine Verzerrung, sondern macht lediglich statistische Trends in der heutigen Gesellschaft offensichtlicher, sodass algorithmische Verzerrung lediglich das Ergebnis gesellschaftlicher Ungleichheit ist. Überdramatisierung der Unterhaltung unwahrscheinlicher Szenarien; Wir müssen zwar wachsam gegenüber neuen Entwicklungen sein, aber Regulierungen auf der Entwicklungsebene werden eher schädlich als vorteilhaft sein.

___________________________________________________

1 Berboucha, Meriame. "Uber Selbstfahrerabsturz: Was wirklich passiert ist." wirklich passiert / # f0057264dc41.

2 „Chinas CRISPR Twins: Eine Zeitlinie der Nachrichten.“ MIT Technology Review, Massachusetts Institute of Technology., 22. Februar 2019, www.technologyreview.com/s/613007/chinas-crispr-twins-a-timeline-of- Nachrichten/.

3 Rosenberg, Matthew und John Markoff. "Das Terminator-Rätsel des Pentagon: Roboter, die von alleine umbringen könnten." New York Times, New York Times, 25. Oktober 2016, www.nytimes.com/2016/10/26/us/pentagon-artificial- Intelligence-Terminator.html.