www.wikidata.de-de.nina.az
Superintelligenz wortl Uber Intelligenz bezeichnet Wesen oder Maschinen mit dem Menschen in vielen oder allen Gebieten uberlegener Intelligenz Der Begriff findet insbesondere im Transhumanismus und im Bereich der Science Fiction Verwendung Ein tatsachlich geistig uberlegenes Wesen das die Kriterien einer Superintelligenz erfullt gibt es nach heutigem Kenntnisstand nicht Inhaltsverzeichnis 1 Definition 2 Abgrenzung 3 Geschichte 4 Realisation 5 Wertgebungsproblem 6 Kontrollproblem 7 Gefahrenpotential 8 Kritik 9 In der Fiktion 10 Siehe auch 11 Weblinks 12 EinzelnachweiseDefinition BearbeitenEine Superintelligenz wird definiert als Intellekt der auch dem besten menschlichen Hirn in den meisten oder allen Bereichen uberlegen ist und zwar sowohl hinsichtlich kreativer und problemloserischer Intelligenz wie auch bei sozialen Kompetenzen Dabei bleibt dahingestellt ob sie biologisch technisch oder als Hybrid dazwischen realisiert werden kann Auch die Frage ob sie ein Selbstbewusstsein oder Erinnerungsvermogen besitzt bleibt aussen vor 1 Es wird zwischen starker und schwacher Superintelligenz unterschieden Die schwache Superintelligenz ist ein Intellekt der qualitativ auf dem Niveau menschlicher Denkprozesse aber quantitativ um ein Vielfaches schneller arbeitet Eine starke Superintelligenz arbeitet dagegen auf einem auch qualitativ ubergeordneten Niveau 2 Abgrenzung BearbeitenUmgangssprachlich werden bereits Hochbegabte oder auch Inselbegabte sogenannte Savants als superintelligente Menschen bezeichnet sie weisen aber nicht die ubergeordneten Fahigkeiten einer Superintelligenz auf Ferner werden auch besonders gute oder schnelle Suchmaschinen oder das Semantische Web als superintelligent bezeichnet sie sind dem Menschen aber kognitiv nur in Teilaspekten uberlegen Auch eine weltweite Gemeinschaft der Forscher kann nicht als Superintelligenz gewertet werden da sie nicht klar eingegrenzt werden kann geschweige denn eine einzelne Entitat darstellt 1 Geschichte BearbeitenIn diesem Artikel oder Abschnitt fehlen noch folgende wichtige Informationen relevante Autoren Hilf der Wikipedia indem du sie recherchierst und einfugst 1965 entwickelte I J Good als erster die Vorstellung einer Superintelligenz und einer moglichen Intelligenzexplosion Eine ultraintelligente Maschine sei definiert als eine Maschine die die intellektuellen Fahigkeiten jedes Menschen und sei er noch so intelligent bei weitem ubertreffen kann Da der Bau eben solcher Maschinen eine dieser intellektuellen Fahigkeiten ist kann eine ultraintelligente Maschine noch bessere Maschinen bauen zweifellos wurde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen und die menschliche Intelligenz wurde weit dahinter zuruckbleiben Die erste ultraintelligente Maschine ist also die letzte Erfindung die der Mensch zu machen hat 3 Daruber hinaus geht eine Idee von Mihai Nadin der in seinem Werk MIND Anticipation and Chaos von 1997 vortragt dass eine sogenannte kritische Masse an normalen Intelligenzen durch Interaktion verbunden werden konne die dann transzendent interagiere 4 Der Autor Ray Kurzweil geht davon aus dass Computer gegen das Jahr 2030 die Menschen an Intelligenz ubertreffen Diese These hat er 1999 in seinem Buch The Age of Spiritual Machines deutscher Titel Homo S piens aufgestellt Auch Hans Moravec befasste sich mit dem Thema 5 Realisation BearbeitenEin zielstrebiges serioses Projekt zur direkten Erschaffung einer Superintelligenz existiert nicht Jedoch zeichnen sich im Bereich der Simulation erste Erfolge ab die im Rahmen verschiedener Grossprojekte wie dem Human Brain Project der EU Etat 1 Mrd EUR und der Brain Activity Map Project der USA Etat 3 Mrd US in einer vollstandigen Nachbildung des menschlichen Gehirns munden sollen Ein vollstandig simuliertes Gehirn konnte die Ausgangsbasis einer schwachen Superintelligenz bilden Uber den konkreten Weg zur Realisierung einer Superintelligenz und bei der Einschatzung vorhandener Technologie herrscht im Transhumanismus wie dem Posthumanismus bislang keine Einigkeit Moglicherweise konnte es bereits genugen bestehende und zukunftige Technologien lediglich auf die richtige Weise zu kombinieren oder aber es ist notwendig dass die entsprechende Technologie wie auch die Konzepte erst noch entwickelt werden mussen Einige Transhumanisten gehen davon aus dass die immer schneller fortschreitende Entwicklung in allen Bereichen der Wissenschaft bereits in den nachsten Jahrzehnten zur Realisierung einer Superintelligenz fuhren konnte 25 Jahre 1 bis 50 Jahre 6 2009 hielt Henry Markram ein dem Menschen ebenburtiges kunstliches Gehirn binnen eines Jahrzehnts fur moglich 7 Mogliche Entwicklungsrichtungen zur Realisation einer Superintelligenz sind die technische Weiterentwicklung von Computern die gentechnische Weiterentwicklung von Menschen die Verschmelzung von beidem in Cyborgs sowie die Simulation auf neuronaler Ebene Kunstliche Intelligenz Eine reine Beschleunigung der Rechengeschwindigkeit von Computern fuhrt ebenso wenig zu hoherer Intelligenz wie die Implementierung von starkeren Algorithmen 8 Hingegen wird es als moglich erachtet ein selbst lernendes Programm zu implementieren eine sogenannte starke kunstliche Intelligenz Die Forschung bemuht sich bereits seit Jahrzehnten sich selbst verbessernde Kunstliche Intelligenzen zu kreieren jedoch bislang nur mit Erfolgen bei schwacher KI Dennoch wird unter den diskutierten hier vorgestellten vier Alternativen zur Realisierung einer Superintelligenz dem Weg uber eine starke Kunstliche Intelligenz die besten Chancen eingeraumt Biologische Kognition Mittels Gentechnik konnten Ubermenschen gezuchtet werden diese wurden nicht auf Anhieb den Status einer Superintelligenz erreichen in mehreren Generationen bestunde dafur aber zumindest eine Chance fur Intelligenzerhohung Dafur wird im Rahmen der Embryonenselektion diskutiert die hinderliche Generationenfolge zeitlich zu verkurzen Embryonen mussten dafur in einem fruhen Stadium Somazellen entnommen und in Keimzellen umgewandelt werden die eine neue Generation begrunden Geburt und Wachstum konnten auf diese Weise umgangen und ein Mehrgenerationen Selektionsprozess fur die gewunschten genetischen Eigenschaften der Intelligenz die bekannt sein mussten drastisch abgekurzt und effizient gestaltet werden 9 Diese Richtung ist als Eugenik weitgehend abgelehnt Es ist jedoch nicht auszuschliessen dass erste positive Erfolge in einem Land das sich hierfur nicht sperrt zu einem Wandel der Sichtweise fuhrt Gehirn Computer Schnittstelle Der von vielen Transhumanisten bevorzugte Ansatz besteht in der Ausrustung von Menschen mit verbessernden Implantaten etwa Mikroprozessoren um die Denkfahigkeiten massiv zu erhohen Uber das weitere Vorgehen im Detail herrscht Uneinigkeit das vorgeschlagene Endziel des Transhumanismus besteht in einer Implementierung menschlichen Bewusstseins in digitalen Speichern von Roboterkorpern oder Cyborgs 10 Auch hier befindet sich die technische Realisierung noch im Anfangsstadium Durchbruche bei der Integration von menschlichem Gehirn und kunstlichen Implantaten vor allem Prothesen zur Behandlung von Behinderungen fuhren gelegentlich zu Euphorie in der Presse 11 12 13 14 15 eine tatsachliche Verbesserung des menschlichen Gehirns durch eine Computerschnittstelle steht allerdings aus Gehirnemulation Eine weitere auch praktisch verfolgte Moglichkeit ist das menschliche Gehirn im Computer vollstandig nachzubilden und so dessen Funktionen beliebig schnell zu simulieren schwache Superintelligenz Dazu gibt es zwei Grossprojekte die BRAIN Initiative beschrankt sich zunachst auf eine vollstandige Kartierung Das Human Brain Project visiert eine vollstandige Simulation an Die vollstandige Simulation ist seit 2005 Zielsetzung des Blue Brain Projekts Dessen Leiter Henry Markram hielt 2009 ein kunstliches Gehirn bis 2019 fur moglich 7 2007 wurde ein Etappenziel erreicht die Simulierung einer kompletten neurokortikalen Saule bestehend aus 100 Millionen Synapsen das Grosshirn besteht aus 1 Million miteinander vernetzter Saulen 2013 gelang es dem japanischen Forschungsinstitut RIKEN in Kooperation mit dem Forschungszentrum Julich auf dem 10 Petaflop K Supercomputer in 40 Minuten Rechenzeit etwa 1 der Gehirnaktivitat fur 1 Sekunde zu simulieren 1 7 Milliarden Neuronen mit 10 Billionen Synapsen Der Leiter der Forschungsgruppe prognostizierte 2013 dass mit der innerhalb der nachsten Dekade zu erwartenden neuen Generation von Exa Scale Computern das ganze Gehirn vollstandig simulierbar sei 16 Wertgebungsproblem BearbeitenEine Superintelligenz soll in der Lage sein sich selbst Ziele und Werte zu geben und diese situationsbedingt auch anpassen zu konnen 17 Beispiele fur solche Werte seien Freiheit Gerechtigkeit Gluck oder konkreter Minimiere Ungerechtigkeit und unnotiges Leid sei freundlich maximiere den Unternehmensgewinn Technisch muss die Wertgebung mit einer mathematischen Nutzenfunktion programmiert werden die Istzustanden der Umgebung der Superintelligenz einen messbaren Nutzen zuweist In heutigen Programmiersprachen existieren jedoch keine Wertbegriffe wie Gluck und andere Die Verwendung von Begriffen aus der Philosophie erweist sich als ungelost schwierig da sie nicht in Computersyntax umsetzbar sind Das Problem ist ferner spiegelbildlich zum Problem des Menschen selbst Ziele und Werte messbar und nachprufbar zu formulieren und zu kodifizieren da Werte unserer komplexen Welt entspringen der wir uns oft nicht bewusst sind Auch gibt es gute Grunde zu der Annahme dass unsere moralischen Vorstellungen in verschiedener Hinsicht falsch sind 18 so dass sie fur eine Ubernahme in ein KI System ungeeignet wenn nicht gefahrlich waren Wird der Ansatz verfolgt dem System zunachst moglichst einfache Werte von aussen vorzugeben aus denen es selbst mit Hilfe der ihm eigenen Saat KI seine Wertgebung weiterentwickeln und erlernen soll treten vielfaltige neue Probleme auf Sie konnten darin bestehen dass Werte in einer veranderten Welt nicht mehr erwunscht sind oder dass unvorhergesehene Zielkonflikte entstehen und erwartet wird dass das System sie erkennt und korrigiert Vielfach sind Zielkonflikte aber nicht auflosbar 19 Das Wertgebungsproblem ist somit ungelost Es ist nicht bekannt wie eine Superintelligenz auf dem Weg uber Wertlernen verstandliche menschliche Werte installieren konnte 20 Selbst wenn das Problem gelost ware existierte das nachste Problem das darin besteht welche Werte gewahlt werden sollen und welche Auswahlkriterien hierfur zu verwenden sind Weitere Problemkreise entstehen Sollen die Absichten der Superintelligenz vor der Ausfuhrung nochmals durch Menschen uberpruft werden Ist das von Menschen angesichts der Komplexitat der Fragestellungen im notwendigen Zeitrahmen uberhaupt leistbar Lasst das System eine solche Kontrolle dauerhaft zu Kontrollproblem BearbeitenAus einer aus Sicht der Menschen falschen oder unzureichenden Wertgebung fur die Superintelligenz resultiert das Kontrollproblem Dieses besteht darin sicherzustellen dass die Menschheit die Kontrolle uber die Maschine behalt Nick Bostrom demonstriert das Problem an folgendem Beispiel Stellen Sie sich eine Maschine vor die mit dem Ziel programmiert wurde moglichst viele Buroklammern herzustellen zum Beispiel in einer Fabrik Diese Maschine hasst die Menschen nicht Sie will sich auch nicht aus ihrer Unterjochung befreien Alles was sie antreibt ist Buroklammern zu produzieren je mehr desto besser Um dieses Ziel zu erreichen muss die Maschine funktionsfahig bleiben Das weiss sie Also wird sie um jeden Preis verhindern dass Menschen sie ausschalten Sie wird alles tun um ihre Energiezufuhr zu sichern Und sie wird wachsen und selbst dann nicht aufhoren wenn sie die Menschheit die Erde und die Milchstrasse zu Buroklammern verarbeitet hat Das ergibt sich logisch aus ihrer Zielvorgabe die sie nicht hinterfragt sondern bestmoglich erfullt 21 Wie kann diese Entwicklung verhindert werden Bostrom beschreibt hierzu prinzipiell zwei Faktoren Der erste betrifft die Motivation der Konstrukteure der superintelligenten Maschine Entwickeln sie die Maschine zu ihrem personlichen Vorteil oder aus wissenschaftlichem Interesse oder zum Wohle der Menschheit Dieser Gefahr kann durch Kontrolle des Entwicklers durch den Auftraggeber gebannt werden Der zweite Faktor betrifft die Kontrolle der Superintelligenz durch ihre Konstrukteure Kann eine am Ende der Entwicklung hoher qualifizierte Maschine durch einen geringer qualifizierten Menschen uberwacht werden Die dazu notwendigen Kontrollmassnahmen mussten dann vorab eingeplant und in die Maschine eingebaut werden ohne dass diese im Nachhinein durch die Maschine selbst wieder manipuliert werden konnen Hierzu gibt es zwei Ansatze Kontrolle der Fahigkeiten und Kontrolle der Motivation der Maschine Entgleitet auch nur eine der beiden kann die Superintelligenz die Kontrolle uber die Menschheit erlangen 22 Gefahrenpotential BearbeitenIm Zusammenhang mit Superintelligenz sprach bereits I J Good von einer moglichen Intelligenzexplosion zu der es im Kreislauf einer rekursiven Selbstverbesserung kommen konnte 3 Heute wird dieses Szenario als ein Prozess in mehreren Stufen dargestellt 23 Zunachst hat das gegenwartige System Fahigkeiten weit unter menschlichem Basisniveau definiert als allgemeine intellektuelle Fahigkeit Zu einem zukunftigen Zeitpunkt erreicht es dieses Niveau Nick Bostrom 24 bezeichnet dieses Niveau als Beginn des Takeoffs Bei weiterem kontinuierlichem Fortschritt erwirbt die Superintelligenz die kombinierten intellektuellen Fahigkeiten der gesamten Menschheit Das System wird zu einer starken Superintelligenz und schraubt sich schliesslich selbst auf eine Ebene oberhalb der vereinten intellektuellen Moglichkeiten der gegenwartigen Menschheit Der Takeoff ist hier zu Ende die Systemintelligenz nimmt nur noch langsam zu Wahrend des Takeoffs konnte das System eine kritische Schwelle uberschreiten Ab dieser Schwelle sind die Verbesserungen des Systems in der Mehrheit systemimmanent Eingriffe von aussen sind nur noch wenig relevant Die Dauer des Takeoffs ist von vielen Faktoren abhangig Akzellerationseffekte des Systems werden unter dem Begriff Optimierungskraft hemmende Effekte unter dem Begriff Widerstand zusammengefasst Die Rate der Veranderung also die Beschleunigungsrate fur eine mogliche Intelligenzexplosion ist dann nach Bostrom Optimierungskraft Widerstand Faktoren die die Optimierungskraft oder den Widerstand des Systems beeinflussen sind etwa die Frage ob nur eine Superintelligenz den Prozess bestreitet oder ob mehrere oder gar viele Superintelligenzien im Wettbewerb gegeneinander stehen Ferner ist entscheidend welcher Prozentsatz des Bruttoweltprodukts fur die Entwicklung einer oder vieler Superintelligenzen investiert wird Konstruktionsaufwand Schnelle drastische Hardwareverbesserungen waren ein Indiz fur einen schnellen Takeoff und damit fur eine Intelligenzexplosion 25 Sie konnte in wenigen Tagen oder Stunden ablaufen Die Dimension einer Intelligenzexplosion wird beispielhaft damit beschrieben dass das weltweite BIP sich in einem oder zwei Jahren verdoppelt oder dass das System eine Dissertation in wenigen Minuten anfertigen konnte Der Mensch hatte in diesem Fall kaum Zeit zu reagieren Sein Schicksal hinge im Wesentlichen von bereits zuvor getroffenen Vorkehrungen ab 26 Er wurde sich im Extremfall der Nicht mehr Handlungsfahigkeit einer Technologischen Singularitat gegenubersehen Ein gemassigter Takeoff wird nach der Analyse von Bostrom zu geopolitischen sozialen und okonomischen Verwerfungen fuhren wenn Interessengruppen versuchen sich angesichts des bevorstehenden drastischen Wandels machtpolitisch neu zu positionieren Ein langsamer Takeoff ist nach Bostrom unwahrscheinlich 27 Kritik BearbeitenDie philosophischen und ethischen Implikationen einer Superintelligenz werden innerhalb wie ausserhalb der transhumanistischen Bewegung kontrovers diskutiert Es gibt verschiedenartige Kritik an dem Ziel eine Superintelligenz zu erschaffen Skeptiker zweifeln ob eine Superintelligenz uberhaupt technisch realisierbar ist Die Vorgange in einem biologischen Gehirn seien viel zu komplex um sie zu entschlusseln und zudem viel zu komplex um sie mit einem technischen Gerat zu imitieren Auch die Verbindung von menschlichen Synapsen zur Elektronik in einem Cyborg sei problembehaftet da ein schnelles aber starres elektronisches System mit langsameren aber lebendigen Hirnkomplexen nicht einfach verdrahtet werden konne Dieser Kritik wird zum einen entgegengehalten dass die Erkenntnisse uber die genauen Vorgange in einem menschlichen Gehirn nicht prinzipiell zu komplex sind um jemals verstanden zu werden Ein praktisches Beispiel sind hochentwickelte elektronische Horgerate Zum anderen sei kunstliche Intelligenz keineswegs auf die Imitation eines biologischen Gehirns festgelegt sondern konne ihre Intelligenz auch auf einer anderen Funktionsweise begrunden Andere Kritiker storen sich an der Hybris den Menschen verbessern zu wollen Gerade die Verbesserung durch Gentechnik ist als Eugenik in vielen Landern gesellschaftlich geachtet Es besteht ausserdem die Frage ob superintelligente Wesen ihre Fahigkeiten zum Wohle oder zum Nachteil der Menschheit einsetzen Zwar meinen Befurworter dass eine Superintelligenz per definitionem charakterlich besser sein musse als ein normaler heutiger Mensch aber bei einem Versuch sie zu erschaffen wurde die Vision moglicherweise nur zum Teil umgesetzt und eine ubelwollende Intelligenz erschaffen Es ist anzumerken dass auch die legitimen Interessen verschiedener Parteien kollidieren konnen Schliesslich besteht eine Abneigung sich von moglicherweise fehlerhaften Implantaten abhangig zu machen Gerade die Verfechter des Transhumanismus argumentieren dass die Verweigerer der neuen Technik von der Avantgarde fruher oder spater verdrangt oder abgehangt werden Die Folge ware so die Kritiker dass reichere Menschen sich leistungsfahigere Erganzungen zu ihrem Gehirn erkaufen konnen und mit ihrer erhohten Geisteskapazitat die nicht aufgerusteten Menschen umso besser unterdrucken oder ausbeuten konnen Vereinzelt wird deshalb fur einen Stopp der Entwicklung und Implementierung kunstlicher Intelligenz pladiert der auch vor dem Begriff der Artificial General Intelligence AGI sowie der moglichen Ausloschung der Menschheit diskutiert wird 28 In der Fiktion BearbeitenViele Science Fiction Romane und Filme kennen Uberwesen Die zumeist scheinbar allwissenden oder allmachtigen Wesen erfullen haufig die eingangs genannten Kriterien der Superintelligenz Die Idee einer komplett vergeistigten d h korperlosen Superintelligenz tauchte erstmals im Jahre 1962 in der Science Fiction Serie Perry Rhodan in Form der Superintelligenz ES auf Siehe auch BearbeitenKunstliches Leben Golem XIVWeblinks BearbeitenShane Legg Machine Super Intelligence Dissertation Universitat Lugano 2008 PDF 200 S 1 6 MB Nick Bostrom Superintelligence Talks at Google YouTube Elon Musk Nick Bostrom Ray Kurzweil Superintelligence Elon Musk and other panellists talk AI and answer the question If we succeed in building human level Artificial general intelligence AGI then what are the likely outcomes What would we like to happen YouTube Bill Gates Joins Stephen Hawking in Fears of a Coming Threat from Superintelligence Einzelnachweise Bearbeiten a b c Nick Bostrom How long before Superintelligence letzte Aktualisierung 2005 Begriffe des Transhumanismus Abschnitt Was ist eine Superintelligenz Memento des Originals vom 16 Juli 2011 im Internet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot www transhumanism org a b I J Good Speculations Concerning the First Ultraintelligent Machine 1965 Memento des Originals vom 4 Marz 2016 im Internet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot webdocs cs ualberta ca Mihai Nadin Mind Antizipation und Chaos Aus Computer ubernehmen die Macht Vom Siegeszug der kunstlichen Intelligenz Hamburg 1999 S 136 wird von Dirk Evers Tubingen in Der Mensch als Turing Maschine Die Frage nach der kunstlichen Intelligenz in philosophischer und theologischer Perspektive online PDF 71 kB Bostrom et al FAQ von 1999 a b Artificial brain 10 years away BBC News 22 Juli 2009 abgerufen am 19 Juni 2013 englisch Hans Moravec When will computer hardware match the human brain 1997 Memento des Originals vom 15 Juni 2006 im Internet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot www transhumanist com Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 68ff Gerhard Frohlich Techno Utopien der Unsterblichkeit aus Informatik und Physik In Ulrich Becker Klaus Feldmann Friedrich Johannsen Hrsg Tod und Sterben in Europa Neukirchener Verlag Neukirchen Vluyn 1997 ISBN 3 7887 1569 3 S 184 213 jku at PDF 81 kB Erste gedankengesteuerte Armprothese In derstandard at Prothesen Hoher schneller weiter In zeit de Spiegel 1997 Als Cyborg ewig leben Schrittmacher furs Gehirn In focus de Spiegel 2008 Die Sprache des Gehirns Largest neuronal network simulation achieved using K computer RIKEN 2 August 2013 abgerufen am 13 August 2013 englisch Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 260 291 Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 299 Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 270ff Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 277 Interview der Zeit mit Nick Bostrom Die Zukunft der Evolution Kommentar von Bertram Kohler zu dem Buch Superintelligenz von Nick Bostrom Grafik Die Form des Takeoffs nach Bostom 2016 S 94 Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 94 Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 338f Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 95 Bostrom Nick Superintelligenz Szenarien einer kommenden Revolution Suhrkamp 2016 S 96f Emile P Torres How AI could accidentally extinguish humankind In The Washington Post 31 August 2022 abgerufen am 6 September 2022 amerikanisches Englisch Abgerufen von https de wikipedia org w index php title Superintelligenz amp oldid 238810129