www.wikidata.de-de.nina.az
Ende der Menschheit bezeichnet das Aussterben aller Menschen Kunstlerische Darstellung eines grossen Asteroideneinschlags Ein Asteroid mit gewaltiger Einschlagskraft konnte fur das Aussterben der Dinosaurier verantwortlich gewesen sein und wird eines Tages mit grosser Wahrscheinlichkeit ebenso die Menschheit ausloschen solange diese keine wirksame planetare Verteidigung besitzt oder nicht bereits vorher aus einem anderen Grund ausgestorben ist Fur das Ende der Menschheit existiert eine Vielzahl moglicher Szenarien Deren Ausloser sind vielfaltig beispielsweise Ereignisse kosmischen Ursprungs irdischen Ursprungs oder menschlichen Ursprungs Die verschiedenen Szenarien und ihre Wahrscheinlichkeiten werden daher von Wissenschaftlern unterschiedlicher Disziplinen untersucht beispielsweise Astronomen Naturwissenschaftlern und Zukunftsforschern Auch der Zeitpunkt fur das Ende ist noch ungewiss Einige der Szenarien konnen jederzeit eintreten womit das Ende der Menschheit auch sehr bald oder sogar sofort moglich ist Ein Ereignis das die Menschheit ausloschen kann wird manchmal auch als existenzielles Risiko fur die Menschheit bezeichnet Damit kann aber auch ein Ereignis gemeint sein das die Menschheit in ihrer gewunschten Entwicklung lediglich drastisch und permanent einschrankt 1 zum Beispiel weil es zum Zusammenbruch unserer Zivilisation fuhrt Inhaltsverzeichnis 1 Forschungsgeschichte 2 Mogliche Szenarien naturlichen Ursprungs 2 1 Mogliche Szenarien kosmischen Ursprungs 2 1 1 Ende des Universums 2 1 2 Zerstorung des Planeten 2 1 3 Altern der Sonne 2 1 4 Sonneneruption 2 1 5 Gammablitz 2 1 6 Supernova 2 1 7 Impakt 2 1 8 Nahes Vorbeifliegen eines fremden Himmelskorpers 2 1 9 Vernichtung durch Ausserirdische 2 2 Mogliche Szenarien irdischen Ursprungs 2 2 1 Ausbruch eines Supervulkans 2 2 2 Neues Eiszeitalter 2 2 3 Pandemie 3 Mogliche Szenarien menschlichen Ursprungs 3 1 Umweltzerstorung und globale Erwarmung 3 2 Kriegerische Auseinandersetzungen 3 2 1 Massenvernichtungswaffen 3 2 2 Bioterrorismus 3 3 Autoritare Weltregierung 3 4 Fehlgeleitete technische Entwicklungen 3 4 1 Kunstliche Superintelligenz 3 4 2 Graue Schmiere 3 4 3 Gentechnik 3 5 Eigener Wunsch 4 Wahrscheinlichkeiten und deren Berechnung 4 1 Fermi Paradoxon 4 2 Kognitive Verzerrungen 5 Bedeutung 6 Religiose und mythologische Szenarien 7 Verarbeitung in der Kunst 8 Literatur 9 Weblinks 10 EinzelnachweiseForschungsgeschichte BearbeitenIn der Geschichte wurden schon mehrere wissenschaftlich heute nicht mehr haltbare Szenarien diskutiert In den 1960er Jahren beispielsweise gaben sich sowjetische Wissenschaftler der Vorstellung hin mit Polywasser wurde eine besonders stabile Variante des normalen Wassers bestehen Diese konnte normales Wasser umwandeln das dann aufgrund veranderter Eigenschaften lebensfeindlich ware und so das gesamte Okosystem vernichten wurde Spater stellte sich diese Forschung als pathologische Wissenschaft heraus Wahrend einzelne tatsachliche Bedrohungen wie Atomkrieg oder Klimawandel schon seit mehreren Jahrzehnten intensiv untersucht werden hat die systematische Analyse existenzieller Risiken ungeachtet ihrer enormen Bedeutung 2 erst im Jahre 2002 begonnen 1 Dies mag auch daran liegen dass hochgradig interdisziplinares Wissen zum Erforschen existenzieller Risiken notwendig ist Mogliche Szenarien naturlichen Ursprungs BearbeitenMogliche Szenarien kosmischen Ursprungs Bearbeiten Ende des Universums Bearbeiten Hauptartikel Ende des Universums Zerstorung des Planeten Bearbeiten Hauptartikel Erde Zerstorung Die jederzeit mogliche Zerstorung der Erde fuhrt unausweichlich zum Aussterben der Menschheit solange die Weltraumkolonisierung noch nicht erfolgreich ist Altern der Sonne Bearbeiten Hauptartikel Erde Veranderungen durch das Altern der Sonne Ohne Gegenmassnahmen wird das Altern der Sonne die Lebensbedingungen auf der Erde uber die nachsten Jahrhundertmillionen hinweg stark verandern Sonneneruption Bearbeiten Sonneneruptionen sind gewaltige Protuberanzen auf der Sonnenoberflache in deren Folge die Erde mit Subatomaren Teilchen bombardiert wird die jedoch durch das Erdmagnetfeld abgelenkt werden konnen Allerdings wurden Hauptreihensterne zu denen auch die Sonne gehort bereits dabei beobachtet wie sie bisweilen ihre Leuchtkraft um den Faktor 20 erhohen Einige Forscher meinen dass dies ein Zeichen fur aussergewohnliche Super Protuberanzen sein konnte Es ist nicht auszuschliessen dass die Sonne derartige Strahlungsausbruche ebenfalls zur Erde senden konnte Diese hatten moglicherweise ahnliche Effekte auf das irdische Leben wie ein Gammablitz 3 Gammablitz Bearbeiten Gammablitze englisch gamma ray bursts abgekurzt GRB sind Wellen intensiver Strahlung die bei gewissen astronomischen Ereignissen entstehen und die sich mit Lichtgeschwindigkeit durch den Kosmos begeben Sollte ein derartiger Blitz mit hinreichender Intensitat also aus weniger als 3000 Lichtjahren Entfernung die Erde treffen wurde die intensive Strahlung nicht tief in die Atmosphare eindringen Stickstoff und Sauerstoff in den Schichten der oberen Atmosphare wurden jedoch zu Stickstoffmonoxid verschmolzen werden das auf Ozon einen ahnlichen Effekt wie FCKWs hat als Folge wurde die Ozonschicht wahrscheinlich unrettbar vernichtet Dies steht jedoch unter der Einschrankung dass die Energie in einem engen Kegel abgestrahlt wird und dieser zufallig direkt auf die Erde gerichtet ist Das UV Licht der Sonne das dann ungebremst die Erdoberflache erreichen konnte wurde wahrscheinlich vor allem das Phytoplankton das dicht unter der Wasseroberflache lebt ausrotten was einen Kollaps des gesamten globalen Okosystems zur Folge haben konnte 4 Dies konnte zu einem Massenaussterben auf der Erde fuhren Das Ordovizische Massenaussterben wurde moglicherweise durch einen Gammablitz in Erdnahe verursacht 5 6 7 8 Der Wolf Rayet Stern WR 104 konnte bei seinem Tod einen GRB zur Erde senden und sie so sterilisieren 9 Supernova Bearbeiten Hauptartikel Supernova Eine Nova emittiert hochenergetische Strahlung in enormer Menge Intensitat die bis zu einem gewissen Abstand durchaus zerstorerisch wirken kann Aufgrund der verschiedenen Nova Mechanismen gibt es keinen festen Zahlenwert fur einen sicheren Abstand Impakt Bearbeiten Hauptartikel Impakt Ein Himmelskorper bspw ein Asteroid der mit einem Durchmesser von mehr als 500 m mit hinreichender Geschwindigkeit die Erde trifft hatte ahnliche Folgen wie der Einschlag der als Ursache fur das Aussterben der Dinosaurier angesehen wird 10 Nahes Vorbeifliegen eines fremden Himmelskorpers Bearbeiten Dieses konnte bei ausreichend grosser Masse des Objekts aufgrund dessen Gravitation verschiedene katastrophale Ereignisse verursachen ein Kometenbombardement Beispiel Die Sonne bewegt sich wie die meisten Sterne anscheinend auf einer recht stabilen Bahn um den Mittelpunkt der Milchstrasse Es gibt aber hin und wieder einzelne Ausreissersterne Der rote Zwerg Gliese 710 bspw soll sich Richtung Sonnensystem bewegen und in etwa 1 3 Millionen Jahren sehr nahe an der Sonne vorbeiziehen Er konnte dann in der Oortschen Wolke so viel Unruhe bewirken dass es zu einem Kometenbombardement des inneren Sonnensystems kommt 11 einen kleineren oder grosseren Orbit um die Sonne siehe Bahnstorung und damit stark veranderte Lebensbedingungen eine Entnahme aus dem SonnensystemVernichtung durch Ausserirdische Bearbeiten Sollte es zum Kontakt zwischen Menschen und extraterrestrischen Zivilisationen kommen konnten diese die Menschheit ausrotten entweder durch einen gezielten wie auch immer begrundeten Genozid durch das Einfuhren fremder Pathogene durch Rauber durch den Raub aller irdischen Rohstoffe oder durch die Ausrottung von Schlusseltierarten 12 Siehe auch Fermi Paradox Mogliche Szenarien irdischen Ursprungs Bearbeiten Siehe auch Kataklysmus Geologie und Naturkatastrophe Ausbruch eines Supervulkans Bearbeiten Hauptartikel Supervulkan Der Ausbruch eines ganzen Vulkankomplexes konnte Effekte die mit einem Nuklearen Winter vergleichbar sind verursachen und so den Fortbestand der Menschheit gefahrden Durch die grossen Rauch und Aschemengen in der Atmosphare sinkt die Temperatur der Erde stark ab und ein grosser Teil der Tier und Pflanzenwelt geht zugrunde Infrage kommt ein Vulkanausbruch mit VEI Starke 7 oder 8 Der Yellowstone gilt als Supervulkan und bricht alle 600 000 bis 700 000 Jahre aus 13 Neues Eiszeitalter Bearbeiten Die Theorie vom Schneeball Erde besagt dass die gesamte Erde mehrmals in der Erdgeschichte eingefroren war was moglicherweise zu einigen der schwersten Krisen und Massenaussterben in der Geschichte des Lebens auf der Erde gefuhrt haben soll 14 Sollte die momentane Warmzeit abrupt enden konnten die Temperatursturze und ihr Einfluss auf die Lebensmittelversorgung das Fortbestehen der Menschheit gefahrden 15 Siehe auch Eiszeitalter Pandemie Bearbeiten Eine globale Pandemie die HIV das neuartige Coronavirus den Schwarzen Tod oder die Spanische Grippe an Virulenz und Letalitat ubertrifft konnte die Menschheit drastisch verkleinern Eine komplette Ausloschung gilt als unwahrscheinlich da es fur einen Erreger schwieriger wird eine grosse Zahl an Menschen zu infizieren je todlicher er ist 16 Allerdings ist anhand von DNA Analysen anderer Saugetierarten nachgewiesen dass diese durch einzelne Krankheiten ausstarben Daraus schliessen manche dass die Menschheit dasselbe Schicksal treffen konnte 17 18 Mogliche Szenarien menschlichen Ursprungs BearbeitenUmweltzerstorung und globale Erwarmung Bearbeiten Hauptartikel Planetare Grenzen Lebensraumzerstorung oder Verseuchung biologischer Systeme Klimaveranderungen wie anthropogene Klimaerwarmung bzw Umweltverschmutzung z B durch radioaktive Stoffe und die damit zusammenhangenden Auswirkungen auf biologische Systeme und ihre Gleichgewichte wie Artensterben z B der Bienen 19 Der Verlust von Biodiversitat unter anderem durch Bejagung Neobiota und Umweltverschmutzung konnte durch gewisse Schlusselereignisse das Ende der Menschheit in Form eines globalen Okozids zur Folge haben 20 Es besteht die Moglichkeit dass die Freisetzung von Treibhausgasen in die Atmosphare sich als stark selbst verstarkender Ruckkopplungsprozess erweisen konnte in den ab einem gewissen Point of no Return weder durch Vermeidungsstrategien noch durch Geoengineering interveniert werden kann Die Erdatmosphare konnte sich dann der Atmosphare der Venus angleichen und Leben ware unmoglich 12 2022 empfahlen Wissenschaftler um Luke Kemp Kristie Ebi Johan Rockstrom Marten Scheffer Hans Joachim Schellnhuber und andere den verstarkten wissenschaftlichen und offentlichen Fokus auf katastrophale und existenzbedrohende Klimaszenarien die bisher in Wahrnehmung und Quantitat stark unterreprasentiert seien 21 Die Kategorisierung der Klimakrise als existenzielles Risiko war zuvor innerhalb der Community immer wieder umstritten da man auch in Worst Case Szenarien von vereinzelten Uberlebenden der Menschheit ausgehen konne 22 23 Neuere Beitrage stellen auch dies in Frage 21 24 Siehe auch Globale Erwarmung All diese Ereignisse konnten auch indirekt die Menschheit ausloschen durch die Auslosung weltweiter Ressourcenkriege 25 Kriegerische Auseinandersetzungen Bearbeiten Siehe auch Dritter Weltkrieg Massenvernichtungswaffen Bearbeiten Hauptartikel Massenvernichtungswaffe Atomkrieg und Nuklearer Holocaust Schon einzelne Atomsprengkopfe konnen Stadte zerstoren und tausende Menschenleben vernichten Bereits die Verwendung eines Bruchteils der weltweiten Arsenale konnte also durch die direkte Wirkung Millionen oder gar Milliarden Menschen toten wahrend die Nachwirkung der Explosionen die Menschheit endgultig ausrotten konnte Vernichtete Infrastruktur vergiftetes Wasser Keimbahnmutationen ansteigende Krebsrate ein kollabierendes Okosystem der Zusammenbruch sozialer Institutionen sowie ein Nuklearer Winter konnten die Uberlebenden der Explosionen bis zur Ausrottung dezimieren 26 Siehe auch Atomkriegsuhr und Weltuntergangsmaschine Bioterrorismus Bearbeiten Hauptartikel Bioterrorismus Entwicklungen in der Biotechnologie der Genetik und der Genomik haben nachhaltige Einflusse auf die globale Sicherheit Der Erreger einer Hyperkrankheit in der Hand von Terroristen konnte das Ende der Menschheit bedeuten 27 Die folgenden Krankheitserreger stellen sogenannte Klasse A Pathogene dar und konnen bereits in ihrer naturlichen Form als Biowaffen verwendet werden 28 Bacillus anthracis Anthrax Clostridium botulinum toxin Botulismus Yersinia pestis Pest Variola major Pocken und verwandte Pockenviren Francisella tularensis Tularamie Virales Hamorrhagisches Fieber Arenaviren Junin Machupo Guanarito Chapare Lassa Lujo Bunyaviren Hantaviren Flaviren Dengue Filoviren Ebola MarburgvirusGenetisch modifizierte Pathogene in Biowaffen z B Ebolapocken sind sicherlich besonders geeignet eine finale Pandemie zu verursachen Autoritare Weltregierung Bearbeiten Eine totalitare Weltregierung konnte durch einen globalen Genozid Omnizid den Fortbestand der gesamten Menschheit bedrohen oder zumindest einen Grossteil der Weltbevolkerung ausrotten wahrend Widerstand durch massive Uberwachung und die Einschrankung von Burgerrechten gefahrdet ware Grosse und machtige Staaten stellen dabei wahrscheinlich eine grossere Bedrohung dar als kleine Schurkenstaaten die den Fortbestand der Menschheit nur mit Massenvernichtungswaffen ernsthaft gefahrden konnen wahrend eine Weltregierung zu einem schleichenden Omnizid in der Lage ware 29 Siehe auch Weltregierung Demozid und Dystopie Fehlgeleitete technische Entwicklungen Bearbeiten Kunstliche Superintelligenz Bearbeiten Kunstlich generierte Intelligenz ware moglicherweise dazu in der Lage menschliches Leben auf der Erde zu vernichten 30 Zu den Wissenschaftlern die diese Ansicht vertreten zahlte auch Stephen Hawking Bereits 2014 konnte sich der Physiker vorstellen dass die bereits vorhandenen Formen kunstlicher Intelligenz so weiter entwickelt werden konnten dass eine Superintelligenz entsteht die der des Menschen uberlegen ware Die eigene Reproduktion entsprechend den eigenen Bedurfnissen zu gestalten ware problemlos moglich und nicht durch biologische Evolution beschrankt wie beim Menschen Ein lernfahiges System wurde sich in seiner Selbstoptimierung regelmassig verbessern und ware somit in der Lage Upgrades von sich selbst zu erschaffen 31 Gemeinsam mit Stuart Jonathan Russell und Max Tegmark veroffentlichte Hawking 2014 eine Stellungnahme in der auch potenzielle Risiken im Umgang mit einer kunstlich geschaffenen Superintelligenz thematisiert werden Die Erschaffung einer Superintelligenz ware nach Ansicht der Wissenschaftler die grosste Zasur in der Geschichte der Menschheit konnte aber auch das letzte Kapitel der Menschheitsgeschichte mit sich bringen 32 Folgende Risiken werden benannt Bereits 1965 erkannte Irving Good dass eine kunstliche Superintelligenz zu Selbstoptimierung in der Lage ware und somit die Finanzmarkte manipulieren konnte und selbststandig Waffen erfinden wurde die sich menschlichen Kontrollmechanismen entziehen wurden Wahrend es bei KI kurzfristig darum geht durch wen sie kontrolliert werden kann sollten langfristige Betrachtungen die Frage ob man sie uberhaupt kontrollieren kann mit einbeziehen 32 Gesicherte Kontrolle todlicher autonomer Waffensysteme die ihre Ziele selbst bestimmen Aufgrund der potenziellen Risiken u a im Kriegseinsatz setzt sich Human Rights Watch fur ein Verbot ein 33 Auch die Vereinten Nationen sehen in diesem Bereich dringenden Handlungsbedarf 34 Veranderungen unserer Wirtschaftssysteme durch technologischen Fortschritt sowie daraus resultierende Massenarbeitslosigkeit haben das Potenzial die Gesellschaft weiter zu spalten und soziale Unruhen auszulosen 35 Siehe hierzu auch The Second Machine Age von Erik Brynjolfsson und Andrew McAfee Wirtschaftsbuch des Jahres 2015 36 Die Dringlichkeit des Problems wird unterschatzt was u a daran erkennbar ist dass sich lediglich folgende universitare Einrichtungen und Non Profit Organisationen mit zukunftigen Risiken fur die Menschheit beschaftigen die auch technologische Bedrohungen mit thematisieren das Future of Humanity Institute 37 das Cambridge Center for Existential Risk 38 das Machine Intelligence Research Institute MIRI 39 sowie das Future of Life Institute 40 Das eigentliche Gefahrenpotenzial besteht also nach Ansicht von Hawkins und Kollegen in einem Kontrollverlust uber eine kunstliche Superintelligenz die durch mangelnde Sicherheitsvorkehrungen und Unterschatzung der Fahigkeiten die ein solches System entwickeln konnte begunstigt wird 32 Im Jahr 2023 unterzeichneten hunderte KI Koryphaen darunter Sam Altman CEO von OpenAI und Demis Hassabis CEO von Google DeepMind den aus einem Satz bestehenden Aufruf des Center for AI Safety Mitigating the risk of extinction from A I should be a global priority alongside other societal scale risks such as pandemics and nuclear war ubersetzt Die Eindammung des Risikos des Aussterbens durch kunstliche Intelligenz sollte neben anderen Risiken gesellschaftlichen Ausmasses wie Pandemien und Atomkrieg eine globale Prioritat sein 41 42 Siehe auch Kunstliche Intelligenz und Superintelligenz Graue Schmiere Bearbeiten Hauptartikel Graue Schmiere Molekulare Nanotechnologie kann zu der Konstruktion von bakteriengrossen sogenannten Assemblern sich selbstvermehrenden Nanorobotern fuhren die sich selbst replizieren und anorganische oder organische Verbindungen fur ihre Replikation benotigen Indem sie bei diesem exponentiell beschleunigenden Prozess die Biosphare vertilgen vergiften oder das Sonnenlicht blockieren konnten sie den Fortbestand der Menschheit und allen Lebens auf der Erde gefahrden Sicherheitsvorkehrungen wie abgeschirmte Aufbewahrung die Beschrankung der Nahrung der Roboter auf seltene Elemente oder einprogrammierte Sperren konnten die Gefahr einer derartigen Katastrophe hypothetisch verringern Ein Auslegungsstorfall oder der Missbrauch der Nanoroboter als Waffe konnte diese Sperren jedoch umgehen 12 Gentechnik Bearbeiten Gentechnisch hergestellte todliche Lebewesen bzw Mikroorganismen konnten die Menschheit nicht nur als Folge von geplantem Bioterrorismus sondern auch versehentlich vernichten Eigener Wunsch Bearbeiten Einige hinterfragen den Selbst Erhalt der Menschheit als Gesamtheit kritisch so zum Beispiel die philosophische Stromung des Antinatalismus oder politische Bewegungen wie das Voluntary Human Extinction Movement Theoretisch ist das zukunftige Aussterben der Menschheit durch die Verbreitung solcher Ideen vorstellbar ebenso die Ausloschung der Menschheit durch einzelne machtige Anhanger der Ansicht im Fortbestand der Menschheit bestehe kein Mehrwert nbsp Der nachfolgende Abschnitt ist nicht hinreichend mit Belegen beispielsweise Einzelnachweisen ausgestattet Angaben ohne ausreichenden Beleg konnten demnachst entfernt werden Bitte hilf Wikipedia indem du die Angaben recherchierst und gute Belege einfugst Manche vertreten die Meinung dass jede Zivilisation zu einem bestimmten Zeitpunkt ihrer Entwicklung so freiwillig ihren eigenen Kollaps herbeifuhrt Diese These dient auch als mogliche Losung fur das Fermi Paradoxon siehe unten Wahrscheinlichkeiten und deren Berechnung BearbeitenWissenschaftler und andere Menschen versuchen Wahrscheinlichkeiten fur ein Ende der Menschheit anhand einer Analyse der ihnen bekannten Risiken zu beziffern Viele dieser Schatzungen sind umstritten beispielsweise die popularwissenschaftlichen Zahlen von Martin Rees Nach einer Uberlegung des Astronomen J Richard Gott und anderen spricht die Wahrscheinlichkeitsrechnung bereits ohne Analyse der Risiken gegen ein langfristiges Uberleben der Menschheit auf einem Niveau einer Weltbevolkerungszahl von mehreren Milliarden Individuen Diese sehr umstrittene Uberlegung wird als Doomsday Argument bezeichnet Die Eintrittswahrscheinlichkeiten mancher Gefahren sind mit betrachtlicher Genauigkeit berechnet worden So betragt beispielsweise die Wahrscheinlichkeit eines Asteroideneinschlags welcher das Aussterben der Menschheit zur Folge hatte 0 0001 eins zu einer Million in den nachsten einhundert Jahren 43 obwohl spatere Forschung eine weit hohere Wahrscheinlichkeit nahelegte 44 Damit vergleichbar sind Vulkanausbruche die schwerwiegend genug sind um katastrophalen Klimawandel zu verursachen ahnlich dem Toba Vulkanausbruch der fast das Aussterben der menschlichen Spezies verursacht hat 45 Die Haufigkeit von derartigen Vulkanausbruchen wird auf etwa einmal alle 50 000 Jahre geschatzt 46 Die Wahrscheinlichkeiten anderer Bedrohungen sind jedoch viel schwieriger zu berechnen Obwohl Experten der Global Catastrophic Risk Conference die Wahrscheinlichkeit fur das Aussterben der menschlichen Spezies innerhalb der nachsten 100 Jahre auf 19 schatzten gab es betrachtliche Meinungsverschiedenheiten bezuglich der relativen Bedeutung der jeweiligen Gefahren 47 Es gibt erhebliche methodische Schwierigkeiten beim Abschatzen dieser Risiken Die meiste Aufmerksamkeit wurde Risiken gewidmet die die menschliche Zivilisation in den nachsten hundert Jahren bedrohen aber das Vorhersagen uber diesen Zeitraum gestaltet sich als sehr schwierig Alle Bedrohungen deren Ursprung in der Natur liegt verhalten sich relativ konstant obwohl neue Risiken entdeckt werden konnten Anthropogene Bedrohungen jedoch werden sich wahrscheinlich mit der Entwicklung neuer Technologien dramatisch verandern wahrend Vulkane uber die gesamte Geschichte hinweg eine Bedrohung darstellten spielen nukleare Waffen erst seit dem 20 Jahrhundert eine Rolle Die Geschichte zeigt dass die Fahigkeit die Zukunft vorherzusagen bei fruheren Experten sehr eingeschrankt war gleichwohl konnten moderne probabilistische Vorhersage Methoden wie beispielsweise Prognosemarkte oder traditionellere Vorgehensweisen wie Peer Review die Genauigkeit von Vorhersagen erhohen 48 Bedrohungen menschlichen Ursprungs wie z B nuklearer Krieg oder Nanotechnologie sind noch schwerer vorherzusagen aufgrund der inharenten methodologischen Grenzen in den Sozialwissenschaften Wahrend der Kubakrise schatzte John F Kennedy die Wahrscheinlichkeit eines nuklearen Krieges auf 33 bis 50 Ungeachtet dessen gilt dass es im Allgemeinen sehr schwer ist die Grossenordnung eines dieser Risiken richtig einzuschatzen da sich internationale Beziehungen und technologischer Fortschritt rapide andern konnen Aufgrund von Selektionseffekten durch blosse Beobachtung englisch observation selection effects stellen existenzielle Risiken eine einzigartige Herausforderung fur Vorhersagen dar sogar mehr als andere weit in der Zukunft liegende Ereignisse Anders als bei den meisten anderen Ereignissen ist das Ausbleiben von existenziellen Risiken in der Vergangenheit kein Beleg dafur dass die Wahrscheinlichkeit von in der Zukunft liegenden existenziellen Risiken gering ist Denn hatte sich ein existenzielles Risiko in unserer Vergangenheit ereignet gabe es keine Menschen mehr die dies beobachten konnten 49 Bei existenziellen Risiken kann unsere Vorgehensweise nicht praktisches Herumprobieren sein Es gibt keine Moglichkeit aus Fehlern zu lernen Die reaktive Herangehensweise einfach sehen was passiert Gefahren begrenzen und aus Erfahrung lernen ist unausfuhrbar Nein wir mussen eine proaktive Vorgehensweise wahlen Das erfordert den Weitblick neue Arten von Bedrohungen zu antizipieren und die Bereitschaft entschiedene Praventionsmassnahmen durchzufuhren und deren moralische oder okonomische Kosten zu tragen Nick Bostrom Milan Cirkovic 50 Siehe auch Doomsday Argument Ein unerwartetes oder sehr unwahrscheinliches Ereignis mit hohem existenziellen Risiko wird als Wild Card bezeichnet Fermi Paradoxon Bearbeiten Hauptartikel Fermi Paradoxon Es wurden bereits viele Planeten ausserhalb unseres Sonnensystems entdeckt 51 und es gibt wahrscheinlich noch viel mehr unentdeckte erdahnliche Planeten auf denen Leben entstehen konnte Angesichts der relativen Schnelligkeit mit der sich Leben auf der Erde entwickelt hat und angesichts der enormen Grosse des beobachtbaren Universums scheint es a priori und a posteriori wahrscheinlich dass sich intelligentes Leben auch auf anderen Planeten entwickelt hat Somit scheint das Ausbleiben jeglicher Anzeichen von intelligentem Leben ausserhalb der Erde ein Paradoxon darzustellen Besonders relevant ist das Ausbleiben von grossflachigen von der Erde aus sichtbaren kunstlichen Konstruktionen im All was nahelegt dass wenige bis keine Zivilisationen lange genug uberleben um den Weltraum kolonisieren zu konnen 49 Es gibt eine Reihe von Erklarungen fur das Fermi Paradoxon wie beispielsweise die Hypothese dass die Erde Teil eines galaktischen Zoos sei oder dass die Entstehung von Leben einfach extrem unwahrscheinlich ist Eine weitere Erklarung ist jedoch dass ein Grosser Filter englisch Great Filter existiert der Grosse Filter ist diejenige Eigenschaft unseres Universums welche tote Materie davon abhalt innerhalb eines genugend grossen Zeitraums in intelligentes Leben zu evolvieren und anschliessend das Universum zu besiedeln 52 Falls dieser Filter nun vor uns liegt wird er die Menschheit davon abhalten den Weltraum zu besiedeln 53 Kognitive Verzerrungen Bearbeiten Die Erforschung von kognitiven Verzerrungen offenbart eine Reihe von Tendenzen und Neigungen im Wahrnehmen Urteilen und Denken von Menschen welche nicht den Standards unvoreingenommener Rationalitat entsprechen Viele dieser Verzerrungen beeinflussen die Vorhersage von existenziellen Risiken Die Verfugbarkeitsheuristik beispielsweise konnte Menschen dazu veranlassen die Gefahr existenzieller Risiken zu unterschatzen da offensichtlich noch niemand eines beobachtet hat In ahnlicher Weise bewirkt der Ruckschaufehler dass vergangene Ereignisse vorhersehbarer erscheinen als sie tatsachlich waren 54 was zu ubermassigem Vertrauen in die Fahigkeit die Zukunft vorherzusagen fuhrt Der Konjunktions Fehlschluss englisch Conjunction fallacy tritt auf wenn Menschen die Wahrscheinlichkeit von Konjunktionen uberschatzen z B wenn man glaubt dass eine politische Aktivistin mit grosserer Wahrscheinlichkeit eine feministische Bankangestellte als eine Bankangestellte ist 55 In gleicher Weise unterschatzen Menschen die Wahrscheinlichkeit disjunktiver Ereignisse 56 Die Bedrohung existenzieller Risiken ist hochgradig disjunktiv denn die Ursache kann nuklearer Krieg oder Klimawandel oder Kunstliche Intelligenz oder Bioterrorismus oder ein Asteroideneinschlag sein 57 was dazu fuhrt dass die Plausibilitat existenzieller Risiken unterschatzt wird Bedeutung BearbeitenEinige Wissenschaftler setzen sich eindringlich fur das Verringern existenzieller Risiken ein da zukunftige Generationen davon ausserordentlich profitieren wurden Derek Parfit behauptet dass das Aussterben der Menschheit ein immenser Verlust ware da unsere Nachkommen moglicherweise fur Milliarden Jahre uberleben konnten bevor die ansteigende Hitze der Sonne die Erde unbewohnbar machen wurde 58 Nick Bostrom argumentiert dass der Menschheit mit der Besiedlung des Weltalls sogar noch grossartigere Moglichkeiten offenstehen Falls unsere Nachfahren das All besiedeln konnten sie in der Lage sein eine sehr grosse Anzahl von Menschen zu ernahren und dies moglicherweise fur mehrere Billionen Jahre 59 Deshalb wurde selbst eine nur geringfugige Reduzierung der Wahrscheinlichkeit existenzieller Risiken einen hochst bedeutsamen Einfluss auf die erwartete Anzahl von in der Zukunft existierenden Menschen haben Manche Wissenschaftler stimmen mit den genannten Argumenten nicht uberein Exponentielle Diskontierung konnte diese in der Zukunft liegenden Vorteile viel weniger bedeutsam erscheinen lassen und manche Philosophen bezweifeln dass das Sichern der Existenz zukunftiger Generationen von Wert sei 60 Manche Wirtschaftswissenschaftler haben ebenfalls die Bedeutung existenzieller Risiken diskutiert obwohl in den meisten dieser Diskussionen der Name katastrophale Risiken englisch catastrophic risk verwendet wird Martin Weitzman argumentiert dass moglicherweise die meisten der durch den Klimawandel erwarteten wirtschaftlichen Kosten von der geringen Wahrscheinlichkeit herruhren dass die globale Erwarmung unsere Berechnungen bei weitem ubertrifft und dies katastrophale Schaden zur Folge hat 61 Richard Posner hat argumentiert dass wir im Allgemeinen viel zu wenig gegen Gefahren von riesigem Schadensausmass jedoch gering erscheinender schwer abzuschatzender Wahrscheinlichkeit unternehmen 62 Religiose und mythologische Szenarien Bearbeiten Hauptartikel Apokalyptik und Eschatologie Jungstes Gericht gleichermassen bei Judentum Christentum und Islam Teil der Uberlieferung s a Apokalypse und Millenarismus Im Hinduismus und Buddhismus ist der Weltuntergang nicht einmalig sondern wiederkehrend Ein entsprechender Zyklus wird Kalpa genannt Im Daoismus und Konfuzianismus spricht man vom Weltenende Dies ist nur vage als Ruckkehr von der Vielheit zur Einheit formuliert Ragnarok Weltenbrand Kataklysmus Ekpyrosis MuspilliIm Rahmen religioser Heilserwartungen kann der Weltuntergang Teil der Endzeit sein Verarbeitung in der Kunst Bearbeiten Hauptartikel Weltuntergang in der KunstLiteratur BearbeitenNick Bostrom Milan Cirkovic Global Catastrophic Risks Oxford University Press 2008 Joel Garreau Radical Evolution 2005 Toby Ord The Precipice Existential Risk and the Future of Humanity Bloomsbury Publishing 2020 ISBN 978 1 5266 0021 9 Richard A Posner Catastrophe Oxford University Press 2004 Martin Rees Our Final Hour UK title Our Final Century 2003 ISBN 0 465 06862 6 Phil Torres mit Martin Rees Vorwort Morality Foresight amp Human Flourishing An Introduction to Existential Risks Pitchstone Durham 2017 ISBN 978 1 63431 142 7 Alexei Turchin Structure of the global catastrophe Risks of human extinction in the XXI century 2010 ISBN 978 1 4457 5658 5 Nick Bostrom Superintelligenz Szenarien einer kommenden Revolution 2014 ISBN 3 518 58612 2 Umfangreiches Interview mit Bostrom In The Atlantic englisch Shahar Avin et al Classifying global catastrophic risks Futures 2018 online Hoimar von Ditfurth So lasst uns denn ein Apfelbaumchen pflanzen Es ist soweit 1985 Es beschreibt globale Bedrohungen der Menschheit und wurde ein Bestseller begunstigt unter anderem durch die Katastrophe von Tschernobyl ab April 1986 das damals noch zunehmende Waldsterben das im Rahmen des Kalten Krieges noch anhaltende Wettrusten zwischen West und Ost siehe auch das SDI Programm des US Prasidenten Ronald Reagan in Verbindung mit wirtschaftlicher und politischer Agonie des Ostblocks Konrat Ziegler Samuel Oppenheim Weltuntergang in Sage und Wissenschaft B G Teubner Leipzig 1921 Martin Seils Weltende Weltuntergang In Historisches Worterbuch der Philosophie Band 12 Schwabe Verlag Basel 2004 Sp 464 469 Weblinks BearbeitenEine Website von Nick Bostrom uber existenzielle Risiken Nick Bostrom Existential Risks Analyzing Human Extinction Scenarios Der ursprungliche Artikel Nick Bostrom Astronomical Waste The Opportunity Cost of Delayed Human Development Aufsatz uber die ethische Bedeutung von existenziellen Risiken Global Catastrophic Risks Ein Uberblick von GiveWell einer Organisation die forscht wie man mit seinen Spenden am meisten Gutes tun kann Eliezer Yudkowsky Cognitive biases potentially affecting judgment of global risks PDF 411 kB Aufsatz uber mehrere kognitive Verzerrungen welche unsere Beurteilung von existenziellen Risiken beeintrachtigen Bill Joy Why the future doesn t need us Wired com Einzelnachweise Bearbeiten a b Existential Risks Abgerufen am 30 August 2023 Existential Risk Prevention as Global Priority Abgerufen am 30 September 2023 20 Ways the World Could End Human Origins DISCOVER Magazine 11 Januar 2012 abgerufen am 30 August 2023 Michael Schirber published Exploding Stars Is Earth at Risk 18 Juni 2009 abgerufen am 30 August 2023 englisch Christopher Wanjek Explosions in Space May Have Initiated Ancient Extinction on Earth NASA 6 April 2005 abgerufen am 30 April 2008 Ray burst is extinction suspect BBC 6 April 2005 Abgerufen am 30 April 2008 A L Melott et al Did a gamma ray burst initiate the late Ordovician mass extinction In International Journal of Astrobiology 3 Jahrgang Nr 2 2004 S 55 61 doi 10 1017 S1473550404001910 arxiv astro ph 0309415 bibcode 2004IJAsB 3 55M A L Melott B C Thomas Late Ordovician geographic patterns of extinction compared with simulations of astrophysical ionizing radiation damage In Paleobiology 35 Jahrgang 2009 S 311 320 arxiv 0809 0899 P G Tuthill J D Monnier W C Danchi Letters to Nature A dusty pinwheel nebula around the massive star WR104 In Nature 398 Jahrgang Nr 6727 1999 S 487 doi 10 1038 19033 William Napier Hazards from Comets and Asteroids In Nick Bostrom Milan Cirkovic Hrsg Global Catastrophic Risks Oxford University Press 2008 Besondere Sterne Gliese 710 Abgerufen am 30 August 2023 a b c Existential Risks Analyzing Human Extinction Scenarios Abgerufen am 30 August 2023 Michael R Rampino Super volcanism and other geophysical processes of catastrophic import In Nick Bostrom Milan Cirkovic Hrsg Global Catastrophic Risks Oxford University Press 2008 Joseph Kirschvink Snowball Earth True Polar Wander Origin of Atmospheric Oxygen 7 April 2014 abgerufen am 30 August 2023 SNOWBALL EARTH Abgerufen am 30 August 2023 Claudia Becker The Last Ship Warum ein Virus nie die ganze Menschheit ausloscht In DIE WELT 8 April 2017 welt de abgerufen am 23 Januar 2021 How disease can wipe out an entire species 5 November 2008 abgerufen am 30 August 2023 englisch Brandon Keim Disease Can Cause Extinction of Mammals In Wired ISSN 1059 1028 wired com abgerufen am 30 August 2023 Das weisse Pferd Bienen sichern Uberleben Memento vom 16 April 2012 im Internet Archive Das geht auf keine Kuhhaut Archiviert vom Original abgerufen am 30 August 2023 a b Luke Kemp Chi Xu Joanna Depledge Kristie L Ebi Goodwin Gibbins Climate Endgame Exploring catastrophic climate change scenarios In Proceedings of the National Academy of Sciences Band 119 Nr 34 23 August 2022 ISSN 0027 8424 S e2108146119 doi 10 1073 pnas 2108146119 PMID 35914185 PMC 9407216 freier Volltext pnas org abgerufen am 31 August 2022 Shannon Osaka Kate Yoder Climate change is a catastrophe But is it an existential threat In Grist 3 Marz 2020 abgerufen am 31 August 2022 amerikanisches Englisch Andrew Moseman Kieran Setiya Why do some people call climate change an existential threat In MIT Climate Portal MIT School of Humanities Arts and Social Sciences 12 Juli 2021 abgerufen am 31 August 2022 amerikanisches Englisch Abhishek Kumar Shilpi Nagar Shalini Anand Climate change and existential threats In Global Climate Change Elsevier 2021 ISBN 978 0 12 822928 6 S 1 31 doi 10 1016 b978 0 12 822928 6 00005 8 elsevier com abgerufen am 31 August 2022 Gwynne Dyer Schlachtfeld Erde Klimakriege im 21 Jahrhundert Klett Cotta Stuttgart 2010 ISBN 978 3 608 94611 6 Humanity Could Not Survive a Nuclear War Using Even a Fraction of Existing Arsenals Human Wrongs Watch 27 Dezember 2012 abgerufen am 30 August 2023 amerikanisches Englisch Genetic engineering and biological weapons PMC 1326447 freier Volltext NIAID Emerging Infectious Diseases Pathogens NIH National Institute of Allergy and Infectious Diseases 26 Juli 2018 abgerufen am 30 August 2023 englisch Rogue states as a source of global risk Memento vom 4 Dezember 2014 im Internet Archive Abgerufen am 28 November 2014 Artificial Intelligence as a Positive and Negative Factor in Global Risk Eliezer S Yudkowsky Abgerufen am 30 August 2023 Stephen Hawking warns artificial intelligence could end mankind In BBC News 2 Dezember 2014 bbc com abgerufen am 30 August 2023 a b c Transcending Complacency On Superintelligent Machines 19 April 2014 abgerufen am 30 August 2023 englisch Mary Wareham Stopping Killer Robots In Human Rights Watch 10 August 2020 hrw org abgerufen am 30 August 2023 The Role of the United Nations in Addressing Emerging Technologies in the Area of Lethal Autonomous Weapons Systems United Nations abgerufen am 30 August 2023 englisch Buch The Second Machine Age Wenn Kollege Computer einem den Job wegnimmt Abgerufen am 30 August 2023 Deutscher Wirtschaftsbuchpreis 2015 Hohe Auszeichnung fur The Second Machine Age 9 April 2022 abgerufen am 30 August 2023 Future of Humanity Institute Future of Humanity Institute FHI abgerufen am 30 August 2023 britisches Englisch Centre for the Study of Existential Risk Abgerufen am 30 August 2023 Artificial Intelligence MIRI Abgerufen am 30 August 2023 amerikanisches Englisch Home Abgerufen am 30 August 2023 amerikanisches Englisch Statement on AI Risk CAIS In safe ai Abgerufen am 2 Juni 2023 Kevin Roose A I Poses Risk of Extinction Industry Leaders Warn In The New York Times 30 Mai 2023 ISSN 0362 4331 nytimes com abgerufen am 2 Juni 2023 James Gaverick Matheny Reducing the Risk of Human Extinction In Risk Analysis 27 Jahrgang Nr 5 2007 D J Asher M E Bailey V Emel yanenko W M Napier Earth in the cosmic shooting gallery In The Observatory 2005 125 S 319 322 Stanley H Ambrose Late Pleistocene human population bottlenecks volcanic winter and differentiation of modern humans In Journal of Human Evolution Band 34 Nr 6 1998 ISSN 0047 2484 S 623 651 doi 10 1006 jhev 1998 0219 M R Rampino S H Ambrose Super eruptions as a threat to civilizations on Earth like planets In Icarus 2002 156 S 562 569 Global Catastrophic Risks Survey Technical Report 2008 Future of Humanity Institute Record of the Workshop on Policy Foresight and Global Catastrophic Risks Future of Humanity Institute a b Observation Selection Effects and Global Catastrophic Risks Milan Cirkovic 2008 Nick Bostrom Milan Cirkovic Global Catastrophic Risks 2008 Oxford University Press Jean Schneider Interactive Extra solar Planets Catalog In The Extrasolar Planets Encyclopedia 2011 abgerufen am 23 Juni 2011 englisch The Great Filter Abgerufen am 30 August 2023 Katja Grace Anthropic Reasoning in the Great Filter I knew it would happen remembered probabilities of once future things In Organ Behav Human Perf 13 S 1 16 A Sides D Osherson N Bonini R Viale On the reality of the conjunction fallacy In Memory Cogn 30 2 2002 S 191 198 Tversky Kahneman Judgement under Uncertainty heuristics and biases In Science 185 1974 S 251 284 Eliezer Yudkowsky Cognitive Biases potentially affecting judgements of global risks 2008 Derek Parfit Reasons and Persons Oxford University Press 1984 S 453 454 englisch Nick Bostrom Astronomical Waste The opportunity cost of delayed technological development In Utilitas 15 Jahrgang Nr 3 S 308 314 Jan Narveson Utilitarianism and New Generations In Mind 76 Jahrgang 1967 Martin Weitzman On modeling and interpreting the economics of catastrophic climate change In The Review of Economics and Statistics 91 Jahrgang Nr 1 2009 S 1 19 Richard Posner Catastrophe risk and response Oxford University Press 2004 englisch Abgerufen von https de wikipedia org w index php title Ende der Menschheit amp oldid 237049385