Zum Inhalt springen

Ende der Menschheit und Wacholderbeeröl: Unterschied zwischen den Seiten

aus Wikipedia, der freien Enzyklopädie
(Unterschied zwischen Seiten)
Inhalt gelöscht Inhalt hinzugefügt
Keine Bearbeitungszusammenfassung
 
K Mabschaaf verschob die Seite Wacholderöl nach Wacholderbeeröl: genauer
 
Zeile 1: Zeile 1:
{{Infobox Gefahrstoffkennzeichnung
Ein '''Existentielles Risiko für die Menschheit''' ist ein Ereignis, welches in der Lage ist, auf der Erde entstandenes, intelligentes Leben auszulöschen, oder dessen wünschenswerte Entwicklung drastisch und permanent einzuschränken.<ref>[http://www.jetpress.org/volume9/risks.html Nick Bostrom: Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards]</ref> Sie unterscheiden sich von anderen Formen von Risiken sowohl durch ihren umfassenden Wirkungsbereich, als auch ihr enormes Schadensausmaß. Naturkatastrophen wie [[Supervulkan]]e<ref name="vulkan">Michael R. Rampino: „Super volcanism and other geophysical processes of catastrophic import“. In: Nick Bostrom, Milan Cirkovic (Hg.): Global Catastrophic Risks, Oxford University Press, 2008.</ref> und [[Asteroid]]en,<ref name="asteroid">, William Napier: „Hazards from Comets and Asteroids“. In: Nick Bostrom, Milan Cirkovic (Hg.): Global Catastrophic Risks, Oxford University Press, 2008.</ref> können, falls ausreichend mächtig, existentielle Risiken darstellen, wenngleich Ereignisse menschlichen Ursprungs wie beispielsweise [[Atomkrieg]], [[Bioterrorismus]], [[Künstliche Intelligenz]]<ref name="KI">[http://yudkowsky.net/singularity/ai-risk], Eliezer Yudkowsky: ''Artificial Intelligence as a Positive and Negative Factor in Global Risk.'' In: Nick Bostrom, Milan Cirkovic (Hrsg.): ''Global Catastrophic Risks.'' Oxford University Press, 2008.</ref> oder katastrophaler [[Globale Erwärmung|Klimawandel]]<ref name="weitzman1">{{cite journal|last=Weitzman|first=Martin|title=On modeling and interpreting the economics of catastrophic climate change|journal=The Review of Economics and Statistics|year=2009|volume=91|issue=1|pages=1–19}}</ref> ebenfalls das Fortbestehen intelligenten Lebens auf der Erde bedrohen können.
| Name = Wacholderbeeröl aus ''Juniperus communis L.''
| CAS = 84603-69-0
| Quelle GHS-Kz = NV
| GHS-Piktogramme = {{GHS-Piktogramme|/}}
| GHS-Signalwort =
| H = {{H-Sätze|/}}
| EUH = {{EUH-Sätze|/}}
| P = {{P-Sätze|/}}
| Quelle P =
| Quelle GefStKz = <ref name="Eramex">Datenblatt [http://new.eramex.com/fileadmin/templates/sdb/SDB_Wacholderbeeroel.pdf ''Wacholderbeeröl''] (PDF; 54&nbsp;kB) bei ''Eramex Aromatics'', abgerufen am 9. April 2013.</ref>
| Gefahrensymbole = {{Gefahrensymbole|Xn|N}}
| R = {{R-Sätze|10|43|50/53|65}}
| S = {{S-Sätze|24|37|61|62}}
| MAK =
| ToxDaten = * {{ToxDaten|Typ=LD50|Organismus=Ratte|Applikationsart=oral|Wert=>5000 mg·kg<sup>−1</sup>|Quelle=<ref name="Eramex" />}}
* {{ToxDaten|Typ=LD50|Organismus=Kaninchen|Applikationsart=dermal|Wert=>5000 mg·kg<sup>−1</sup>|Quelle=<ref name="Eramex" />}}
}}
[[Datei:Lüneburger Heide 006.jpg|mini|[[Gemeiner Wacholder|Heide-Wacholder]] (''Juniperus communis'')]]


Als '''Wacholderbeeröl''' bezeichnet man das durch [[Wasserdampfdestillation]] gewonnene [[ätherisches Öl|ätherische Öl]] von reifen getrockneten Wacholderbeeren. Die Ausbeute beträgt 0,8–2 %.<ref name="Römpp">{{RömppOnline|Name=Wacholderbeeröl |Datum=23. Juli 2015 |ID=RD-23-00009 }}</ref>
Während einzelne Bedrohungen wie Atomkrieg oder Klimawandel intensiv untersucht werden, hat die systematische Analyse existentieller Risiken ungeachtet ihrer enormen Bedeutung<ref name="concept">[http://www.existential-risk.org/concept.pdf] (PDF; 978&nbsp;kB), Nick Bostrom: „Existential risk prevention as the most important task for humanity“ (2011).</ref> erst im Jahre 2002 begonnen.<ref>Bostrom, N., Existential Risks. *J. Evol. Technol.,* http://www.jetpress.org/volume9/risks.html</ref> Dies mag auch daran liegen, dass hochgradig interdisziplinäres Wissen zum Erforschen existentieller Risiken notwendig ist.


== Mögliche Szenarien ==
== Eigenschaften ==
Wacholderbeeröl ist farblos bis hellgelb und dünnflüssig. Die [[Dichte]] liegt bei 0,854–0,879 g·ml<sup>−1</sup>, es ist in Wasser unlöslich, in [[Ethanol]] unter leichter Trübung wenig löslich. Das Öl riecht stark [[Terpene|terpenartig]] nach [[Koniferen]] und schmeckt aromatisch-bitter.<ref name="Römpp" />


== Zusammensetzung ==
Verschiedenen Ereignisse stellen ein Existentielles Risiko für die Menschheit oder gar alles Leben auf der Erde dar:
Wacholderbeeröl besteht vor allem aus α-[[Terpinen]] und dem Oxidationsprodukt α-[[Terpinen-4-ol]], weiterhin aus α-[[Pinen]] (36 %), [[Myrcen]] (13 %), [[Caryophyllen]], [[3-Caren]] und [[Sabinen]]. Das Anbaugebiet, der Zeitpunkt der Ernte und die zur Extraktion verwendeten Pflanzenteile beeinflussen die Zusammensetzung. In den Blättern finden sich beispielsweise als Hauptkomponenten Sabinen (19,4–31,3 %), ''trans''-[[Sabinylacetat]] (7,6–24,3 %), β-[[Thujon]] (4,5–25,8 %) sowie Terpinen-4-ol (3,4–13 %).<ref name="Römpp" />


== Verwendung ==
=== Autoritäre Weltregierung / Globaler Demozid ===
Medizinisch wird Wacholderbeeröl als Diuretikum verwendet, in der kosmetischen Industrie dient es als Riechstoff. Die Verwendung in Lebensmitteln ist nicht zugelassen.<ref name="Römpp" />

Eine von [[Islamisten]] oder [[Faschisten]] dominierte Weltregierung könnte durch einen globalen Genozid (Omnizid) den Fortbestand der gesamten Menschheit bedrohen, oder zumindest einen Großteil der Weltbevölkerung ausrotten, während Widerstand durch massive [[Überwachung]] und die Einschränkung von Bürgerrechten gefährdet wäre.
Große und mächtige Staaten stellen dabei wahrscheinlich eine größere Bedrohung dar als kleine [[Schurkenstaat]]en, die den Fortbestand der Menschheit nur mit [[Massenvernichtungswaffe]]n ernsthaft gefährden können, während eine [[Weltregierung]] zu einem schleichenden Omnizid in der Lage wäre.<ref name="Eugen Leitl">[http://postbiota.org/pipermail/tt/2010-November/008158.html „"Rogue states" as a source of global risk.“] Abgerufen am 28. November 2014.</ref>
Derartige Szenarien werden oft in [[Alternativweltgeschichte]]n diskutiert. [[Aldous Huxley]]’s [[Schöne Neue Welt]] und [[George Orwell]]s 1984 sind die bekanntesten Vertreter des Genres.<ref name="Nick Bostrom">[http://www.nickbostrom.com/existential/risks.html "Existential Risks Analyzing Human Extinction Scenarios and Related Hazards“] Abgerufen am 28. November 2014.</ref>
In [[Philip K. Dick]]s Roman [[Das Orakel vom Berge]] werden von den siegreichen [[Nationalsozialisten]] im Jahr 1962 alle Schwarzafrikaner ermordet und zu Schmierfett verarbeitet.

{{Siehe auch|Weltregierung|Demozid}}

=== Nuklearer Holocaust ===

{{Hauptartikel|Nuklearer Holocaust}}

Schon einzelne Atomsprengköpfe können Städte vernichten und tausende Menschenleben zerstören. Bereits die Verwendung eines Bruchteils der weltweiten Arsenale könnte also durch die direkte Wirkung Millionen oder gar Milliarden Menschen töten, während die Nachwirkung der Explosionen die Menschheit endgültig ausrotten könnte:

Vernichtete Infrastruktur, vergiftetes Wasser, Keimbahnmutationen, ansteigende Krebsrate, ein kollabierendes Ökosystem, der Zusammenbruch sozialer Institutionen sowie ein [[Nuklearer Winter]] könnten die Überlebenden der Explosionen bis zur Ausrottung dezimieren.<ref name="Human Wrongs Watch">[http://www.pressenza.com/2012/12/humanity-could-not-survive-a-nuclear-war-using-even-a-fraction-of-existing-arsenals/ Humanity Could Not Survive a Nuclear War Using Even a Fraction of Existing Arsenals] Abgerufen am 28. November 2014.</ref>

=== Umweltkatastrophen ===

Der Verlust von Biodiversität unter anderem durch Bejagung, [[Neobiota]] und [[Umweltverschmutzung]] könnte durch gewisse Schlüsselereignisse das Ende der Menschheit in Form eines globalen [[Ökozid]]s zur Folge haben.<ref>vgl. [http://zeus.zeit.de/text/2005/46/P-Jared_Diamond DIE ZEIT: Das geht auf keine Kuhhaut] und [http://www.das-parlament.de/2005/42/DaspolitischeBuch/001.html Zwischen Kollaps und Epochenwende – Zur Bedeutung des Ökozids für die Gegenwart]</ref>

{{Siehe auch|Umweltkatastrophe}}

=== Pandemien ===

Eine globale [[Pandemie]] die [[HIV]], den Schwarzen Tod oder die [[Spanische Grippe]] an Virulenz und Letalität übertrifft, könnte das Ende der Menschheit bedeuten.
Die [[Quartäre Aussterbewelle#Weitere Erklärungshypothesen|Quartäre Aussterbewelle]] könnte von einer derartigen globalen Seuche ausgelöst worden sein, ein Erklärungsansatz, der als „Hyperkrankheitshypothese“ bekannt ist.<ref name="NBC News">[http://www.nbcnews.com/id/27556747/ns/technology_and_science-science/t/how-disease-can-wipe-out-entire-species/#.VHhz7MnEnLk „How Disease can wipe out an entire Species“] Abgerufen am 28. November 2014.</ref>
Diese wurde durch Ross MacPhee (Mitarbeiter des American Museum of Natural History) und Preston Marx (Aaron Diamond AIDS Research Center und Tulane University) entwickelt, die argumentieren, dass eine hochinfektiöse und tödliche Krankheit eine Schlüsselrolle bei der Dezimierung der Megafauna in Nordamerika gespielt haben könnte. Derartige Krankheiten sind jedoch durch paläontologische Hinweise schwer zu belegen.<ref name="American Museum of Natural History">[http://www.amnh.org/science/biodiversity/extinction/Day1/disease/Bit1.html "How did Hyperdisease cause extinctions? "] Abgerufen am 28. November 2014.</ref>
Das Aussterben der indigenen Rattenspezies auf den [[Weihnachtsinsel (Australien)|Weihnachtsinseln]] könnte direkt durch Flohkrankheiten verursacht worden sein, die von eingeschleppten Ratten verbreitet worden waren.
DNA-Analysen bekräftigten diese Vermutung.<ref name="Wired Science">[http://www.wired.com/2008/11/yes-disease-can/ „Disease Can Cause Extinction of Mammals“] Abgerufen am 28. November 2014.</ref>

=== Bioterrorismus ===

Entwicklungen in der [[Biotechnologie]], der [[Genetik]] und der [[Genomik]] haben nachhaltige Einflüsse auf die Globale Sicherheit. Der Erreger einer Hyperkrankheit in der Hand von Terroristen könnte das Ende der Menschheit bedeuten.<ref name="National Institutes of Health-1">[http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1326447/ „Genetic engineering and biological weapons“] Abgerufen am 28. November 2014.</ref>
Die folgenden Krankheitserreger stellen sogenannte Klasse-A-Pathogene dar und können bereits in ihrer natürlichen Form als Biowaffen verwendet werden.<ref name="National Institutes of Health-2">[http://www.niaid.nih.gov/topics/biodefenserelated/biodefense/pages/cata.aspx „NIAID Biodefense Research NIAID Category A, B, and C Priority Pathogens“] Abgerufen am 28. November 2014.</ref>

#Bacillus anthracis ([[Milzbrand|Anthrax]])
#Clostridium botulinum toxin ([[Botulismus]])
#Yersinia pestis ([[Pest]])
#Variola major ([[Pocken]]) und verwandte Pockenviren
#Francisella tularensis ([[Tularämie]])
#Virales [[Hämorrhagisches Fieber]]
#Arenaviren: Junin, Machupo, Guanarito, Chapare Lassa, Lujo
#Bunyaviren
#[[Hantaviren]]
#Flaviren
#Dengue
#Filovieren
#[[Ebolavirus|Ebola]]
#[[Marburgvirus]]

Genetisch Modifizierte Pathogenen in Biowaffen (z.&nbsp;B. [[Ebolapocken]]) sind sicherlich besonders geeignet eine finale [[Pandemie]] zu verursachen.

{{Siehe auch|Bioterrorismus}}

=== Graue Schmiere ===

{{Hauptartikel|Graue Schmiere}}

Molekulare [[Nanotechnologie]] kann durchaus zu der Konstruktion von bakteriengroßen [[Assembler (Nanotechnologie)|Robotern]] führen, die sich selbst replizieren und anorganische oder organische Verbindungen für ihre Replikation benötigen. Indem sie bei diesem exponentiell beschleunigenden Prozess die [[Biosphäre]] vertilgen, vergiften oder das Sonnenlicht blockieren, könnten sie den Fortbestand der Menschheit und allen Lebens auf der Erde gefährden.
Sicherheitsvorkehrungen wie abgeschirmte Aufbewahrung, die Beschränkung der „Nahrung“ der Roboter auf seltene Elemente oder einprogrammierte Sperren könnten die Gefahr einer derartigen Katastrophe hypothetisch verringern. – Ein [[Auslegungsstörfall]] oder der Missbrauch der Nanoroboter als [[Waffe]] könnte diese Sperren jedoch umgehen.<ref name="Nick Bostrom" />

=== Eskalierende Globale Erwärmung ===

Es besteht die Möglichkeit, dass die Freisetzung von [[Treibhausgas]]en in die Atmosphäre sich als stark selbst verstärkender Rückkopplungsprozess erweisen könnte, in den ab einen gewissen [[Point of no Return]] weder durch [[Globale Erwärmung#Vermeidungsstrategien|Vermeidungsstrategien]] noch durch [[Geoengineering]] interveniert werden kann. Die Erdatmosphäre könnte sich dann der der [[Venus (Planet)|Venus]] angleichen und Leben wäre unmöglich.<ref name="Nick Bostrom" />

{{Siehe auch|Globale Erwärmung}}

=== Neues Eiszeitalter/Zweite Schneeball Erde ===

Die Theorie vom „[[Schneeball Erde]]“ besagt, dass die gesamte Erde mehrmals in der Erdgeschichte eingefroren war, was möglicherweise zu einigen der schwersten Krisen und Massenaussterben in der Geschichte des Lebens auf der Erde geführt haben soll.<ref name="Joseph L. Kirschvink-1">[http://web.gps.caltech.edu/~jkirschvink/ "Calltech Education“] Abgerufen am 28. November 2014.</ref>

Sollte die momentane [[Warmzeit]] abrupt enden, könnten die Temperaturstürze und ihr Einfluss auf die Lebensmittelversorgung das Fortbestehen der Menschheit gefährden.<ref name="Joseph L. Kirschvink-2">[http://www.snowballearth.org/who.html "Who originated the concept of snowball earth?“] Abgerufen am 28. November 2014.</ref>

{{Siehe auch|Eiszeitalter}}

=== Ausbruch eines Supervulkans ===
{{Hauptartikel|Supervulkan}}

Der Ausbruch eines ganzen Vulkankomplexes könnte Effekte, die mit einem Nuklearen Winter vergleichbar sind, verursachen und so den Fortbestand der Menschheit gefährden.

=== Impakt eines Meteoriten ===
{{Hauptartikel|Impakt}}

Ein Objekt mit einem Durchmesser von mehr als 500&nbsp;m, das mit hinreichender Geschwindigkeit die Erde trifft, könnte das Ende der Menschheit verursachen.

=== Gammablitze ===

[[Gammablitze]] sind Wellen intensiver [[Strahlung]], die bei gewissen astronomischen Ereignissen entstehen und die sich mit Lichtgeschwindigkeit durch den Kosmos begeben. Sollte ein derartiger Blitz mit hinreichender Intensität die Erde treffen, würde die intensive Strahlung nicht tief in die Atmosphäre eindringen. [[Stickstoff]] und [[Sauerstoff]] in den Schichten der oberen Atmosphäre würden jedoch zu [[Stickstoffmonoxid]] verschmolzen werden, das auf [[Ozon]] einen ähnlichen Effekt wie [[FCKW]]´s hat, als Folge würde die Ozonschicht wahrscheinlich unrettbar vernichtet.

Das [[UV-Licht]] der Sonne, das dann ungebremst die Erdoberfläche erreichen könnte, würde wahrscheinlich vor allem das [[Phytoplankton]], das dicht unter der Wasseroberfläche lebt, ausrotten, was einen Kollaps des gesamten globalen Ökosystems zur Folge haben könnte.<ref name="Michael Schirber">[http://www.space.com/6855-exploding-stars-earth-risk.html ''Exploding Stars: Is Earth at Risk?''] Abgerufen am 28. November 2014.</ref>

Das [[Ordovizisches Massenaussterben#Gammablitz|Ordovizisches Massenaussterben]] wurde möglicherweise durch einen Gammablitz in Erdnähe verursacht.<ref>{{cite web |url=http://www.nasa.gov/vision/universe/starsgalaxies/gammaray_extinction.html |title=Explosions in Space May Have Initiated Ancient Extinction on Earth |accessdate=2008-04-30 |last= Wanjek |first=Christopher |date=2005-04-06 |publisher=NASA}}</ref><ref>{{cite news |url=http://news.bbc.co.uk/1/hi/sci/tech/4433963.stm |title=Ray burst is extinction suspect |accessdate=2008-04-30 |date=2005-04-06 |publisher=BBC}}</ref><ref>{{cite journal
| author=Melott, A.L. ''et al''
| title=Did a gamma-ray burst initiate the late Ordovician mass extinction?
| journal=International Journal of Astrobiology
| year=2004 | volume=3 | issue=2 | pages=55–61
| arxiv=astro-ph/0309415
| doi = 10.1017/S1473550404001910 | bibcode=2004IJAsB...3...55M}}</ref><ref>{{cite journal
|author=Melott, A.L. and Thomas, B.C.
|title=Late Ordovician geographic patterns of extinction compared with simulations of astrophysical ionizing radiation damage
|journal=Paleobiology |year=2009 |volume=35 |pages=311–320
|arxiv= arXiv:0809.0899}}</ref>
Der Wolf-Rayet-Stern [[WR 104]] könnte bei seinem Tod einen GRB zur Erde senden und sie so sterilisieren.<ref name="tuthill99">{{cite journal
| doi = 10.1038/19033
| year = 1999
| last1 = Tuthill | first1 = P. G.
| journal = Nature
| title = Letters to Nature: A dusty pinwheel nebula around the massive star WR104
| volume = 398
| issue = 6727
| pages = 487
| last2 = Monnier | first2 = J. D.
| last3 = Danchi | first3 = W. C.
}}</ref>

=== Massive Sonneneruptionen ===
[[Sonneneruption]]en sind gewaltige Protuberanzen auf der Sonnenoberfläche, in deren Folge die Erde mit Subatomaren Teilchen bombardiert wird, die jedoch durch das [[Erdmagnetfeld]] abgelenkt werden können. Allerdings wurden Hauptreihensterne, zu denen auch die Sonne gehört, bereits dabei beobachtet, wie sie bisweilen ihre Leuchtkraft um den Faktor 20 erhöhen. Einige Forscher meinen, dass dies ein Zeichen für außergewöhnliche „Super-Protuberanzen“ sein könnte. Es ist nicht auszuschließen, dass die Sonne derartige Strahlungsausbrüche ebenfalls zur Erde senden könnte. Diese hätten möglicherweise ähnliche Effekte auf das irdische Leben wie ein Gammablitz.<ref name="Corey S. Powell, Diane Martindale">[http://discovermagazine.com/2000/oct/featworld 20 Ways the World Could End] Abgerufen am 28. November 2014.</ref>

=== Eintritt des Sonnensystems in eine Dunkelwolke ===
Eine Dunkelwolke ist eine Wolke aus [[Interstellare Materie|kosmischem Staub]], die das [[Sonnensystem]] an Größe bei weitem übertrifft und bis zu 150 [[Lichtjahr]]e durchmessen kann. Wenn das Sonnensystem durch einen solchen Nebel driften sollte, könnte der kosmische Staub das Licht der Sonne und der Sterne verdunkeln und damit die [[Photosynthese]] stören oder verunmöglichen.
Auch wenn das [[Magnetfeld]] der Sonne eine gewisse Menge an kosmischem Staub abzuhalten vermag, würde die in einer Dunkelwolke herrschende Dichte von 100 bis 300 Molekülen pro cm³ dieses Feld wohl überfordern. Einige Forscher vermuten einen derartigen „Nebel-Winter“ hinter vergangenen [[Eiszeit]]en und [[Massensterben]].<ref name="Cliff Weathers">[http://www.alternet.org/environment/how-will-humans-meet-their-end-5-cosmic-risks "How Will Humans Meet Their End? 5 Cosmic Risks“] Abgerufen am 29. November 2014.</ref>

Wir können zwar ohne Sonnenschein leben, jedoch würde eine Dunkelwolke uns darin einschränken, andere existenzielle Bedrohungen abzuwenden.

{{Siehe auch|Dunkelwolke}}

=== Aussterben durch den Einfluss von Künstlicher Intelligenz ===
Eine überlegene [[künstliche Intelligenz]] könnte den Fortbestand der gesamten Menschheit gefährden. Entweder indem sie diese willentlich ausrottet oder im Zuge ihrer Aufgabenerfüllung oder aus Gleichgültigkeit heraus unsere Lebensgrundlage, die [[Erde]] oder gar das [[Universum]] vernichtet; gewisse Gedankenexperimente lassen es gar nicht unmöglich erscheinen, dass eine Superintelligenz das Sonnensystem in [[Computronium]] verwandelt, ohne direkt bösartige Absichten zu haben.

Eine solche Intelligenz könnte durch intensives Studium der [[Neurologie]] und [[Kybernetik]] gezielt erschaffen werden oder aus dem Eintreten in eine [[Technologische Singularität]] hervorgehen, wenn Maschinen beginnen sich derart selbst zu verbessern, dass das menschliche Verständnis nicht mehr Schritt halten kann. Ebenfalls möglich wäre das Entstehen einer derartigen Intelligenz, wenn die Verwendung von [[Brain-Computer-Interface]]s und [[Nanomedizin]] oder vergleichbaren Technologien die Kapazitäten eines oder vieler Menschen derartig verändern, dass ein neues, andersartiges und überlegenes Bewusstsein entsteht.

Das [[Blue Brain]]-Projekt, [[ACT-R]], [[Soar (Kognition)|SOAR]], [[Cyc]], [[A.L.I.C.E.]] und [[Watson (Künstliche Intelligenz)|Watson]] sind nur einige der Projekte, die das Entstehen einer künstlichen Intelligenz begünstigen könnten oder sogar direkt darauf abzielen.

In der [[Popkultur]] wird diese Idee prominent elaboriert: Mit Skynet, einer künstlichen Intelligenz, die im Film [[Terminator (Film)|Terminator]], sofort nachdem sie das Bewusstsein erlangt, einen globalen Atomkrieg beginnt und danach alles daran setzt, die überlebenden Menschen mit zeitreisenden Kampfrobotern auszurotten; oder auch Colossus aus dem gleichnamigen [[Colossus (Film)|Film]], der die gesamte Menschheit mit Atomraketen in Schach hält und damit droht, sie bei Gegenwehr auszurotten.

{{Siehe auch|Künstliche Intelligenz}}

=== Aussterben durch den Einfluss von Außerirdischen ===
Sollte es zum Kontakt zwischen Menschen und extraterrestrischen Zivilisationen kommen, könnten diese die Menschheit ausrotten, entweder durch einen gezielten, wie auch immer begründeten [[Genozid]], durch das Einführen fremder [[Pathogene]]n, durch Räuber, durch den Raub aller irdischen [[Rohstoff]]e oder durch die Ausrottung von Schlüsseltierarten.<ref name="Nick Bostrom" />

{{Siehe auch|Außerirdisches Leben}}

== Falsifizierte Szenarien ==
=== Göttliche Intervention ===
Im jüdischen [[Buch Daniel]], der christlichen [[Offenbarung des Johannes]], der islamischen Vorstellung vom Nahen des [[Mahdi]] und auch vielen weiteren religiösen Mythen, sind Vorstellungen einer göttlichen Intervention verankert, die das Ende des Lebens wie wir es kennen, der Erde oder des Universums selbst zur Folge haben sollen.<ref name="Corey S. Powell, Diane Martindale" /> Derartige Ausrottungsphantasien sind jedoch ohne Grundlage in der Realität.

=== Polywasser ===
In den 1960er Jahren gaben sich sowjetische Wissenschaftler der Vorstellung hin, mit [[Polywasser]], würde eine besonders stabile Variante des Normalen Wassers bestehen. Diese könnte normales Wasser umwandeln, das dann aufgrund veränderter Eigenschaften lebensfeindlich wäre und so das gesamte Ökosystem vernichten würde. Später stellte sich diese Forschung als [[Pathologische Wissenschaft]] heraus.

{{Zitat|Text=Bei existentiellen Risiken kann unsere Vorgehensweise nicht praktisches Herumprobieren sein. Es gibt keine Möglichkeit aus Fehlern zu lernen. Die reaktive Herangehensweise – einfach sehen was passiert, Gefahren begrenzen und aus Erfahrung lernen – ist unausführbar. Nein, wir müssen eine proaktive Vorgehensweise wählen. Das erfordert den Weitblick neue Arten von Bedrohungen zu antizipieren und die Bereitschaft entschiedene Präventionsmaßnahmen durchzuführen und deren (moralische oder ökonomische) Kosten zu tragen.|ref=<ref>Nick Bostrom, Milan Cirkovic: ''Global Catastrophic Risks.'' 2008, Oxford University Press.</ref>}}

=== Wahrscheinlichkeit existentieller Risiken ===
Die Eintrittswahrscheinlichkeiten mancher Gefahren sind mit beträchtlicher Genauigkeit berechnet worden. So beträgt beispielsweise die Wahrscheinlichkeit eines Asteroideneinschlags, welcher das Aussterben der Menschheit zur Folge hätte, 0,000001 (eins zu einer Million) in den nächsten einhundert Jahren<ref>{{cite journal|last=Matheny|first=James Gaverick|title=Reducing the Risk of Human Extinction|journal=Risk Analysis|year=2007|volume=27|issue=5}}</ref> (obwohl spätere Forschung eine weit höhere Wahrscheinlichkeit nahelegte).<ref>D. J. Asher, M. E. Bailey, V. Emel’yanenko, W. M. Napier: ''Earth in the cosmic shooting gallery.'' In: ''The Observatory'' 2005, 125, S. 319–322.</ref>
Damit vergleichbar sind Vulkanausbrüche, die schwerwiegend genug sind um katastrophalen Klimawandel zu verursachen, ähnlich dem [[Toba-Katastrophen-Theorie|Toba-Vulkanausbruch]], der fast das Aussterben der menschlichen Spezies verursacht hat,<ref>{{Literatur | Autor=Stanley H. Ambrose | Titel=Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans | Sammelwerk=[[Journal of Human Evolution]] | Jahr=Oxford 1998 | Band= 34 | Nummer=6 | Seiten= 623–651 | DOI=10.1006/jhev.1998.0219}} {{ISSN|0047-2484}}</ref> Die Häufigkeit von derartigen Vulkanausbrüchen wird auf etwa einmal alle 50,000 Jahre geschätzt.<ref>M. R. Rampino, S. H. Ambrose: ''Super eruptions as a threat to civilizations on Earth-like planets.'' In: ''Icarus'' 2002, 156, S. 562–569.</ref> Die Wahrscheinlichkeiten anderer Bedrohungen sind jedoch viel schwieriger zu berechnen. Obwohl Experten der Global Catastrophic Risk Conference die Wahrscheinlichkeit für das Aussterben der menschlichen Spezies innerhalb der nächsten 100 Jahre auf 19 % schätzten, gab es beträchtliche Meinungsverschiedenheiten bezüglich der relativen Bedeutung der jeweiligen Gefahren.<ref>''Global Catastrophic Risks Survey, Technical Report.'' 2008, Future of Humanity Institute</ref>

Es gibt erhebliche methodische Schwierigkeiten beim Abschätzen dieser Risiken. Die meiste Aufmerksamkeit wurde Risiken gewidmet, die die menschliche Zivilisation in den nächsten hundert Jahren bedrohen, aber das Vorhersagen über diesen Zeitraum gestaltet sich als sehr schwierig. Alle Bedrohungen, deren Ursprung in der Natur liegt, verhalten sich relativ konstant, obwohl neue Risiken entdeckt werden könnten. Anthropogene Bedrohungen jedoch, werden sich wahrscheinlich mit der Entwicklung neuer Technologien dramatisch verändern; während Vulkane über die gesamte Geschichte hinweg eine Bedrohung darstellten, spielen nukleare Waffen erst seit dem 20.Jahrhundert eine Rolle. Die Geschichte zeigt, dass die Fähigkeit die Zukunft vorherzusagen bei früheren Experten sehr eingeschränkt war, gleichwohl könnten moderne probabilistische Vorhersage-Methoden, wie beispielsweise [[Prognosemarkt|Prognosemärkte]] oder traditionellere Vorgehensweisen wie Peer-Review die Genauigkeit von Vorhersagen erhöhen.<ref>''Record of the Workshop on Policy Foresight and Global Catastrophic Risks.'' Future of Humanity Institute</ref>

Bedrohungen menschlichen Ursprungs wie z.&nbsp;B. nuklearer Krieg oder Nanotechnologie sind noch schwerer vorherzusagen, aufgrund der inhärenten methodologischen Probleme in den Sozialwissenschaften. Während der [[Kubakrise]], schätzte [[John F. Kennedy]] die Wahrscheinlichkeit eines nuklearen Krieges auf 33 % bis 50 %. Ungeachtet dessen gilt, dass es im Allgemeinen sehr schwer ist die Größenordnung eines dieser Risiken richtig einzuschätzen, da sich internationale Beziehungen und technologischer Fortschritt rapide ändern können.

Aufgrund von Selektionseffekten durch bloße Beobachtung (englisch: ''observation selection effects'') stellen existentielle Risiken eine einzigartige Herausforderung für Vorhersagen dar, sogar mehr als andere weit in der Zukunft liegende Ereignisse. Anders als bei den meisten anderen Ereignissen ist das Ausbleiben von existentiellen Risiken in der Vergangenheit kein Beleg dafür, dass die Wahrscheinlichkeit von in der Zukunft liegenden existentiellen Risiken gering ist. Denn hätte sich ein existentielles Risiko in unserer Vergangenheit ereignet, gäbe es keine Menschen mehr die dies beobachten könnten.<ref name="autogenerated1">''Observation Selection Effects and Global Catastrophic Risks.'' Milan Cirkovic, 2008</ref>

==== Fermi-Paradoxon ====
Es wurden bereits viele Planeten außerhalb unseres Sonnensystems entdeckt,<ref name="Encyclopedia">{{cite web|author=[[Jean Schneider]]|year=2011|title=Interactive Extra-solar Planets Catalog|url=http://exoplanet.eu/catalog.php|work=[[The Extrasolar Planets Encyclopedia]]|accessdate=2011-06-23}}</ref> und es gibt wahrscheinlich noch viel mehr unentdeckte, erdähnliche Planeten auf denen Leben entstehen könnte. Angesichts der relativen Schnelligkeit mit der sich Leben auf der Erde entwickelt hat, und angesichts der enormen Größe des beobachtbaren Universums, scheint es [[Bayestheorem|a priori und a posteriori]] wahrscheinlich, dass sich intelligentes Leben auch auf anderen Planeten entwickelt hat.
Somit scheint das Ausbleiben jeglicher Anzeichen von intelligentem Leben außerhalb der Erde ein [[Paradoxon]] darzustellen. Besonders relevant ist das Ausbleiben von großflächigen, von der Erde aus sichtbaren, künstlichen Konstruktionen im All, was nahelegt, dass wenige bis keine Zivilisationen lange genug überleben um den Weltraum kolonisieren können.<ref name="autogenerated1" />

Es gibt eine Reihe von Erklärungen für das Fermi-Paradoxon, wie beispielsweise die Hypothese, dass die Erde Teil eines galaktischen Zoos sei, oder dass die Entstehung von Leben einfach extrem unwahrscheinlich ist. Eine weitere plausible Erklärungen ist jedoch, dass ein Großer Filter (englisch: ''Great Filter'') existiert; Der Große Filter ist diejenige Eigenschaft unseres Universums, welche tote Materie davon abhält innerhalb eines genügend großen Zeitraums in intelligentes Leben zu evolvieren und anschließend das Universum zu besiedeln.<ref>http://hanson.gmu.edu/greatfilter.html</ref> Falls dieser Filter nun vor uns liegt – vielleicht zerstören sich die meisten Zivilisationen in nuklearen Kriegen – wird er die Menschheit, es sei denn sie ist sehr ungewöhnlich im Vergleich zu außerirdischen Zivilisationen, davon abhalten den Weltraum zu besiedeln.<ref>Anthropic Reasoning in the Great Filter, Katja Grace</ref>

==== Kognitive Verzerrungen ====
Die Erforschung von [[Kognitive Verzerrung|kognitiven Verzerrungen]] offenbart eine Reihe von Tendenzen und Neigungen im Wahrnehmen, Urteilen und Denken von Menschen, welche nicht den Standards unvoreingenommener Rationalität entsprechen. Viele dieser Verzerrungen beeinflussen die Vorhersage von existentiellen Risiken. Die [[Verfügbarkeitsheuristik]] beispielsweise könnte Menschen dazu veranlassen die Gefahr existentieller Risiken zu unterschätzen, da offensichtlich noch niemand eines beobachtet hat. In ähnlicher Weise bewirkt der [[Rückschaufehler]], dass vergangene Ereignisse vorhersehbarer erscheinen als sie tatsächlich waren,<ref>I knew it would happen:remembered probabilities of once-future things. *Organ. Behav. Human Perf.,* 13, 1-16</ref> was zu übermäßigem Vertrauen in die Fähigkeit die Zukunft vorherzusagen führt.

Der Konjunktions-Fehlschluss (englisch: ''Conjunction fallacy'') tritt auf, wenn Menschen die Wahrscheinlichkeit von [[Konjunktion (Logik)|Konjunktionen]] überschätzen; z.&nbsp;B. wenn man glaubt, dass eine politische Aktivistin mit größerer Wahrscheinlichkeit eine feministische Bankangestellte als eine Bankangestellte ist.<ref>Sides, A., Osherson, D., Bonini, N., and Viale, R. (2002). On the reality of the conjunction fallacy. *Memory Cogn.,* 30(2). 191-198</ref> In gleicher Weise unterschätzen Menschen die Wahrscheinlichkeit disjunktiver Ereignisse.<ref>Tversky and Kahneman, 1974, Judgement under Uncertainty: heuristics and biases. *Science*, 185, 251-284.</ref> Die Bedrohung existentieller Risiken ist hochgradig disjunktiv, denn die Ursache kann nuklearer Krieg oder Klimawandel oder Künstliche Intelligenz oder Bioterrorismus oder ein Asteroideneinschlag sein,<ref>Eliezer Yudkowsky, 2008, Cognitive Biases potentially affecting judgements of global risks</ref> was dazu führt dass die Plausibilität existentieller Risiken unterschätzt wird.

=== Potentielle Bedeutung existentieller Risiken ===
Einige Wissenschaftler setzen sich eindringlich für das Verringern existentieller Risiken ein, da zukünftige Generationen davon außerordentlich profitieren würden. [[Derek Parfit]] behauptet, dass das Aussterben der Menschheit ein immenser Verlust wäre, da unsere Nachkommen möglicherweise für Milliarden Jahre überleben könnten, bevor die ansteigende Hitze der Sonne die Erde unbewohnbar machen würde.<ref>{{cite book|last=Parfit|first=Derek|title=Reasons and Persons|year=1984|publisher=Oxford University Press|pages=453–454}}</ref> [[Nick Bostrom]] argumentiert, dass der Menschheit mit der Besiedlung des Weltalls sogar noch großartigere Möglichkeiten offenstehen. Falls unsere Nachfahren das All besiedeln, könnten sie in der Lage sein, eine sehr große Anzahl von Menschen zu ernähren, und dies möglicherweise für mehrere Billionen Jahre.<ref>{{cite journal|last=Bostrom|first=Nick|title=Astronomical Waste: The opportunity cost of delayed technological development|journal=Utilitas|volume=15|issue=3|pages=308–314}}</ref> Deshalb würde selbst eine nur geringfüge Reduzierung der Wahrscheinlichkeit existentieller Risiken einen höchst bedeutsamen Einfluss auf die erwartete Anzahl von in der Zukunft existierenden Menschen haben.

Manche Wissenschaftler stimmen mit den genannten Argumenten nicht überein. Exponentielle Diskontierung könnte diese in der Zukunft liegenden Vorteile viel weniger bedeutsam erscheinen lassen, und manche Philosophen bezweifeln, dass das Sichern der Existenz zukünftiger Generationen von Wert sei.<ref>{{cite journal|last=Narveson|first=Jan|title=Utilitarianism and New Generations|journal=Mind|year=1967|volume=76}}</ref>

Manche Wirtschaftswissenschaftler haben ebenfalls die Bedeutung existentieller Risiken diskutiert, obwohl in den meisten dieser Diskussionen der Name „katastrophale Risiken“ (englisch: ''catastrophic risk'') verwendet wird. [[Martin Weitzman]] argumentiert, dass möglicherweise die meisten der durch den Klimawandel erwarteten wirtschaftlichen Kosten von der geringen Wahrscheinlichkeit herrühren, dass die globale Erwärmung unsere Berechnungen bei weitem übertrifft und dies katastrophale Schäden zur Folge hat.<ref name="weitzman1" /> [[Richard Posner]] hat argumentiert, dass wir im Allgemeinen viel zu wenig gegen Gefahren von riesigem Schadensausmaß, jedoch gering erscheinender, schwer abzuschätzender Wahrscheinlichkeit unternehmen.<ref>{{cite book|last=Posner|first=Richard|title=Catastrophe: risk and response|year=2004|publisher=Oxford University Press}}</ref>


== Siehe auch ==
== Siehe auch ==
* [[Wacholderteeröl]], aus dem Holz des [[Wacholder]]s gewonnenes ätherisches Öl zur medizinischen Anwendung
* [[Fermi-Paradoxon]]
* [[Doomsday-Argument]]
* [[Nick Bostrom]]
* [[Eliezer Yudkowsky]]
* [[Superintelligenz]]
* [[Effektiver Altruismus]]

=== Bibliographie ===
* Nick Bostrom, Milan Cirkovic, ''Global Catastrophic Risks'', 2008, Oxford University Press.
* Joel Garreau, ''Radical Evolution'', 2005.
* Richard A. Posner, ''Catastrophe'', 2004, Oxford University Press.
* Martin Rees, ''[[Our Final Hour]]'' (UK title: „Our Final Century“), 2003, ISBN 0-465-06862-6.
* Alexei Turchin, [http://www.scribd.com/doc/6250354/ Structure of the global catastrophe. Risks of human extinction in the XXI century], 2010, ISBN 978-1-4457-5658-5.
* Nick Bostrom, ''Superintelligenz: Szenarien einer kommenden Revolution'', 2014, ISBN 3-518-58612-2.
* [http://www.theatlantic.com/technology/archive/2012/03/were-underestimating-the-risk-of-human-extinction/253821/ Umfangreiches Interview mit Bostrom] in der Zeitschrift ''The Atlantic'' (englisch)

== Weblinks ==
* [http://www.existential-risk.org/ Eine Website von Nick Bostrom über existentielle Risiken].
* [http://www.nickbostrom.com/existential/risks.html Existential Risks: Analyzing Human Extinction Scenarios] – Der ursprüngliche Artikel von Nick Bostrom
* [http://www.nickbostrom.com/astronomical/waste.html Astronomical Waste: The Opportunity Cost of Delayed Human Development] – Ein Aufsatz von Nick Bostrom über die ethische Bedeutung von existentiellen Risiken
* [http://www.givewell.org/labs/causes/global-catastrophic-risks GiveWell: Global Catastrophic Risks] Ein Überblick von [[GiveWell]], einer Organisation die forscht wie man mit seinen Spenden am meisten Gutes tun kann
*[https://intelligence.org/files/CognitiveBiases.pdf Cognitive biases potentially affecting judgment of global risks] – Ein Aufsatz von [[Eliezer Yudkowsky]] über mehrere kognitive Verzerrungen, welche unsere Beurteilung von existentiellen Risiken beeinträchtigen.
*[http://www.wired.com/wired/archive/8.04/joy_pr.html Why the future doesn't need us], ''[[Wired.com]]'', Bill Joy's einflussreicher Artikel.
*[http://toddkashdan.com/articles/Niemiec%20et%20al%20mindfulness%20TMT%20JPSP%202010.pdf Being present in the face of existential threat: The role of trait mindfulness in reducing defensive responses to mortality salience.]


== Einzelnachweise ==
== Einzelnachweise ==
<references />
<references />


{{SORTIERUNG:Wacholderol}}
[[Kategorie:Eschatologie]]
[[Kategorie:Risikomanagement]]
[[Kategorie:Ätherisches Öl]]
[[Kategorie:Futurologie]]

Version vom 23. Juli 2015, 19:33 Uhr

Sicherheitshinweise
Name

Wacholderbeeröl aus Juniperus communis L.

CAS-Nummer

84603-69-0

GHS-Gefahrstoffkennzeichnung [1]
keine Einstufung verfügbar
H- und P-Sätze H: siehe oben
P: siehe oben
Toxikologische Daten

Heide-Wacholder (Juniperus communis)

Als Wacholderbeeröl bezeichnet man das durch Wasserdampfdestillation gewonnene ätherische Öl von reifen getrockneten Wacholderbeeren. Die Ausbeute beträgt 0,8–2 %.[3]

Eigenschaften

Wacholderbeeröl ist farblos bis hellgelb und dünnflüssig. Die Dichte liegt bei 0,854–0,879 g·ml−1, es ist in Wasser unlöslich, in Ethanol unter leichter Trübung wenig löslich. Das Öl riecht stark terpenartig nach Koniferen und schmeckt aromatisch-bitter.[3]

Zusammensetzung

Wacholderbeeröl besteht vor allem aus α-Terpinen und dem Oxidationsprodukt α-Terpinen-4-ol, weiterhin aus α-Pinen (36 %), Myrcen (13 %), Caryophyllen, 3-Caren und Sabinen. Das Anbaugebiet, der Zeitpunkt der Ernte und die zur Extraktion verwendeten Pflanzenteile beeinflussen die Zusammensetzung. In den Blättern finden sich beispielsweise als Hauptkomponenten Sabinen (19,4–31,3 %), trans-Sabinylacetat (7,6–24,3 %), β-Thujon (4,5–25,8 %) sowie Terpinen-4-ol (3,4–13 %).[3]

Verwendung

Medizinisch wird Wacholderbeeröl als Diuretikum verwendet, in der kosmetischen Industrie dient es als Riechstoff. Die Verwendung in Lebensmitteln ist nicht zugelassen.[3]

Siehe auch

Einzelnachweise

  1. Dieser Stoff wurde in Bezug auf seine Gefährlichkeit entweder noch nicht eingestuft oder eine verlässliche und zitierfähige Quelle hierzu wurde noch nicht gefunden.
  2. a b c Datenblatt Wacholderbeeröl (PDF; 54 kB) bei Eramex Aromatics, abgerufen am 9. April 2013.
  3. a b c d Eintrag zu Wacholderbeeröl. In: Römpp Online. Georg Thieme Verlag