Die fünf größten Bedrohungen für die Menschheit

Ein Zukunftsforscher sagt, wir haben vergessen über Gefahren zu sprechen, die weitaus subtiler als aktuelle Krisen sind – aber die Menschheit auslöschen könnten.

Die Explosion an sich wäre schlimm – aber schlimmer ist das, was danach kommt. CC0-Lizenz

Geht es nach Anders Sandberg, einem Zukunftsforscher, müssen wir dringend über echte Gefahren sprechen. Denn falls wir uns nicht mit ihnen beschäftigen, könnten sie uns Menschen dahinraffen.

Dabei geht es nicht um aktuelle Geflüchtetendebatten, um Börsencrashs, um EU-Austritte, psychopathische US-Präsidenten oder ähnliche Probleme, die wir heute oft „Krisen“ nennen. Es geht um wirklich existenzielle Gefahren, die verhindern könnten, dass unsere Spezies in 1.000 oder 10.000 Jahren überhaupt noch existiert.

Sandberg, Zukunfts- und Neurowissenschaftler an der Oxford-University, „Transhumanist“ und Autor, veröffentlichte auf der Wissenschaftsplattform „The Conversation“ kürzlich einen beklemmenden Artikel zum Thema. Sandberg spricht darüber, wie wir echte Bedrohungen für die Menschheit langsam aus den Augen verloren haben; aber auch, wie wir sie abmildern und vielleicht sogar abwenden könnten. Ein erster Schritt: darüber nachdenken.

„Die Menschheit könnte aussterben!“ – „Oh! Hm. Okay.“

„In der Vergangenheit gab es einige, die versucht haben, die Menschheit vor Katastrophen zu warnen, darunter etwa Nostradamus, der versuchte, das Ende der Welt zu errechnen“, schreibt Sandberg. Viele weitere „Mystiker“ spekulierten oder fantasierten über den Aussterben der Menschheit. Während das gerne als Spinnerei abgetan wurde, habe es auf der anderen Seite nur wenige gegeben, die sich dafür einsetzten, unsere Spezies zu schützen. „Andererseits hätte das mit den bestehenden Mitteln aber auch niemand geschafft.“ Heutzutage sei die Menschheit hingegen weiter, schreibt Sandberg. Heutzutage seien wir im Zuge des technischen Fortschritts weit genug, um Risiken richtig einzuschätzen und ein Aussterben zu verhindern.

Aber: Diese Risiken sind laut Sandberg noch zu wenig kommuniziert und erforscht. Vor allem werden sie unterschätzt.

Man spricht seit Jahrtausenden über die Apokalypse – aber nicht darüber, sie zu verhindern.“

Einer der Hauptgründe sei das mitschwingende Gefühl der Machtlosigkeit, eine Ohnmacht, die in unverblümten Fatalismus mündet; der Glaube daran, dass ja eh nichts mehr zu retten sei und der Untergang der Menschheit irgendwann eben einfach passieren müsse. „Die Menschen sind außerdem ziemlich schlecht darin, etwas gegen Probleme zu tun, die noch nicht aufgetreten sind“, schreibt Sandberg. Das liege an der sogenannten „Verfügbarkeitsheuristik„. Das ist unsere Tendenz, Probleme zu überschätzen, die wir durch Erfahrungen Beispiele bereits kennen. Und umgekehrt Ereignisse zu unterschätzen, auf die wir nicht zurückblicken können.

„Wenn die Menschheit ausstirbt, bedeutet das mindestens den Verlust aller lebenden Individuen und ihrer Ziele.“ Aber der eigentliche Verlust ist größer als das: Die Auslöschung der Menschheit hieße Verlust der Bedeutung von vergangenen Generationen, dem Leben aller künftigen Generationen (das könnten ziemlich viele sein) und allem Wert, den diese vermutlich schaffen könnten. Wenn menschliche Züge wie das Bewusstsein und die Intelligenz verloren gingen, könnte das unter anderem bedeuten, dass diese Werte auch aus dem Universum ausgelöscht sein würden. „Das ist ein großer, moralischer Grund, hart dafür zu arbeiten, dass existenzielle Bedrohungen nicht Wirklichkeit werden. Wir dürfen dabei nicht scheitern“, schreibt Sandberg.

Mit diesen Dingen im Hinterkopf erstellte der Wissenschaftler eine Aufstellung der seiner Ansicht nach aktuell fünf größten Bedrohungen der Spezies Mensch:

1. Ein Atomkrieg

In der Geschichte kam bisher „nur“ zweimal eine Nuklearwaffe zum Einsatz – im Zweiten Weltkrieg in Hiroshima und Nagasaki. Und der Vorrat an Atombomben ist auf dem niedrigsten Stand seit dem Kalten Krieg. Dennoch wäre es falsch zu glauben, dass ein Atomkrieg unmöglich ist, schreibt Sandberg. „Tatsächlich ist er gar nicht unwahrscheinlich.“

Die Kubakrise mündete fast in einen Nuklearkrieg. Die Chance, dass sich solche Ereignisse wiederholen, stehen laut dem Forscher gut; dieser Zwischenfall war ja nur der bekannteste der jüngeren Geschichte. „Zwischen der Sowietunion und der USA kam es fast ständig zu gefährlichen Entscheidungen und Fast-Abwürfen.“ Durch internationale Spannungen und Abhängigkeiten hätten sich die Risiken heute etwas gemindert; dennoch seien sie vorhanden.

Ein wirklicher Atomkrieg zwischen zwei Großmächten würde hunderte Millionen Menschenleben kosten, direkt oder durch die Nachwirkungen. „Aber das ist nicht genug, um ein existenzielles Risiko darzustellen“, schreibt Sandberg.

Die Gefahren eines Fallouts würden oft überschätzt. Sie seien zwar lokal schwerwiegend, aber global betrachtet eher nichtig. Die wirkliche Bedrohung wäre der folgende nukleare Winter – der in die Stratosphäre geschossene Ruß würde eine mehrjährige Kühlung und Trocknung der Welt verursachen. „Moderne Klimasimulationen zeigen, dass Landwirtschaft in weiten Teilen der Welt jahrelang nicht möglich wäre“, schreibt Sandberg. Wenn dieses Szenario eintreffen würde, würden Milliarden verhungern. Und die wenigen Überlebenden würden von unbekannten Krankheiten heimgesucht werden. „Das Hauptproblem ist, wie sich der Ruß in einem solchen Fall verhalten würde. Die Ergebnisse könnten sehr unterschiedlich sein. Wir haben derzeit keine guten Möglichkeiten, das einzuschätzen.“

2. Eine biotechnische Pandemie

„Natürliche Pandemien haben mehr Menschen getötet als Kriege“, schreibt Sandberg. Trotzdem sind solche Krankheits-Pandemien (wie die Pest) aber eher keine existenzielle Bedrohung: In der Regel sind viele Menschen immun gegen die Erreger und die Nachkommen der Überlebenden wären noch resistenter dagegen. Zusätzlich merzt die Evolution Parasiten aus, die ihren Wirt auslöschen wollen – weshalb sich etwa Syphilis vom bösartigen Killer zu einer chronischen Erkrankung wandelte.

Unglücklicherweise sind die Menschen heutzutage in der Lage, Krankheiten bedeutend schlimmer zu machen, schreibt Sandberg. „Eines der berühmtesten Beispiele ist das Einsetzen eines zusätzlichen Gens in Mauspocken – die Maus-Version von Windpocken: So werden diese weitaus tödlicher und sind in der Lage, selbst geimpfte Mäuse zu infizieren.“ Auch die jüngsten Studien zur Vogelgrippe hätten gezeigt, dass die Ansteckungsgefahr einer Krankheit bewusst sehr drastisch erhöht werden kann.

„Im Moment ist das Risiko, dass jemand absichtlich etwas wirklich Verheerendes freisetzt, gering.“ Aber da die Biotechnologie immer besser und immer billiger wird, könnten verschiedene, kleinere Gruppen bekannte Krankheiten bewusst verschlimmern.

Die meisten Studien zu Biowaffen wurden von Regierungen – auf der Suche nach etwas kontrollierbarem – durchgeführt, schreibt Sandberg. Das Auslöschen der Menschheit sei militärisch nicht von Nutzen. Aber es wird immer Leute geben, die Dinge tun wollen, weil sie es tun können. Einige haben auch „höhere Ziele“. So versuchte die „Aum-Sekte„, die Apokalypse zu beschleunigen, indem sie Biowaffen nutzten und Menschen in Japan mit Nervengas angriffen.

Manche Leute denken, die Erde wäre besser dran ohne Menschen.“ 

„Es sieht so aus, als unterstünden die Todesopfer durch Biowaffen und Epidemien dem Potenzgesetz“, schreibt Sandberg. In den meisten Fälle gibt es nur wenige Opfer, aber ein paar wenige töten viele. Schaue man sich aktuelle Zahlen an, scheint das Risiko einer globalen Pandemie durch Bioterrorismus sehr gering zu sein. Aber das betreffe eben nur Terroristen. Regierungen hingegen töteten mit Biowaffen bisher mehr Menschen. Fast eine halbe Millionen Menschen starben durch japanische Biowaffen-Experimente im zweiten Weltkrieg. „Da die Technik in Zukunft mächtiger wird, sind bösartige Erreger einfacher herzustellen.“

3. Superintelligenz

„Intelligenz ist sehr mächtig. Mit nur einem minimalen Maß an Problemlösungsfähigkeiten und Gruppenkoordination konnten wir Menschen die anderen Affen evolutionär abhängen.“ Doch jetzt könnte das Fortbestehen unserer Intelligenz von menschlichen Entscheidungen abhängen, nicht von der Evolution. Intelligent zu sein, ist ein wirklicher Vorteil für Menschen und Organisationen, schreibt Sanberg. Daher gebe es so große Anstrengungen, herauszufinden, wie wir unsere individuelle und kollektive Intelligenz verbessern könnten: von kognitionssteigernden Medikamenten – bis hin zu künstlicher Intelligenz.

Das Problem dabei sei, dass solche intelligente Entitäten („Informationsobjekte“) zwar gut darin seien, ihre Ziele zu erreichen. Wenn aber die Ziele von Menschen schlecht festgelegt (programmiert) würden, könnten sie ihre Macht nutzen, um katastrophale und zerstörerische Ziele zu erreichen.

Es gibt keinen Grund zu glauben, dass Intelligenz selbst sich nett und moralisch verhält.“

In der Tat sei es bereits möglich zu beweisen, dass bestimmte Typen von superintelligenten Systemen – also Maschinen mit dem Menschen in vielen oder allen Gebieten überlegener Intelligenz – keinen moralischen Regeln gehorchen. „Noch beunruhigender ist, dass wir versuchen, künstlichen Intelligenzen tiefgreifende praktische und philosophische Probleme zu erklären. Die menschlichen Werte sind diffuse, komplexe Dinge, die wir nicht gut zum Ausdruck bringen können. Und selbst wenn wir das tun könnten, könnten wir nicht alle Logiken dessen verstehen, was wir uns wünschen.“

Softwarebasierte Intelligenz könnte laut Sandberg sehr schnell von der Nutzung in kleinen Alltagshilfen zu „etwas erschreckend Mächtigem“ werden. Der Grund sind die Unterschiede zur biologischen (menschlichen) Intelligenz. Künstliche Intelligenz (KI) funktioniere einfach schneller – und noch schneller, wenn sie auf immer schnelleren Computern aufgespielt würde. Man könnte Teile dieser Intelligenz sogar auf mehrere Computer verteilen, „on-the-fly“ ließen sich neue Versionen testen, Updates aufgespielt, neue Algorithmen integriert werden – das würde der KI einen erheblichen Leistungsschub verpassen. Wenn eine Intelligenz-Software gut genug würde, selbst eine bessere Software zu erschaffen, spräche man von einer „Intelligenz-Explosion„.

Und sollte das passieren, käme es zu einer Machtverschiebung zwischen intelligenten Systemen und dem Rest der Welt. „Das hat ein klares Potenzial für eine Katastrophe, wenn die erwähnten Ziele schlecht oder fehlerhaft einprogrammiert wurden.“

Das Ungewöhnliche an der Superintelligenz sei, dass wir nicht wissen, ob solche schnelle und leistungsfähigen „Intelligenz-Explosionen“ wirklich möglich sind: „Vielleicht verbessert sich unsere aktuelle Zivilisation als Ganzes und steht dann gleichauf mit der höchstmöglichen Rechenleistung.“ Aber es gibt gute Gründe, zu glauben, dass die Technologie sich schneller entwickelt, als es die heutige Gesellschaft verkraften könnte. „Wir haben auch keinen Plan davon, wie gefährlich sich verschiedene Formen der Superintelligenz auswirken würden, oder welche Strategien zur Abschwächung tatsächlich funktionieren würden.“ Es ist laut Sandberg für die Menschen deshalb sehr schwer, über Technologien und deren Gefahren zu entscheiden, die wir noch gar nicht haben. Oder über künstliche Intelligenzen, die größer sind als unsere menschliche Intelligenz.

4. Nanotechnologie

„Nanotechnologie“ ist die Kontrolle über Materie – mit atomaren oder molekularen Präzision. Das an sich ist nicht gefährlich – im Gegenteil, für die meisten Anwendungsbereiche wäre sie sehr wertvoll. Das Problem ist laut Sandberg eher, dass sich mit zunehmenden Entwicklungsstand auch das Potenzial für Missbräuche erhöht, ähnlich wie bei der Biotechnologie.

Das große Problem sei nicht, dass Nanomaschinen sich irgendwann selbst reproduzieren und alles um sich herum auffressen. Für diesen Zweck müssten sie schon sehr clever designed werden. Es sei schwierig, eine Maschine dazu zu bringen, sich selbst zu vervielfältigen: Darin ist die Biologie per Definition viel besser. „Möglicherweise würde das irgendeinem Verrückten gelingen, aber es gibt viel subtilere Gefahren bei diesem Thema.“

Das offensichtlichste Risiko besteht darin, dass eine atomare Präzisionsfertigung sehr gut für eine schnelle und kostengünstige Herstellung von Waffen geeignet ist.“

In einer Welt, in der jede Regierung große Mengen an autonomen oder halbautonomen Waffen „drucken“ könnte, könnte es zu einem extremen – und instabilen – Wettrüsten kommen. „Der Drang, den ersten Schlag zu landen, bevor Gegner zu stark werden, könnte verlockend sein.“

Waffen können sehr viel kleinere, präzisere Dinge als Maschinengewehre sein: ein „intelligentes Gift“ etwa, das wie ein Nervengas wirkt, sich seine Opfer aber gezielt sucht. Oder allgegenwärtige Überwachungssysteme, welche die Bevölkerung gehorsam halten sollen. „All das wäre ohne Probleme möglich“, schreibt Sandberg. Es wäre sogar möglich, gezielt Nuklear- und Klimatechnik bewusst zu verändern, und unkontrolliert wuchern zu lassen. Das existenzielle Risiko von Nanotechnologie sei schwer einzuschätzen, aber es sei eine potenzielle Gefahr. „Allein deshalb, weil sie Menschen ermöglichen könnte, was sie sich erträumen.“

5. Das große Unbekannte

„Die vielleicht beunruhigendste Möglichkeit ist, dass es etwas gibt, das sehr tödlich ist – und wir haben noch keine Ahnung davon.“ Was auch immer die Bedrohung ist, es könnte etwas sein, das fast unvermeidlich wäre. Wir selbst wüssten nicht über diese Bedrohungen Bescheid, aber sie könnten existieren. „Nur, weil etwas unbekannt ist, bedeutet es nicht, dass wir nicht darüber nachdenken können.“

Wer sich frage, warum der Klimawandel oder Meteoreffekte nicht auf dieser Liste stehen: „Es ist unwahrscheinlich, dass der gesamte Planet durch Klimawandel unbewohnbar wird, egal wie furchteinflößend er ist. Meteore könnten uns selbstverständlich in einem Schlag auslöschen, aber dazu müssten wir schon sehr großes Pech haben.“ Die durchschnittliche Säugetierart überlebe etwa eine Million Jahre. Daher sterbe nur eine Art pro eine Millionen Jahre aus. Das Risiko, dass die Menschheit durch einen Atomkrieg ausgelöscht würde, sei da viel höher.

„Letztlich muss man sich nicht fürchten, nur weil etwas möglich und potenziell gefährlich ist.“ Es gebe einige Risiken, die wir nicht mindern können, wie etwa Gammastrahlen, die durch Explosionen im All entstehen. Aber wenn wir begreifen würden, dass wir in anderen Aspekten etwas für unser eigenes Wohl und die Zukunft der Menschheit tun können, änderten sich Prioritäten. Ein Beispiel: Mit Hygiene, Impfstoffen und Antibiotika, wurde die Pest von „einer Strafe Gottes“ zu „schlechter allgemeiner Hygiene“, schreibt Sandberg. Die Menschen lernten – und änderten ihr Verhalten und ihre Einstellung dem Thema gegenüber.

Und jetzt?

Die Verfügbarkeitsheuristik bringe uns also dazu, Risiken zu überschätzen, die medial stark präsent sind – und noch nie dagewesene zu unterschätzen, wie Sandberg schreibt. „Wenn wir in einer Million Jahre noch da sein wollen, müssen wir über solche Gedanken sprechen.“ Das ist die Botschaft des Wissenschaftlers: Wir sollen sensibilisiert werden. Und dazu ermutigt, grundsätzlicher zu denken, in einem größeren Maßstab. Sicher, die heutigen Probleme und Krisen sind welche, die angegangen werden müssen. Dabei sollten wir aber nicht vergessen, dass es weitaus größere Gefahren gibt.

Was wir konkret tun können? Das Schema der „Verfügbarkeitsheuristik“ durchbrechen – und vielleicht auch mal an die Generationen zu denken, die erst in tausend Jahren heranwachsen werden. Welche Entscheidungen der jüngeren Geschichte waren gute? Welche waren gefährlich? Es bedarf viel Zeit, größere Zusammenhänge zu verstehen. Vor allem aber benötigen wir den Mut, Ursprüngliches anzusprechen – und dadurch Diskussionen anzustoßen, die wichtig für unsere Spezies sind. Sandbergs Artikel könnte ein Anstoß dafür sein.

Außerdem auf ze.tt