Philosophisch-politische Fragen

Atomkrieg aus Versehen oder als Cyber-Crash-Folge

Atomkrieg aus Versehen oder als Cyber-Crash-Folge

Niemand will einen Atomkrieg, aber aus Versehen kann er passieren.

Krieg als Vernichtungsziel

Krieg, verstanden als Aktion kollektiver Zerstörung, zielt, wie einst Kant und Clausewitz erkannten, nicht lediglich auf eine Schwächung des Feindes, sondern auf dessen Vernichtung. Doch weder Infanteristen noch Kriegsschiffe noch Luftwaffe sind dazu kaum in der Lage, eine Vernichtung des Feindes zu bewirken. Eine Ausnahme stellt in der Antike die völlige Zerstörung Karthagos durch die römische Republik dar. Auf mythologischer Ebene wurde zuvor die Stadt Troja nach zehn Jahren Krieg ein Exempel der Auslöschung, allerdings mit der Folge, dass Aeneas aus Troja flüchtete, um Rom zu gründen, das später für Jahrhunderte ein europäisches Reich des Friedens wurde.

Atomwaffen: Vernichtung wird Option

Vernichtung des Feindes blieb in Zeiten konventioneller Kriegführung eher ein Wunsch. Seit es Atomwaffen gibt, wird die Vernichtung aus einem Wunsch erstmalig eine strategische Option. Der Mensch, dessen Neigung zu Rachsucht, zu Hinterhältigkeit, zu Grausamkeit, zu Niedertracht, zur Schädigung der Anderen aus der Geschichte hinlänglich bekannt sind: Was geschieht, wenn dieser Mensch Atomwaffen besitzt und damit über eine Option der Vernichtung verfügt? Wann wird das Potenzial von politischen Entscheidern, auf Atomwaffeneinsatz zu verzichten, aufgebraucht sein? Ist es die zu erwartende Antwort der Gegenseite, dass man selbst vernichtet werden wird, wenn man andere vernichtet? Vermutlich war es diese Furcht vor dem Gegenschlag der Vernichtung, die seit Hiroshima und Nagasaki die Atommächte davon abhielt, Atomwaffen einzusetzen. Die beiden US-Generäle Douglas MacArthur in Korea und William Westmoreland in Vietnam wurden 1951 und später 1968 abberufen, als sie einen Atomwaffeneinsatz gegen China und Nordkorea oder gegen die Vietkong forderten. Ebenso verweigerten die USA und Großbritannien den Franzosen den Einsatz von Atomwaffen nach der völligen Niederlage in Dien Bien Phu 1954. Dennoch gilt: Die Atomwaffenstaaten behielten Atomwaffen – zu den bestehenden sechs Atomwaffenbesitzern USA, Russland, China, Großbritannien, Frankreich und Israel kamen Indien, Pakistan und Nordkorea hinzu – und man weigerte sich, diese nuklearen Waffen einer völkerrechtlich bindenden Regelung zu unterstellen. Dennoch setzte eine internationale Besonnenheit insofern ein, als zunächst mit der Abschaffung oberirdischer Atomversuche der Erdbevölkerung ein dauerhaftes globales Tschernobyl erspart blieb. Ebenso sorgten Rüstungsbegrenzungen eine Zeit lang dafür, dass das Thema Atomkrieg die Menschen weniger zu betreffen schien.

KI statt Menschen

Inzwischen trat ein weiteres Element hinzu. Wenn Technik das Ziel hat, dem Menschen von seiner Arbeit zu entlasten, so war eine fortgeschrittene und stets noch weiter fortschreitende Technik im Militärbereich besonders erfolgreich, nämlich der Einsatz von Maschinen, gesteuert von künstlicher Intelligenz. Wenn ein bösartiger Mensch über Nuklearwaffen verfügt, so erhält die strategische Situation eine reale Option auf Vernichtung. Sofern andere Staaten nicht in der Lage sind, mit Gegenvernichtung zu antworten, so wächst die Macht des Atomwaffenstaates ins Unermessliche, und niemand ist sich sicher, wann die atomare Gewalt zum Einsatz kommt. Der Einbau künstlicher Intelligenz verlagert den Focus von menschlicher Bösartigkeit auf rational entscheidbare Abläufe. Wenn die Menschen willkürlich entscheiden, so scheint von künstlicher Intelligenz ein versachlichender Zug auszugehen. Die Zeit von Panik und Hektik weicht einer rationalen Zeitplanung.

Die menschliche Tücke wird durch rational planende künstliche Intelligenz abgelöst. Doch auch Künstliche Intelligenz kommt an ihre Grenzen. Die natürliche Intelligenz von Menschen vermag nicht zwischen echten und bloß fingierten Alarmen zu unterscheiden. Doch die Menschen haben noch die Fähigkeit zum Zweifel. Zweifel hält das Urteilen an. Ob ein Alarmsignal echt oder unecht ist, bleibt, wenn gezweifelt wird, in der Schwebe. Künstlicher Intelligenz fehlt die Fähigkeit des Zweifels. Alarmsignale zeigen eine bedrohliche Zuspitzung an. Ist es nicht Zeit zu handeln?

Die Zeit, mit der einmal abgeschossene Atomraketen uns vernichten können, wurde bekanntlich inzwischen extrem verringert. Während wir Menschen noch zweifeln, kann uns eine Rakete treffen. Menschlicher Zweifel paart sich nunmehr mit einem Bedürfnis nach Sicherheit in der eignen Unsicherheit. Entscheidet unser Sicherheitsbedürfnis, so lassen wir Raketen der Vergeltung aufsteigen. Dies ergibt ein Szenario des »launch-on-warning.« Wir schießen Raketen der Vergeltung ab, obwohl ein gegnerischer Angriff noch letztlich unerwiesen ist. Wir möchten verhindern, Atomwaffen-Täter zu sein. Mit unserer Vergeltung in einer launch-on-warning-Situation sind wir es selbst, die zum Täter werden.

Unschuldig schuldig?

Dass aber sollte doch unbedingt verhindert werden! Niemals sollten wir es sein, die einen Atomkrieg beginnen und damit das Ende der Menschheit in Gang setzen. Wir beschreiben mit unserer Vergeltungsaktion den Beginn eines Atomkriegs, den wir aus Versehen auslösten. Doch dieses scheinbar winzige, unwichtige Versehen wächst sich zur Schuld aus, zu einer Schuld, die alle Schuld des Menschen übersteigt. Zu einer Schuld, die alle Unschuldigen und Mitschuldigen unter sich begräbt. Zu einer unter keinen Umständen mehr sühnbaren Tat. Wer trägt die Verantwortung? Offenbar jene, die zweifelsfrei für Alarmsignale sorgten. Sind es Unbekannte, sind es nicht identifizierbare Hacker, die uns einen Streich spielen und unsere Entscheidungsbereitschaft testen wollten? Ein Streich, der mit dem Ende der Menschengattung enden könnte.

Jede Beschreibung des Szenarios führt stets wieder auf die Schuld des eigentlich Unschuldigen.

Drei Handlungsmöglichkeiten

Wie lässt sich der versehentliche Abschuss von Atomwaffen verhindern? Es ist verwunderlich, dass über ein derartig strittiges Problem, das alle Menschen zusammen und zugleich jeden einzelnen betrifft, keine Klarheit der gemeinsamen Diskussion besteht. Dreierlei erscheint daher erforderlich. Erstens sollte man auf eine internationale Verständigung zusteuern mit dem Ziel, dass alle Atomwaffenstaaten nach der Beschränkung der oberirdischen Atomversuche und nach kontrollierter Abrüstung nunmehr eine Lösung sucht, die geeignet ist, einen Atomkrieg aus Versehen nach Möglichkeit zu verhindern. Es ist also ein neuer Schritt nötig, um das Schlimmste zu verhindern. Zweitens sollte es ethische Erwägungen darüber geben, im zweideutigen Alarmfall auf den eigenen Abschuss von Atomraketen zu verzichten. In diesem Fall willigt man ein, Opfer zu werden und verzichtet auf eigene Vernichtungen. Es sei ethisch wertvoller, Unrecht zu erleiden, als Unrecht zu begehen, schlug Sokrates im antiken Athen vor; doch kein Staat schien ihm folgen zu wollen. Die militärisch Verantwortlichen können diesen Vergeltungsverzicht kaum akzeptieren, da ihr Beruf eine Verteidigung gegen den Aggressor darstellt. Sie werden daher einen dritten und militärtechnischen Vorschlag präsentieren: Technik kann mit Technik bekämpft werden. Um einen Verkehrsunfall zu verhindern, wird kein PKW ohne ständig überprüfte Bremsvorrichtung verkauft. Analog zu Atomraketen heißt dies: Die Raketen werden zum Beispiel mit Sensoren bestückt, die es erlauben, dass sie beim Anflug in dem Augenblick zum Verglühen gebracht werden, sobald klar ist, dass das Alarmsignal einen falschen Alarm anzeigt.

Eine und dieselbe Situation – nämlich die Erwartung eines bereits begonnenen atomaren Angriffs und die Möglichkeiten auf ihn zu reagieren – führen nunmehr zu erheblich divergierenden Folgen. Zu ihnen gehört zunächst eine Deaktivierung aller Atomwaffen, dann eine fragliche Deaktivierung und schließlich die Entfesselung eines Atomkrieges.

Der größte Lernerfolg wäre eine nukleare Deaktivierung, verstanden als Verzicht auf atomares Weiterrüsten und die Unterwerfung aller Atomwaffenstaaten unter eine völkerrechtliche Regel, zu keiner Zeit einen Atomkrieg zu starten. Die Deaktivierung kann teils eine Folge der Sensortechnik sein: Eine Vergeltungsrakete verglüht vor dem tödlichen Auftreffen über dem Ozean. Doch die Entscheider dürfte diese Situation traumatisieren. Zu groß war die Furcht vor einem Misslingen der Sensortechnik und Gefahr, selbst einen Atomkrieg begonnen zu haben. Dieses Trauma hätte man sich durch ein anderes Verhalten ersparen können. Man verzichtet auf Vergeltung mit der Begründung, dass ein Gegenschlag keinen eigenen Gewinn, sondern ausschließlich fremdes Leid verursachen würde. Die nukleare Deaktivierung würde in beiden Fällen teils durch Verglühen der Vergeltungsrakete, teils durch ethischen Vergeltungsverzicht als Folgerung geschehen.

Anders verhält es sich mit einer nuklearen Deaktivierung als Frage. Zwar gelingt ein Verglühen der Vergeltungsrakete. Da die Sensortechnik nie zuvor erprobt wurde und die Gegenseite ihrerseits nicht hinreichend aufgeklärt wurde über den eigenen Bremsvorgang, kann diese wiederum Signale senden, dass eine Atomkriegsdrohung damit nicht beendet ist. Lohnt sich unter diesen Umständen eine nukleare Deaktivierung überhaupt? Vielleicht werden die militärischen Entscheider diese Frage verneinen und jeden Atomangriff als Fall einer Gegenoffensive werten. Militärische Experten und ethische Experten würden dann in einen Streit geraten, von dem nicht absehbar ist, ob er entscheidbar ist.

Eine weitere Option ergäbe, dass man nukleare Deaktivierung zwar diskutiert mit dem Ergebnis, dass das Hin und Her der verschiedenen Optionen alle Beteiligten eher verwirrt als einen Deaktivierungsbeschluss fördert. In einer Welt der Atomwaffenstaaten ist man fremder atomarer Bedrohung ausgesetzt. Daher muss der Gegner einen Gegenschlag fürchten, sobald er den atomaren Frieden bricht. Man verhält sich friedlich, außer wenn der andere als atomarer Aggressor auftritt. Atomare Friedfertigkeit ist die eine Seite eines Januskopfes. Die andere wäre die atomare Vernichtung. Lieber angekündigter launch-on-warning, um den Frieden so lange als möglich zu erhalten, dessen Rückseite die Vernichtung bildet.

Wenn die beschriebene nukleare Deaktivierung, verbunden mit einer völkerrechtlichen Garantie, auf den Atomwaffeneinsatz zu verzichten, ethisch den Vorrang besitzt, so bleiben eine fragliche Deaktivierung und Atomkriegsdrohung Mitbewerber in einem Lernschritt der Menschheit am zunehmend heißer werdenden Rand ihrer Selbstauslöschung. Umso mehr sollten Öffentlichkeit und Entscheider jenen weiteren Diskurs einer Verständigung betreiben, mit welchem nach der Beendigung oberirdischer Atomversuche und nach vergangenen Rüstungsbegrenzungen nunmehr das ethische Optimum einer nuklearen Deaktivierung angestrebt wird. Das Widerstreben der militärischen Kräfte und der hinter ihnen stehenden Mega-Aufträge gibt diesem Lernprozess den Zug jenes politischen Realismus, ohne den er vermutlich kaum lebensfähig wäre.

Die tödlich militärische Vergeltungslogik

Die gegenwärtige Diskussion – sie spiegelt US-Überlegungen zu russisch-automatischen atomaren Vergeltungsreaktionen – läuft im Unterschied zu den oben beschriebenen Szenarien auf eine Deaktivierung menschlicher Rationalität hinaus. Daraus folgt, dass nunmehr in knapper Zeit KI-Sensoren den Abschuss von Vergeltungsraketen bestimmen. Diese KI-Determination ist insofern logisch zwingend, als menschliches Für und Wider Zeit verspielte. Die Menschen haben daher auch keine Zeit mehr, sich andere, bösartigere Ziele auszudenken. Die mit den Atomwaffen mögliche Option der Vernichtung wird geradlinig. Menschliche Schnörkel entfallen. Die verkürzte Zeit ist für den Angegriffenen lebenswichtig, um todeswichtig für den Aggressor zu sein.

Doch die Linie dieser Argumentation läuft auf eine Abdankung menschlicher Entscheidungsklärung hinaus. Ihre Regel bestätigt das militärische Denken, wonach auf Aggression mit Gegenaggression zu antworten ist. Völkerrechtlich gilt nach wie vor, dass jeder Staat sich mit eben den Waffen verteidigt, mit denen er angegriffen wurde, somit auch mit Atomwaffen. Daher kommt nunmehr und künftig alles darauf an, jenes beschriebene ethische Optimum einer nuklearen Deaktivierung in Streitgesprächen mit dem militärischen Vergeltungsdenken zum überzeugenden Lichtträger werden zu lassen.

Ein Forum der Verständigung

Wie könnte eine Verständigung über und auf eine Verhinderung eines Atomkrieges verlaufen? Die beschrieben Situation ist gefährlicher, als KI-Experten und Militärs meinen und destruktiver, als Ethiker sie einschätzen. Daher liegt die Folgerung nahe, dass es internationale Gremien der Beratung gibt, die nach Auswegen und praktizierbaren Lösungen Ausschau halten. Das ethische Ziel dieser Beratungen müsste eine völkerrechtlich verbindliche Einigung aller Atomwaffenstaaten auf nukleare Deaktivierung bilden.

Bei den Beratungen des Gremiums müssten die KI-Experten einräumen, dass eine Enteignung menschlicher Entscheidung durch effizient arbeitende KI-Systeme zwar zeitsparend ist, jedoch zu viel unumkehrbar destruktive Prozesse vom Stapel lässt. Ebenso müssten die Militärs einräumen, dass ihre uralte Logik, militärische Aggression mit Gegen-Aggression zu beantworten, eine Verwüstung herbeiführt, in der es auch kein Militär mehr geben würde. Auch müssten die Völkerrechtlicher und Ethiker zugestehen, dass eine völkerrechtlich verbindliche atomare Deaktivierung zwar Leitziel bildet, dem man sich aber provisorisch mittels verschiedener Konzepte annähern könnte.

Wenn daher alle Beteiligten – die KI-Experten, das Militär, Völkerrechtler und Ethiker – zu ähnlichen Zugeständnissen bereit sind, genau dann ist es die Aufgabe politisch denkender Moderatoren, das Konzert der verschiedenen Stimmen in Richtung auf eine atomare Deaktivierung zu bündeln, die mit Sicherheit das Ziel der Bevölkerung dieses Globus darstellt.

Literatur

Unter der Regie von K. H. Bläsius sammeln sich Aktivitäten unter: www.akav.de

Ferner: www.icanw.de

B. H. F. Taureck, Drei Wurzeln des Krieges, und warum nur eine nicht nicht ins Verhängnis führt, Zug 2019

B. H. Taureck/ B.Liebsch, Drohung Krieg. Sechs philosophische Dialoge zur Gewalt der Gegenwart, Wien/Berlin 2020

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert