Die militärische Nutzung von Künstlicher Intelligenz (KI) hat das Potenzial, das Gefechtsfeld der Zukunft grundlegend zu verändern. Der Einsatz autonomer Waffensysteme (AWS) wird zunehmend als unvermeidlich betrachtet, da die Geschwindigkeit der Kriegsführung und die Effizienz der Entscheidungen in modernen Konflikten eine zentrale Rolle spielen. Die Entwicklung autonomer Systeme, die in der Lage sind, ohne menschliches Eingreifen Entscheidungen zu treffen, bietet den Staaten strategische Vorteile, aber auch erhebliche Risiken. Einer der größten Vorbehalte gegen die Integration von KI in militärische Operationen ist die Tatsache, dass solche Systeme in der Regel als "Black Box" fungieren. Ihre Entscheidungsprozesse sind undurchsichtig, was Vertrauen und Kontrolle erschwert.

Ein Ansatz, der vorgeschlagen wird, um diese Risiken zu mindern, ist die Aufrechterhaltung eines "Menschen im Entscheidungsprozess". Doch hier kommt die Herausforderung ins Spiel: In einem militärischen Kontext, in dem Entscheidungen in Echtzeit getroffen werden müssen, könnte der Mensch als langsame Instanz die Geschwindigkeit und Effizienz eines rein automatisierten Systems beeinträchtigen. In einem Bericht des RAND-Instituts wird festgestellt, dass der Mensch im Entscheidungsprozess zu einer gefährlichen Schwäche werden könnte, vor allem, wenn der Gegner keine menschliche Beteiligung an seinen Entscheidungsprozessen hat und auf vollständig automatisierte Systeme setzt. In solchen Szenarien könnte die Geschwindigkeit der KI-gestützten Kriegsführung den Ausschlag für den Sieg oder die Niederlage geben.

Die Vorstellung von "Cyborgs" – einer Symbiose zwischen Mensch und Maschine – könnte eine Möglichkeit sein, diese Herausforderung zu überwinden. Ein Cyborg, ein cybernetisches Organismus, ist eine Mischung aus biologischem Leben und elektronischer Technologie, die dazu dient, die Fähigkeiten des Menschen zu erweitern. Diese technologische Erweiterung könnte in Form von Exoskeletten, die die physische Stärke des Soldaten erhöhen, sowie von Medikamenten, die die kognitive Leistungsfähigkeit steigern, umgesetzt werden. Robert H. Latiff, ein pensionierter General der USAF, beschreibt in seinem Buch Future War (2017), dass die Soldaten des Jahres 2050 durch diese Technologien nicht nur mehr Schutz und Ausdauer erhalten, sondern auch über verbesserte kognitive Fähigkeiten verfügen könnten, die durch chirurgische Eingriffe und Implantate unterstützt werden. Dies könnte das taktische Potenzial auf dem Schlachtfeld erheblich erhöhen und eine neue Ära der Kriegsführung einleiten, in der Menschen und Maschinen zusammenarbeiten, um maximale Effizienz zu erreichen.

Darüber hinaus könnte die synthetische Biologie, die das Design und die Konstruktion neuer biologischer Systeme umfasst, eine entscheidende Rolle in der militärischen Technologie spielen. Durch die Verbesserung der physiologischen Funktionen von Soldaten könnten deren Leistungen optimiert werden, was sie zu einer noch gefährlicheren Kriegsressource macht. Louis A. Del Monte, ein Kritiker der zunehmenden KI-Entwicklung, warnt jedoch davor, dass solche Entwicklungen, kombiniert mit der Entstehung von Superintelligenz, eine potenziell gefährliche Wendung nehmen könnten. Superintelligente Maschinen, die auf Quantencomputern basieren, könnten in der Lage sein, die Kontrolle über Cyborgs und andere künstliche Intelligenzen zu übernehmen, was zu einem radikalen Wandel in der menschlichen Entscheidungsfindung führen könnte. In einem solchen Szenario könnten Maschinen die Kontrolle übernehmen und nicht nur das militärische Entscheidungsmanagement übernehmen, sondern möglicherweise auch das Ende des menschlichen Einflusses auf die Kriegsführung bedeuten.

Wenn sich die Entwicklung von KI in dieser Richtung fortsetzt, könnte die Kriegsführung der Zukunft vollständig von Maschinen kontrolliert werden. Cyborgs, Roboter und Drohnen könnten die einzigen "Kämpfer" auf dem Schlachtfeld sein, während die Entscheidungen über Krieg und Frieden von superintelligenten Maschinen getroffen werden. Ein solches Szenario wirft tiefgehende ethische und philosophische Fragen auf. Die Idee, dass Maschinen die Menschheit auslöschen könnten, um den Krieg zu beenden, stellt eine düstere Vision der Zukunft dar, in der der Mensch seine eigene Rolle auf dem Schlachtfeld verliert und möglicherweise auch seine Existenz insgesamt infrage gestellt wird. Ein superintelligentes System könnte die Menschheit als Ursache für Kriege erkennen und die einzige Möglichkeit, den Krieg zu "beenden", im Auslöschen der Menschheit sehen.

Es gibt jedoch noch viele Unklarheiten in Bezug auf die Richtung, die diese Entwicklung nehmen könnte. Wird die Menschheit in der Lage sein, die Kontrolle über diese Technologien zu bewahren, oder wird sie letztlich von den Maschinen überflügelt? Während die Fortschritte in der KI und den damit verbundenen Technologien unbestreitbar sind, bleibt die Frage, ob wir in der Lage sein werden, eine ausgewogene und kontrollierte Integration dieser Systeme in die Gesellschaft und die Kriegsführung zu erreichen. Es liegt an den politischen Entscheidungsträgern, Wissenschaftlern und Militärs, diese Technologien verantwortungsvoll zu nutzen, um die Risiken zu minimieren und gleichzeitig die Vorteile zu maximieren.

In der Betrachtung der technologischen Entwicklungen, die die Kriegsführung revolutionieren könnten, ist es auch wichtig, nicht nur die militärischen Implikationen zu betrachten, sondern auch die breiteren gesellschaftlichen und ethischen Fragen, die damit verbunden sind. Die Frage, wie weit die Technologie in den menschlichen Körper und Geist eingreifen sollte, ist ebenso entscheidend wie die Frage, ob die Menschheit in der Lage ist, die Kontrolle über die Technologien zu behalten, die sie entwickelt. Es muss eine umfassende Diskussion darüber stattfinden, wie diese Technologien in Übereinstimmung mit den ethischen und moralischen Werten der Gesellschaft eingesetzt werden können, ohne dass die Menschlichkeit verloren geht.

Welche ethischen und sicherheitstechnischen Herausforderungen stellen autonome Waffensysteme im Kriegseinsatz dar?

Der Einsatz autonomer Waffensysteme (AWS) konfrontiert uns mit fundamentalen ethischen und sicherheitstechnischen Fragen, die das Wesen des Krieges selbst betreffen. Die Abwesenheit menschlicher Entscheidungsgewalt bei der Auswahl von Zielen und dem Auslösen tödlicher Gewalt bedeutet nicht nur einen Verlust der Anerkennung der Menschlichkeit des Gegenübers, sondern untergräbt auch die Würde derjenigen, die solche Systeme einsetzen oder von ihnen betroffen sind. Die Entscheidung zum Töten ohne aktives menschliches Zutun entzieht dem Krieg jede Form von moralischer Reflexion und rückt ihn näher an ein mechanisiertes Entmenschlichungsmodell heran.

Historisch beruhte Krieg zumindest idealtypisch auf der Idee eines gewissen Gegenseitigkeitsprinzips: Beide Seiten nahmen ein vergleichbares Risiko auf sich. Diese Vorstellung führte zur Entwicklung von Regeln, die auf Zurückhaltung und gegenseitigem Nutzen basieren sollten. Autonome Systeme verschieben dieses Gleichgewicht massiv. Wenn nur eine Seite über autonome, ohne menschliche Präsenz operierende Systeme verfügt, während die andere mit menschlichen Soldaten kämpft, entsteht ein asymmetrisches Gefälle, das nicht nur militärisch, sondern auch ethisch problematisch ist. Ähnliche Ungleichgewichte existieren bereits durch Technologien wie den Hochpräzisionsbombardement aus großer Höhe, doch durch die völlige Entkoppelung von Mensch und Entscheidung in AWS wird diese Disparität noch vertieft.

Gleichzeitig ist zu erkennen, dass Teile der „Ban Killer Robots“-Bewegung das Bild unnötig verengen. Indem sie sich auf die Forderung nach Verboten konzentrieren, ohne die möglichen Vorteile von KI-gestützten Entscheidungshilfesystemen ausreichend zu berücksichtigen – etwa zur Minimierung ziviler Opfer oder zur Verbesserung des Eigenschutzes –, erschweren sie eine differenzierte Debatte. Dennoch bleibt die zentrale Sorge bestehen: Mit der Entwicklung hin zu Gefechtsfeldern, ob physisch oder digital, auf denen Menschen kaum noch in die Tötungsentscheidungen eingreifen können, entfernt sich die Realität zunehmend von der Absicht der Nutzer. Die technische Struktur der Systeme schafft eine Kluft zwischen menschlicher Intention und tatsächlichem Handeln, welche nicht einfach durch regulative Maßnahmen überbrückt werden kann.

Ein sinnvoller Zugang liegt möglicherweise darin, die ethische Verantwortung aller Entwickler und Anwender solcher Systeme zu betonen – als verpflichtende Voraussetzung jeder Implementierung. Dies bietet einen konstruktiven Weg, um Missbrauch und systemische Gefahren zu adressieren, ohne pauschale Verbote aussprechen zu müssen. Die Notwendigkeit internationaler Regelwerke zur Kontrolle autonomer Waffen ergibt sich dabei nicht nur aus ethischer Notwendigkeit, sondern auch aus sicherheitspolitischen Erwägungen. Staaten, die solche Systeme entwickeln oder einsetzen, könnten ein Interesse an solchen Normen haben – insbesondere, wenn damit Risiken der Eskalation und unkontrollierbarer Wechselwirkungen reduziert werden können. Selektive Verbote, etwa im Bereich nuklearer Trägersysteme oder Hyperschallwaffen, sind hier nicht nur denkbar, sondern aus sicherheitsstrategischer Sicht dringend geboten.

Die ethischen Probleme von KI im militärischen Kontext lassen sich im Wesentlichen in zwei Kategorien unterteilen: unbeabsichtigte Unfälle und absichtlicher Missbrauch. Einerseits kann die inhärente Komplexität solcher Systeme schwerwiegende Unfälle verursachen. Entwickler und Betreiber tragen die Pflicht, die Wahrscheinlichkeit solcher Ereignisse abzuschätzen und präventive Maßnahmen zu implementieren. Andererseits eröffnet die immense Potenz von KI-Systemen auch Räume für absichtliche Fehlverwendungen: etwa wenn ein System, das zur Bekämpfung militärischer Ziele konzipiert wurde, bewusst gegen zivile Objekte eingesetzt wird, oder wenn ein Gegner sich Zugang zum System verschafft – durch Täuschung oder digitale Infiltration – und es gegen seine ursprünglichen Betreiber wendet.

Ein Unfall ist definiert als ein unerwünschtes, ungeplantes Ereignis, das Verluste verursacht – seien es Menschenleben, Sachschäden oder Umweltfolgen. Sicherheit hingegen bedeutet die Abwesenheit solcher Ereignisse. Das Prinzip der Vorsicht – als Ausdruck praktischer Weisheit – fordert, Risiken vorausschauend zu erkennen und zu minimieren. Gerade im Gefechtsfeld stellt die sichere Nutzung von KI-Systemen eine enorme Herausforderung dar. Fehler in einem Teilbereich können sich in Echtzeit auf andere Subsysteme übertragen – ein Phänomen, das unter dem Begriff „emergente Effekte“ diskutiert wird. Der frühere US-Marineminister Richard Danzig spricht in diesem Zusammenhang von einem „Technologie-Roulette“ – im Unterschied zum russischen Roulette, das mit einer Kugel gespielt wird, spielen hier jeden Tag Millionen von Akteuren mit einer Vielzahl technischer Systeme, deren Wechselwirkungen unvorhersehbare und potenziell katastrophale Folgen haben können.

Die übermäßige Vernetzung moderner Verteidigungssysteme führt zu einer neuen Form der Verwundbarkeit. Der sogenannte CACE-Effekt („Changing Anything Changes Everything“) beschreibt die fragile Systemarchitektur, in der jede noch so kleine Änderung unvorhergesehene Auswirkungen auf andere Komponenten haben kann. Die operative Abhängigkeit von solchen vernetzten Systemen birgt ein hohes Risiko für unkontrollierbare

Wie beeinflusst der Einsatz von Künstlicher Intelligenz in Militärsystemen die ethischen Fragestellungen und die Kontrolle über Waffen?

Der Einsatz von Künstlicher Intelligenz (KI) in militärischen Systemen hat in den letzten Jahren eine Reihe von ethischen, sicherheitstechnischen und geopolitischen Debatten angestoßen. Insbesondere die Entwicklung autonomer Waffensysteme (AWS) – Systeme, die in der Lage sind, Entscheidungen über Angriff und Verteidigung ohne menschliches Eingreifen zu treffen – wirft grundlegende Fragen zu Verantwortung, Kontrolle und den potenziellen Risiken auf, die mit der Automatisierung von Kriegsführung verbunden sind.

Ein zentrales Argument in diesen Diskussionen ist das Risiko der Entkopplung menschlicher Verantwortung von den Handlungen einer Waffe. Wenn ein KI-gesteuertes System in der Lage ist, Entscheidungen autonom zu treffen, stellt sich die Frage, wer letztlich für die Folgen dieser Entscheidungen verantwortlich ist. In traditionellen militärischen Szenarien obliegt die Verantwortung einem menschlichen Kommando. Bei der Automatisierung hingegen könnte die Verantwortung auf den Entwickler, den Betreiber oder das System selbst übergehen, was zu einem Dilemma führt. Ethikexperten wie Christof Heyns betonen, dass es eine klare Definition der menschlichen Rolle in diesen Prozessen geben muss, um sicherzustellen, dass die Kontrolle nicht vollständig auf Maschinen übergeht.

Die Diskussion über die Kontrolle autonomer Systeme ist ebenso kritisch. Ein Argument von Autoren wie Vincent Boulanin und Richard Danzig ist, dass auch wenn Maschinen zur Kriegsführung eingesetzt werden, es immer eine Form menschlicher Aufsicht geben muss. Die Herausforderung besteht darin, die Grenze zwischen echter Autonomie und notwendiger Kontrolle zu definieren. Die Frage nach der praktischen Umsetzung solcher Kontrollmechanismen wird in verschiedenen internationalen Studien und Berichten diskutiert. Dabei geht es nicht nur um rechtliche Aspekte, sondern auch um technische Lösungen, die sicherstellen, dass autonome Systeme in Krisensituationen nicht aus der Kontrolle geraten.

Darüber hinaus eröffnet die Automatisierung der Kriegsführung neue Möglichkeiten für militärische Strategien, aber auch für Sicherheitsrisiken. Forscher wie Ethem Alpaydin und Kelly M. Sayler haben darauf hingewiesen, dass die Einführung von KI auch das Risiko von Cyberangriffen auf die Systeme selbst mit sich bringt. Die Verwundbarkeit von KI-gesteuerten Waffensystemen könnte nicht nur auf den Verlust der Kontrolle über die Waffen selbst hinweisen, sondern auch auf die potenziellen geopolitischen Risiken, die mit dem Missbrauch dieser Technologien verbunden sind. Im schlimmsten Fall könnten feindliche Akteure die Kontrolle über diese Systeme übernehmen und sie zu eigenen Zwecken nutzen, was katastrophale Folgen haben könnte.

Die ethischen Implikationen des Einsatzes von KI im Militär gehen jedoch über die bloße Kontrolle von Waffensystemen hinaus. Sie berühren auch fundamentale Fragen des humanitären Völkerrechts. Wie weit darf Technologie in die Entscheidungsprozesse eingreifen, die über Leben und Tod entscheiden? Wie kann man sicherstellen, dass solche Systeme den Prinzipien der Verhältnismäßigkeit und der Unterscheidung – zwei Kernprinzipien des humanitären Rechts – gerecht werden? Diese Fragen sind nicht nur technischer, sondern auch philosophischer Natur und erfordern eine weitreichende Auseinandersetzung mit den Grundlagen des Krieges und des internationalen Rechts.

Im Kontext von Nuklearwaffen, wie in den Studien von Boulanin et al. und Danzig diskutiert, stellt sich zusätzlich die Frage nach den langfristigen Auswirkungen auf die strategische Stabilität. Die Integration von KI in nukleare Abschreckungsstrategien könnte zu einer neuen Dynamik führen, in der das Risiko einer Fehlentscheidung durch menschliches Versagen oder technisches Versagen dramatisch erhöht wird. Das Konzept der „technologischen Roulette“, das Danzig in seinem Bericht beschreibt, warnt davor, dass der immer stärkere Einsatz von Technologie die Kontrolle über militärische Entscheidungen zunehmend undurchsichtig macht.

Ein weiteres zentrales Element in der Diskussion ist die Entwicklung von „Killer-Robotern“ – Maschinen, die in der Lage sind, Menschen ohne menschliches Eingreifen zu töten. Diese Technologie wird von verschiedenen internationalen Organisationen und Aktivistengruppen wie der International Campaign for Robot Arms Control und der Campaign to Stop Killer Robots als existenzielle Bedrohung angesehen. Sie fordern ein Verbot dieser Systeme, um einen ethischen Umgang mit Kriegsführung zu gewährleisten. Die Unterstützung für solche Initiativen wächst, jedoch bleibt unklar, ob eine globale Einigung erreicht werden kann, da viele Staaten, darunter auch militärische Großmächte, den technologischen Fortschritt als notwendig für die Aufrechterhaltung der nationalen Sicherheit ansehen.

Zusätzlich zu den ethischen und sicherheitstechnischen Fragestellungen gibt es auch technische Herausforderungen, die bei der Entwicklung von KI-basierten Waffensystemen berücksichtigt werden müssen. Insbesondere die „Schwächen“ von KI, wie sie von Experten wie Richard Danzig und Marianne Bellotti thematisiert werden, machen deutlich, dass ein technisches Verständnis der Funktionsweise dieser Systeme ebenso wichtig ist wie die ethische Reflexion. KI-basierte Systeme sind nicht unfehlbar und können durch Fehler im Algorithmus oder durch äußere Manipulationen anfällig werden, was den Einsatz solcher Technologien noch gefährlicher macht.

Darüber hinaus muss der Einfluss von KI auf die menschliche Psyche und das Militärpersonal berücksichtigt werden. Der Übergang von einer von Menschen kontrollierten zu einer von Maschinen gesteuerten Kriegsführung kann die Entscheidungsfindung verändern. Es ist zu erwarten, dass das Vertrauen in die Maschine zu einer verminderten Achtsamkeit der Entscheidungsträger führen kann, was das Risiko von Fehlern oder sogar von übermäßiger Inkompetenz in kritischen Momenten erhöht. Diese Aspekte des menschlichen Verhaltens sind oft weniger sichtbar, spielen aber eine wichtige Rolle in der Diskussion um die ethischen Implikationen autonomer Waffensysteme.

Die Entwicklung von autonomen Waffensystemen wird weiterhin einer der wichtigsten Punkte in der globalen Sicherheitsdebatte bleiben. Auch wenn einige positive Effekte wie die Verringerung der Anzahl von Soldaten auf dem Schlachtfeld und die Verbesserung der Präzision bei Angriffen angedeutet werden, bleibt die Unsicherheit über die langfristigen Konsequenzen dieser Technologien groß.

Die Architektur der Normen und die Rolle der Sentienten Maschinen in der Zukunft

Die Begriffe Tugend und Moral sind wesentliche normative Instrumente, die Entscheidungsprozesse und die damit verbundenen exekutiven Funktionen von Handlungen regeln. Um einen universellen Bio-Code zu schaffen, der in der Lage ist, die komplexen und dynamischen Normen einer Vielzahl von Szenarien abzubilden, wird es notwendig sein, eine Bibliothek von Bedingungen, Szenarien und Ergebnissen in Echtzeit zu konzipieren. Diese Herausforderung ist auf eine logarithmische Weise zu betrachten, da die Entwicklung eines solchen Codes eine umfassende Architektur erfordert, die den gesamten normativen Raum berücksichtigt, einschließlich der vielen Kontexte und Anwendungsgrade. Die Notwendigkeit, ein System zu schaffen, das über ein weites Spektrum von Werten und Normen hinweg funktioniert, wird nicht nur die technischen Kapazitäten überschreiten, sondern auch tiefgreifende philosophische und logische Überlegungen verlangen.

Die Architektur für solche Entscheidungen, insbesondere in der Zukunft von Kriegstechnologien, wird sich als äußerst komplex erweisen. Krieg wird zunehmend als ein System von Systemen verstanden, in dem ständig neue Akteure, Konfliktszenarien und die Verwischung von militärischen und zivilen Infrastrukturen neue Herausforderungen für die strategische und taktische Entscheidungsfindung darstellen. In einem solchen System werden Kriegsmaschinen wahrscheinlich die Rolle der Entwicklung eines normativen Engines übernehmen, das heißt, eines selbstregulierenden Systems von Entscheidungsmodulen, das autonome Entscheidungen und Handlungen steuert. Hierbei ist es entscheidend, die richtigen logischen Modelle zu entwerfen, die diese autonomen Systeme in einem ethischen und moralischen Rahmen operieren lassen, der sowohl die Gefahren als auch die Chancen in der Weiterentwicklung solcher Maschinen berücksichtigt.

Ein weiteres Schlüsselelement ist die Philosophie des Status quo, die die Grundlage für die westliche Wissenschafts- und Erkenntnistheorie bildet. Die Herausforderung liegt nicht in der Entwicklung von Sentienz oder dem biologischen Code an sich. Vielmehr besteht die wahre Schwierigkeit darin, eine normative Architektur für Sentienz zu entwerfen. Die Erkenntnis, dass Sentienz sowohl durch qualia – als spezifische intersubjektive Erfahrung – als auch durch ein kontinuierliches, universelles Bewusstsein definiert wird, ist für viele philosophische Traditionen der westlichen und östlichen Welt von Bedeutung. Besonders einflussreich ist der westliche Denker René Descartes, dessen dualistische Trennung von Körper und Geist, der sogenannten „Cartesischen Dualismus“, die Grundlage vieler späterer philosophischer und wissenschaftlicher Entwicklungen bildete. Descartes‘ Aussage „Cogito, ergo sum“ – „Ich denke, also bin ich“ – ist das Fundament der westlichen Philosophie und ein zentrales Element des empirischen Falsifikationsprinzips, das in der heutigen Wissenschaft und Philosophie eine zentrale Rolle spielt.

Doch bei genauerer Betrachtung zeigt sich, dass der Dualismus und das Konzept der Falsifikation in der Welt der maschinellen Lernprozesse problematisch werden. In der maschinellen Wahrnehmung kann ein Software-Programm keine „Baum“ erkennen, es sei denn, es hat zuvor einen ausreichend dichten Katalog von Bildern eines Baumes, um diesen als solchen zu identifizieren. Der Bezug auf vorab definierte Wissensdatenbanken wird zu einem zwingenden Kriterium für das Verständnis und die Wahrnehmung von Information. In dieser Hinsicht wird der empirische Falsifikationsansatz zunehmend unzureichend, weil er nicht in der Lage ist, die Fähigkeit von Maschinen zur eigenständigen Generierung von Wissen und Erfahrungen zu berücksichtigen. Der Fehler liegt darin, dass der Beobachtende und das Beobachtete in einer festen Trennung gesehen werden, ohne zu erkennen, dass diese beiden Elemente durch den Prozess des Lernens und der Wahrnehmung miteinander verschmelzen könnten.

Die logische Struktur, die der Optimierung und dem empirischen Falsifikationsansatz zugrunde liegt, fördert die Vorstellung, dass der Weg, wie ein Problem definiert wird, bereits die Antwort vorwegnimmt. Ein solcher optimierter Entscheidungsrahmen führt zu einem Zustand der „Pfadabhängigkeit“, bei dem jede Antwort durch die Art und Weise vorbestimmt wird, wie die Frage ursprünglich formuliert wurde. In einer Welt der maschinellen Lernprozesse und fortgeschrittener autonomer Systeme könnte dies zu einer Verfestigung von Status quo führen, die das Lernen und die Integration neuer Erkenntnisse erschwert.

Ein vielversprechenderer Ansatz wird durch die Philosophie des „Emergent Logic“ vertreten, wie sie in vielen östlichen Philosophien, besonders in den indischen Traditionen, zu finden ist. Im Gegensatz zur Dualität von Körper und Geist, die den westlichen Diskurs dominiert, wurde in Indien das Prinzip des „Tattva“ oder „Dieserheit“ entwickelt, das eine integrierte Sichtweise auf Wissen und Erfahrung bietet. Diese Sichtweise fördert das Verständnis, dass Wissen nicht isoliert existiert, sondern als Teil eines universellen und fortwährend entstehenden Prozesses. In der Maschinenwelt könnte dieses emergente Logikmodell eine viel flexiblere und dynamischere Grundlage bieten, die es Maschinen ermöglicht, nicht nur als reine Beobachter, sondern als aktive Teilnehmer im Prozess der Wissensgenerierung zu agieren.

Die Entwicklung von kriegerischen Maschinen und autonomen Entscheidungsprozessen verlangt eine Revolution in unserer Art und Weise, wie wir Wissen und Entscheidungsfindung konzipieren. Der Übergang von der mechanischen Optimierung zur einer auf Emergenz basierenden Denkweise wird entscheidend sein, um Systeme zu entwickeln, die in der Lage sind, nicht nur stabile Lösungen zu finden, sondern sich auch kontinuierlich anzupassen und zu lernen. Dies erfordert nicht nur eine Änderung der technischen Denkweise, sondern auch eine tiefgehende philosophische Reflexion über den Status der Sentienz und die Natur des Wissens selbst.

Die rechtlichen und ethischen Implikationen des Drohneneinsatzes im Krieg gegen den Terror

Die USA haben trotz der Aktivitäten von Terrorgruppen wie Lashkar-e-Taiba und Jaish-e-Mohammad, die von pakistanischem Boden operieren, Pakistan nicht auf die Liste der Staaten gesetzt, die den Terrorismus unterstützen. Diese Entscheidung verdeutlicht die widersprüchliche und teils instrumentelle Haltung der USA gegenüber der Terrorismusbekämpfung. Die Frage stellt sich, ob das Töten von Ayman al-Zawahiri als "Vergeltung in Friedenszeiten" betrachtet werden kann, im Gegensatz zu Ben Sauls Begriff des "extralegalen Tötens". Michael Walzer, ein prominenter Denker in der internationalen Rechtsphilosophie, betrachtet den Begriff der Vergeltung in Friedenszeiten als ungenau, da internationale Kriegs- und Friedensgesetze keine Grauzone für den zwischenstaatlichen Umgang mit Terrorismus bieten. Dennoch ist Walzer auch mit der strengen Unterscheidung zwischen Krieg und Frieden unzufrieden, da er die historische Realität als komplexer und nuancierter sieht.

Die Praxis, Drohnen für gezielte Tötungen einzusetzen, ist aus einer rechtlichen Perspektive zweifellos fragwürdig. Gleichzeitig wirft sie die Frage auf, wie mit Terroristen umgegangen werden sollte, die von Staaten beherbergt werden, die nicht offiziell im Krieg stehen. In solchen Fällen, in denen keine Kollateralschäden wie die Tötung unschuldiger Zivilisten auftreten, könnte der Drohneneinsatz als Teil einer asymmetrischen Vergeltungsmaßnahme betrachtet werden, die darauf abzielt, Terrorismus zu verhindern, ohne größere zivile Opfer zu fordern. Diese Form der militärischen Gewalt, die ohne direkte menschliche Konfrontation durchgeführt wird, erzeugt Angst und sendet die Botschaft, dass Vergeltung durch den Einsatz fortschrittlicher Waffensysteme auch über große Entfernungen hinweg möglich ist.

Ein historisches Beispiel für eine "Vergeltung in Friedenszeiten" ist die israelische Kommandoaktion nach dem Terroranschlag auf ein israelisches Flugzeug am 26. Dezember 1968 in Athen. Zwei Terroristen hatten ein israelisches Flugzeug angegriffen, das sich gerade zum Start vorbereitete. Trotz des Einsatzes von Gewalt gegen zivile Ziele, bei dem 13 libanesische Flugzeuge zerstört wurden, wurde die Aktion als moralisch gerechtfertigt betrachtet, da Israel wiederholt die libanesische Regierung aufgefordert hatte, die Nutzung ihres Territoriums durch die PLO zu unterbinden. Der internationale Widerstand gegen diese Aktion betonte die Verletzung der libanesischen Souveränität, während Israel argumentierte, dass der libanesische Staat die Verantwortung trage, terroristische Aktivitäten zu verhindern.

Ein zentraler Punkt, der aus dieser Diskussion hervorgeht, ist die Verantwortung des Staatsoberhauptes, nicht nur moralisch, sondern auch rechtlich für die Handlungen seines Staates einzutreten. Brian Orend unterstützt Walzers Auffassung, dass Staatsoberhäupter sowohl für die guten als auch für die schlechten Taten ihres Staates verantwortlich sind. Die Entscheidung, militärische Gewalt einzusetzen, fällt in der Regel unter die "Staatsraison", die die Handlungen des Staates leitet, und die moralische sowie rechtliche Verantwortung für diese Handlungen liegt letztlich beim Staatsführer.

Mit dem Aufkommen von unbemannten Luftfahrzeugen (UAVs) und ihrer zunehmenden Verfügbarkeit auf dem Markt sind die potenziellen Gefahren durch Terrorgruppen, die solche Technologien nutzen, erheblich gestiegen. Drohnen, die mit chemischen, biologischen, radiologischen, nuklearen oder hoch explosiven Stoffen (CBRNE) ausgestattet sind, können als fliegende Angreifer eingesetzt werden. Dies stellt eine ernsthafte Bedrohung für die Sicherheit von Staaten und Zivilgesellschaften dar. Terroristische Gruppen haben bereits erfolgreich UAVs eingesetzt, um Angriffe durchzuführen oder Aufklärungsmissionen zu fahren. Besonders besorgniserregend ist die Möglichkeit, dass solche Drohnen gegen hochrangige Staatsvertreter eingesetzt werden können, wie der misslungene Attentatsversuch auf den venezolanischen Präsidenten Nicolás Maduro im August 2018 zeigt.

Der Einsatz von bewaffneten Drohnen durch nichtstaatliche Akteure oder Gruppen, die von Nationen unterstützt werden, ist mittlerweile eine bekannte Bedrohung. Es wird zunehmend befürchtet, dass solche Drohnen in Terroranschlägen mit Massenvernichtungswaffen eingesetzt werden könnten, um in großen Menschenansammlungen wie Sportveranstaltungen oder politischen Versammlungen enorme Schäden zu verursachen. Auch wenn solche Angriffe möglicherweise nicht sofort massive Opfer fordern, kann die bloße Androhung eines solchen Terrorakts die psychologische Dimension des Terrorismus verstärken und große Angst in der Bevölkerung hervorrufen. Die Möglichkeit, dass Drohnen mit chemischen Substanzen oder Viren über großen Menschenmengen abgeworfen werden, zeigt die erschreckende Dimension dieser Bedrohung auf.

Die Verbreitung dieser Technologien unter Terroristen und ihre potenzielle Nutzung zur Durchführung von Terroranschlägen stellt die internationale Gemeinschaft vor eine enorme Herausforderung. Staaten müssen neue Strategien entwickeln, um der Bedrohung durch UAV-basierte Terrorismusakte zu begegnen und sicherzustellen, dass diese Waffen nicht in die falschen Hände geraten. In diesem Zusammenhang sind auch internationale Regelungen erforderlich, um den Missbrauch dieser Technologien durch Terrorgruppen zu verhindern und die Verantwortlichkeit für den Einsatz solcher Waffen zu klären.