Künstliche Intelligenz (KI) ist mittlerweile ein unverzichtbarer Bestandteil vieler moderner Technologien, einschließlich der Militärtechnik. Besonders im Bereich der Luftfahrt hat KI das Potenzial, den Verlauf von Kriegen zu verändern, indem sie die Effizienz und Autonomie von Waffensystemen erhöht. Autonome Waffensysteme, die in der Lage sind, Operationen ohne menschliches Eingreifen auszuführen, stellen einen entscheidenden Schritt in der militärischen Technologie dar. Diese Systeme könnten dazu beitragen, menschliche Fehler zu minimieren, die Reaktionsgeschwindigkeit zu verbessern und Operationen mit einer bisher unerreichten Präzision durchzuführen.

Das Konzept der Autonomie in Waffensystemen ist jedoch nicht neu. Schon im Zweiten Weltkrieg wurden erste autonome Systeme wie der Norden-Bombsight oder die V-1-Flugbomben eingesetzt, die durch Sensoren und Computer gesteuert wurden, während die Entscheidungsgewalt stets beim menschlichen Operator blieb. Moderne autonome Waffensysteme gehen jedoch weit darüber hinaus. Dank zunehmender Rechenleistung und fortschrittlicher maschineller Lerntechnologien sind heute Systeme möglich, die eine völlig eigenständige Entscheidungsfindung ohne direkte menschliche Kontrolle ermöglichen. Diese Entwicklung wird nicht nur durch die Verbesserung der KI vorangetrieben, sondern auch durch die kontinuierliche Forschung im Bereich des maschinellen Lernens (ML), das den Maschinen die Fähigkeit verleiht, aus Erfahrungen zu lernen und ihre Fähigkeiten zu verbessern.

Autonomie in militärischen Systemen kann auf verschiedenen Ebenen realisiert werden. Zunächst einmal gibt es die Unterscheidung zwischen „Human in the Loop“ (semi-autonome Systeme mit aktiver Kontrolle durch den Menschen), „Human on the Loop“ (Systeme, die vom Menschen überwacht werden) und „Human out of the Loop“ (vollständig autonome Systeme, die ohne menschliche Intervention agieren). Besonders die letztere Kategorie könnte langfristig den größten Einfluss auf militärische Operationen haben, da sie den Bedarf an menschlicher Entscheidungsfindung minimiert und die Durchführung von Missionen in Echtzeit optimiert.

Die Sophistizierung solcher Systeme variiert je nach Komplexität der eingesetzten Technologien. Reaktive Systeme, die einfache Bedingungs-Aktions-Regeln befolgen, sind die grundlegendste Form der Autonomie. Komplexere Systeme nutzen Modelle der realen Welt, um ihre Entscheidungen auf der Grundlage von Informationen über die Umwelt und das Ziel zu treffen. Schließlich gibt es noch lernende Systeme, die sich durch die Sammlung von Erfahrungen verbessern und ihre Handlungen im Laufe der Zeit anpassen können.

Ein weiterer wichtiger Aspekt ist die Art der Aufgaben, die durch KI in militärischen Systemen übernommen werden. Zu den operationalen Aufgaben gehören etwa Mobilität und Fehlermanagement, während Missionen wie Zielidentifikation, Bombenentschärfung und die Durchführung gezielter Angriffe durch KI unterstützt werden können. Diese Entwicklungen haben nicht nur das Potenzial, die Genauigkeit und Effizienz militärischer Operationen zu steigern, sondern auch die taktische Planung zu revolutionieren.

Die Anwendung von KI im militärischen Bereich ist jedoch nicht ohne Herausforderungen. Es stellt sich die Frage, wie man die Entscheidungsträger in Krisensituationen dazu bringt, auf KI-Systeme zu vertrauen, insbesondere wenn es um tödliche Entscheidungen geht. KI kann, wenn sie in autonome Waffensysteme integriert wird, zu einer radikalen Umgestaltung der Kriegsführung führen. Die Vorstellung, dass Maschinen entscheiden, wann und wie Gewalt ausgeübt wird, stellt ethische und rechtliche Fragen, die weit über die rein technologische Dimension hinausgehen.

Ein weiterer wichtiger Aspekt, der oft übersehen wird, ist die Rolle der KI im Bereich der elektronischen Kriegsführung und der militärischen Spionage. Systeme, die mit KI und maschinellem Lernen ausgestattet sind, können in der Lage sein, feindliche Kommunikationsnetzwerke zu infiltrieren, elektronische Angriffe durchzuführen und Daten aus der Ferne zu sammeln. Diese Technologien sind ein zunehmend wichtiger Bestandteil moderner Kriegsführung, da sie es ermöglichen, schnell auf sich ändernde Bedrohungen zu reagieren und die Effektivität von Missionen zu maximieren.

In der Zukunft könnte die Entwicklung von KI zu einer vollen Autonomie in militärischen Systemen führen. Dies würde eine neue Ära der Kriegsführung einläuten, in der die Kontrolle über die Entscheidungen der Maschinen nicht mehr in den Händen des Menschen liegt, sondern von der KI selbst übernommen wird. Dies könnte nicht nur die militärischen Fähigkeiten eines Landes verbessern, sondern auch die Art und Weise, wie internationale Konflikte geführt werden, nachhaltig verändern.

Für den Leser ist es entscheidend, zu verstehen, dass KI in der militärischen Luftfahrt nicht nur ein technisches Upgrade darstellt, sondern tiefgreifende geopolitische und ethische Implikationen hat. Während die Technologie die Effizienz und Genauigkeit von Militäroperationen verbessern könnte, werfen ihre Einsatzmöglichkeiten auch Fragen zu Verantwortung und Kontrolle auf, die noch weitgehend ungelöst sind. Des Weiteren sollte beachtet werden, dass die Entwicklung dieser Technologien nicht nur in den Händen von Industriemächten liegt, sondern auch in kleineren Ländern, was zu einer Verschiebung der militärischen Balance weltweit führen könnte.

Die Rolle von Sicherheit und Ausbildung in der Nutzung KI-gestützter Systeme im Militär

Im Bereich der Künstlichen Intelligenz (KI) ist es nicht die Zahl der Fehler im Code, die die größte Bedrohung für die sichere Nutzung dieser Systeme darstellt, sondern vielmehr die Sicherheitsanforderungen, die an die Nutzer gestellt werden. Dieses Problem lässt sich nur dann effektiv lösen, wenn Softwareentwickler während des gesamten Designprozesses mit den Endnutzern in Kontakt stehen. Vertrauen entsteht nur dann, wenn die Nutzer sich in ihrer Betriebsumgebung sicher fühlen, und die Entwickler die Herausforderungen verstehen, mit denen die Nutzer konfrontiert sein werden. Das regelmäßige Einholen von Feedback und die Möglichkeit, im Systemdesign zu experimentieren, sind entscheidend, um den Nutzern zu ermöglichen, ihre Kontrolle zu optimieren. In früheren Systemdesigns, die weniger automatisiert waren, hatten die Betreiber von Systemen die natürliche Fähigkeit, zu experimentieren und ihre mentalen Modelle des aktuellen Systemzustands zu aktualisieren. Bei hochautomatisierten Systemen jedoch fehlt diese Möglichkeit oft, weil Designer Automation entwickeln, die die Betreiber „aus dem System nimmt“. Dies führt zu unerwarteten Fehlern der Nutzer, die auf einem falschen mentalen Modell beruhen. Die gängige Reaktion darauf ist, noch mehr Automatisierung hinzuzufügen und die Betreiber weiter zu marginalisieren, wodurch das Problem verschärft wird. Diese Beobachtung gilt auch für autonome Waffensysteme (AWS), da diese von Kommandanten auf dem Schlachtfeld eingesetzt werden, die die Kontrolle über diese Systeme behalten müssen. Auch wenn das System nach dem Einsatz autonom funktioniert, bleibt die Entscheidung über den Einsatz in den Händen des menschlichen Betreibers, der in der Lage sein muss, das System auf seine taktischen und strategischen Ziele auszurichten. Die Entwickler solcher Systeme müssen mit den Endnutzern regelmäßig und effektiv kommunizieren, um die Sicherheitsanforderungen des Systems richtig zu verstehen.

Eine der größten Herausforderungen im Umgang mit KI-basierten Systemen liegt in der Ausbildung der Nutzer. Entgegen weit verbreiteter Annahmen verringert Automatisierung nicht immer den Trainingsaufwand der Bediener. Vielmehr verändert sie die Anforderungen an die Leistung der Nutzer und kann sogar den Trainingsbedarf erhöhen. Automatisierte Systeme werden den Menschen nicht ersetzen, sondern ihre Rolle erweitern, indem sie ihre Aufgaben kognitiver und zielorientierter machen. In gewissem Sinne wird der Begriff „unbemannt“ in Bezug auf KI-Systeme im militärischen Bereich zu einem Missverständnis. Der Soldat wird mehr Verantwortung übernehmen müssen, nicht weniger, mit der Zunahme dieser Systeme. Eine gründliche Ausbildung im Umgang mit KI-basierten Systemen ist entscheidend, um sowohl ethische als auch sicherheitsrelevante Herausforderungen zu identifizieren und anzugehen. Hierzu gehört die Erkennung von Fehlern, Verzerrungen und Unvollständigkeiten in den Systemen und Programmen.

Die wesentlichen Anforderungen an eine ordnungsgemäße Ausbildung in Bezug auf KI lassen sich in drei Bereiche unterteilen: Erstens müssen die Nutzer durch Training herausfinden, welche Kompetenzen sie benötigen, um KI zu beherrschen, und welche sie derzeit noch nicht haben. Das Identifizieren dieser Kompetenzen setzt den Einsatz von Systemen in verschiedenen Szenarien voraus. Dies wird nicht nur dabei helfen, die Arten von Personal und Qualifikationen zu bestimmen, die für den sicheren Betrieb und die Überwachung dieser Systeme erforderlich sind, sondern auch dazu beitragen, sicherzustellen, dass die Betreiber in den Grundsätzen des internationalen humanitären Rechts (IHL) geschult werden. Sie müssen in der Lage sein zu erkennen, wann der Einsatz von KI-Systemen die fundamentalen Prinzipien von IHL/LOAC gefährdet.

Zweitens kann es einen langen Weg vom idealen Modell der Entwickler zu den realen Bedingungen geben, unter denen diese Systeme tatsächlich funktionieren. Umso wichtiger ist es, Rückkopplungsschleifen zu etablieren, damit die Schwierigkeiten, mit denen die Nutzer konfrontiert werden, klar an die Entwickler sowie an die Entscheidungsträger zur Nutzung und Bereitstellung von KI-Systemen kommuniziert werden. Nur durch das Testen der Sicherheitsgrenzen des Systems – das „Pushen des Rahmens“ – wird es möglich, die wahren Eigenschaften des Systems zu verstehen. Wie Leveson beobachtet, verwenden Betreiber Feedback, um ihre mentalen Modelle des Systems mit der Weiterentwicklung des Systems abzugleichen. Die einzige Möglichkeit, herauszufinden, dass das System sich verändert hat und das eigene Modell aktualisiert werden muss, besteht darin, zu experimentieren. Nur durch das Überschreiten der Sicherheitsgrenzen können Betreiber lernen, wo diese sich befinden.

Drittens muss das Thema der „De-Skilling“ und „Up-Skilling“ bei der Einführung von KI-Systemen im militärischen Bereich adressiert werden. „De-Skilling“ bezeichnet die Gefahr, dass durch die extreme Skalierung und Geschwindigkeit der KI-Systeme menschliche Fähigkeiten obsolet werden. Wenn KI-Systeme versagen, können traditionelle Fähigkeiten, auf die man zurückgreifen muss, entweder nicht mehr vorhanden oder nicht mehr trainiert worden sein. Dem gegenüber steht das „Up-Skilling“, das die Notwendigkeit bezeichnet, neue und qualitativ andere Fähigkeiten zu erwerben, die erforderlich sind, um diese Systeme sicher zu bedienen. Marianne Bellotti erklärt treffend, dass die Ethik der KI nicht nur die Aufsicht durch den Menschen fordert, sondern dass diese Aufsicht nur dann hilfreich ist, wenn der menschliche Betreiber genug Erfahrung und Fachwissen hat, um zu erkennen, was das richtige Ergebnis ist. In der Praxis zeigt sich, dass das zunehmende Vertrauen auf KI dazu führen kann, dass menschliche Betreiber weniger erfahren werden. Dies wird oft als „moralische Zonen der Verzerrung“ bezeichnet, da der menschliche Betreiber für Fehler der Maschine verantwortlich gemacht wird, obwohl die Komplexität des Systems es ihm unmöglich macht, den richtigen Ausgang zu verstehen.

Zusätzlich zu diesen Aspekten ist es entscheidend, dass militärische Ausbilder und Entwickler ständig die Interaktion zwischen den Nutzern und den Systemen beobachten und bewerten, um sicherzustellen, dass die Systeme den praktischen Anforderungen auf dem Schlachtfeld entsprechen. Dies erfordert eine kontinuierliche Anpassung der Trainingsprogramme und eine enge Zusammenarbeit zwischen Entwicklern, Nutzern und militärischen Entscheidungsträgern, um sicherzustellen, dass alle Beteiligten über die Grenzen und Möglichkeiten der eingesetzten Technologien informiert sind.