Die Integration von künstlicher Intelligenz in militärische Systeme stellt eine radikale Transformation der Kriegsführung dar – nicht nur auf technischer Ebene, sondern auch in Bezug auf das Selbstverständnis militärischer Akteure und die Grundlagen militärischer Ethik. Es geht dabei um mehr als nur die Einführung neuer Werkzeuge: Die Frage nach Kontrolle, Verantwortung und moralischer Urteilsfähigkeit muss in einer digitalisierten Kampfstruktur neu verhandelt werden.

Zunächst ist es unerlässlich, dass ethische und rechtliche Überlegungen integraler Bestandteil jeder Ausbildung im Umgang mit KI-gestützten Systemen sind. Dabei darf Ausbildung nicht bloß als kurzfristige, rein technische Unterweisung verstanden werden. Vielmehr muss sie eine erweiterte Form der Bildung umfassen – eine, die Fähigkeiten und Haltungen vermittelt, wie sie traditionell mit dem Begriff „Erziehung“ verbunden sind. Dazu gehört ein tiefes Verständnis des sozialen und ethischen Kontexts, in dem diese Technologien eingesetzt werden, ebenso wie ein Bewusstsein für die grundlegenden Herausforderungen, die sie für unser Verständnis von bewaffnetem Konflikt und menschlicher Verantwortlichkeit darstellen.

Der Begriff „Training“ wird oft im Sinne schneller Korrekturmaßnahmen missverstanden – als technisches Pflaster auf konkrete Fehler. Doch die Begegnung zwischen Mensch und Maschine im militärischen Raum verlangt nach einem umfassenden Bildungsansatz, der es erlaubt, ethische Standards nicht nur aufrechtzuerhalten, sondern aktiv zu gestalten – auch und gerade in technologisch hochgerüsteten Streitkräften.

Auf operationeller Ebene stellt sich die Frage nach dem Grad an Autonomie, mit dem solche Systeme eingesetzt werden. Strategische und taktische Entscheidungen müssen stets unter Berücksichtigung unterschiedlicher Modi des Einsatzes gefällt werden – mit einem klaren Verständnis der Optionen und Konsequenzen. Die Fähigkeit, zwischen verschiedenen Stufen von Autonomie zu unterscheiden und diese gezielt einzusetzen, erfordert ein hohes Maß an rechtlichem, technischem und moralischem Urteilsvermögen auf Seiten der Entscheidungsträger.

Entscheidungen auf dem Schlachtfeld – sei es im kinetischen oder im cybermilitärischen Raum – bedürfen klar definierter Einsatzregeln. Realistische Szenarien müssen im Vorfeld durchgespielt werden, um sowohl die Vorteile als auch die Risiken autonomer Systeme zu identifizieren. Während Geschwindigkeit und Reichweite von KI-Systemen erhebliche Effizienzgewinne bringen können, steigt das Eskalationspotenzial im gleichen Maße.

Ungeachtet des Autonomiegrads gilt: Alle KI-Systeme bleiben letztlich menschlicher Kontrolle unterstellt. Auch vollständig autonome Waffen unterstehen der strategischen und taktischen Autorität menschlicher Kommandanten, denen jedoch operative Entscheidungsgewalt übertragen wird. Bei halbautonomen Systemen beschränkt sich die Delegation auf Teilfunktionen wie Informationsgewinnung oder Empfehlungserstellung – nicht jedoch auf die Entscheidung über den Waffeneinsatz selbst.

Innerhalb der Fachgemeinschaft besteht weitgehende Einigkeit über die Gefahren eines Kontrollverlusts in der Anwendung von Gewalt. Dieser Verlust kann entlang der gesamten Befehlskette auftreten – von der Strategieentwicklung über die Ausbildung bis hin zum konkreten Einsatz. Dennoch herrscht Uneinigkeit über die geeignete Begrifflichkeit. Der am häufigsten verwendete Begriff, „meaningful human control“, impliziert, dass autorisierte Menschen jederzeit reale Eingriffsmöglichkeiten besitzen müssen, um laufende Prozesse stoppen oder steuern zu können. Andere, wie die USA, bevorzugen den Begriff „appropriate human judgment“, der darauf abzielt, moralische und rechtliche Vorgaben von Beginn an in die Entscheidungsprozesse zu integrieren – auch wenn eine ständige Kontrolle angesichts der Geschwindigkeit automatisierter Abläufe nicht realisierbar ist.

Diese semantischen Differenzen sind keineswegs nur terminologischer Natur. Sie spiegeln unterschiedliche ethische und operative Verständnisse wider. Der britische Vorschlag eines „intelligenten Partnerschaftsmodells“ oder die Formulierung „meaningful human control“ von NGOs wie Article 36 zeigen, wie vielschichtig die Frage nach menschlicher Einbindung ist. Ob „effective“, „appropriate“ oder „meaningful“ – allen Begriffen liegt das implizite Erfordernis zugrunde, dass menschliche Einflussnahme nicht unterschritten werden darf.

Uneinigkeit besteht auch in Bezug auf den tatsächlichen Stand der Technologie. Einige Staaten sprechen von autonomen Waffensystemen (AWS) als real existierende, bereits eingesetzte Mittel, während andere deren Einsatz noch in einer hypothetischen Zukunft sehen. Diese Diskrepanz erschwert internationale Diskussionen, da die beteiligten Akteure offenbar über unterschiedliche technologische Realitäten sprechen. So bleibt unklar, ob sich ein Verbot auf zukünftige Systeme oder auch auf bereits eingeführte Technologien beziehen soll – letztere werden von manchen Streitkräften als unverzichtbar betrachtet.

Auch die grundlegenden Begriffe wie „autonome Funktionalität“ oder „Zielauswahl“ sind bisher nicht hinreichend präzisiert. Sollten AWS völkerrechtlich verboten werden, müssten diese Begriffe eindeutig definiert werden, damit klar ist, was konkret verboten oder erlaubt ist.

Innerhalb der Debatte über „meaningful human control“ gibt es unterschiedliche Auffassungen über den relevanten Bezugspunkt. Für einige bedeutet dieser Begriff, dass ein Mensch bei jeder Entscheidung zur Anwendung tödlicher Gewalt unmittelbar beteiligt sein muss – insbesondere dann, wenn ein spezifischer Mensch als Ziel ausgewählt wird. Das würde jegliche Automatisierung bei der Zielauswahl ausschließen. Für andere wiederum liegt die Verantwortung beim Kommandanten der Operation, der die Ausführung – ob durch Mensch oder Maschine – delegiert und deren Handlungen überwachen muss. Dabei ist zu beachten, dass selbst menschliche Subjekte nicht immer exakt im Sinne ihrer Vorgesetzten handeln. Perfekte Kontrolle ist also nicht nur bei Maschinen, sondern auch bei Menschen eine Illusion – der Maßstab darf daher nicht absolute Kontrolle, sondern verantwortliche Überwachung sein.

Auch das Verhältnis zur Befehlskette verändert sich unter dem Einfluss von KI. Selbst im konventionellen Krieg sind Gehorsamsstrukturen nicht durchgehend wirksam. Zwei Situationen machen sie obsolet: Erstens, wenn zeitliche Dringlichkeit keine Befehlsübermittlung mehr erlaubt; zweitens, wenn Kommunikationsverbindungen unterbrochen sind. Darüber hinaus kann der Gehorsam an sich scheitern, wenn auf fehlerhafter Wahrnehmung basierende Befehle erteilt werden. In solchen Fällen übertrumpft eine höhere, moralische Form des Gehorsams die unmittelbare Ausführung eines Befehls.

Was dabei nicht übersehen werden darf, ist der Umstand, dass das militärische Selbstverständnis neu zu definieren ist. Wenn militärisches Handeln zunehmend in Zusammenarbeit mit Maschinen erfolgt – und nicht mehr primär mit anderen Menschen –, dann muss auch die Idee soldatischer Verantwortung, Tapferkeit und Urteilsfähigkeit in ein neues Licht gerückt werden. Die Frage, was es heißt, ein verantwortlicher militärischer Akteur zu sein, wird zur zentralen Herausforderung der nächsten Generation.

Wichtig ist außerdem, dass die internationale Gemeinschaft sich nicht nur auf Begriffe und Definitionen konzentriert, sondern auf gemeinsame, rechtlich verbindliche Normen hinarbeitet. Die Diskussion darf nicht

Wie verändert Künstliche Intelligenz die Militärtechnologie und was muss Indien tun, um mit den globalen Entwicklungen Schritt zu halten?

Der Bereich der militärischen Forschung und Entwicklung (F&E) im Bereich der unbemannten Systeme und der Künstlichen Intelligenz (KI) unterliegt einem tiefgreifenden Wandel. Insbesondere in China hat die starke Unterstützung von KI- und Robotikforschung dazu geführt, dass zahlreiche Institute in der Verteidigungsindustrie und an Universitäten zunehmend auf diesem Gebiet forschen. Die chinesische Regierung hat KI-Forschung zu einer nationalen Priorität erklärt, was zu einer intensiven Zusammenarbeit zwischen zivilen und militärischen Forschungsprojekten führt. Dies steht im starken Kontrast zu Indien, wo die Integration von KI-gesteuerten Waffensystemen in militärische Doktrinen und Planungen noch nicht die gleiche Bedeutung hat. Trotz der Herausforderungen, mit denen Indien konfrontiert ist – insbesondere im Hinblick auf Modernisierung, Logistik und operative Anforderungen – muss sich dieses Land dringend mit den technologischen Entwicklungen im Bereich KI und autonome Waffensysteme (LAWS) auseinandersetzen, um in der Kriegsführung des 21. Jahrhunderts konkurrenzfähig zu bleiben.

Indien besitzt ein vielfältiges militärisches Umfeld, in dem autonome Systeme, insbesondere LAWS, vorteilhaft eingesetzt werden könnten. Die fortschreitende Entwicklung der KI-Technologien ermöglicht die Vorstellung einer Vielzahl von Einsatzszenarien, die zunehmend komplexer werden. Ein Beispiel hierfür ist der Einsatz autonomer Systeme zur Entschärfung von improvisierten Sprengvorrichtungen (IEDs). Diese nicht-letalen, defensiven Systeme sind bereits in begrenztem Umfang im Einsatz, bieten jedoch noch Potenzial für Weiterentwicklungen. Ähnlich wie bei einem KI-gesteuerten Drohnenschwarm, der für Überwachungsaufgaben eingesetzt wird, könnte Indien seine Fähigkeiten in der Überwachung und Aufklärung erheblich verbessern, was sowohl offensive als auch defensive Operationen unterstützen würde.

Ein weiteres Beispiel für die potenzielle Nutzung von KI in Indien ist die Entwicklung von Roboter-Sentry-Systemen, die entlang der internationalen Grenze (IB) und der Kontrolllinie (LC) eingesetzt werden könnten. Diese wären mit einer tödlichen, aber defensiven Zielsetzung ausgestattet. Indien hat bereits damit begonnen, unbemannte Kampfdrohnen (UAVs) zu beschaffen, die über zunehmende Autonomie in Navigation, Erkennung, Verfolgung und Bekämpfung verfügen könnten. Dies würde die Entwicklung tödlicher und offensiver Systeme vorantreiben, die in zukünftigen militärischen Auseinandersetzungen von entscheidender Bedeutung sein könnten.

Dennoch gibt es große Herausforderungen bei der Entwicklung autonomer Soldaten für konventionelle landgestützte Offensive-Operationen. Solche Systeme erfordern eine weit höhere technologische Raffinesse und einen sehr hohen AI-Technologiegrad, um die entscheidende Fähigkeit zu entwickeln, zwischen Feind und Zivilisten zu unterscheiden und die entsprechenden ethischen Werte zu integrieren. Während einige Experten glauben, dass diese Fähigkeit nie erreicht werden kann, ist die technologische Singularität, die ein menschenähnliches Maß an Empathie und ethischem Verhalten erfordert, für andere eine mögliche Realität innerhalb dieses Jahrhunderts.

Indien hat sich international, insbesondere bei der Informellen Expertensitzung zu LAWS in Genf 2016, mit einer vorsichtigen Strategie positioniert. Das Land betont, dass die Entwicklung von LAWS auf internationaler Ebene in Übereinstimmung mit dem internationalen humanitären Recht erfolgen sollte, ohne jedoch das technologische Ungleichgewicht zwischen den Staaten zu vergrößern. Indiens Strategie besteht daher darin, die konventionelle militärische Macht zu bewahren, während gleichzeitig die Entwicklung autonomer Systeme und Waffen im Auge behalten wird. Es ist jedoch klar, dass Indien angesichts des rasanten Fortschritts von China auf diesem Gebiet dringende Maßnahmen ergreifen muss, um im Wettbewerb um diese Technologien nicht zurückzufallen.

Indien sollte verstärkt auf die Zusammenarbeit zwischen staatlichen Stellen und privaten Unternehmen setzen, um den technologischen Rückstand aufzuholen. Hierbei könnte die Zusammenarbeit zwischen zivilen akademischen Institutionen und militärischen Forschungsorganisationen wie der Defence Research and Development Organisation (DRDO) eine wichtige Rolle spielen. Die DRDO hat bereits erste Prototypen wie den Muntra UGV und den Daksh-Roboter entwickelt. Das Zentrum für Künstliche Intelligenz und Robotik (CAIR) ist dabei führend, doch die bisherigen Fortschritte sind angesichts des internationalen Wettbewerbs noch unzureichend.

Die indischen Streitkräfte, insbesondere die Armee, befinden sich noch in einem frühen Stadium der Implementierung von Netzwerkzentrierter Kriegsführung (NCW) und Informationsoperationen (IO). Der Mangel an Konzepten und einer klaren Doktrin für den Einsatz von KI und Robotik ist derzeit eines der größten Hindernisse. Selbst wenn es bei der DRDO Fortschritte gibt, kann die Organisation ohne eine enge Zusammenarbeit mit der Armee und der Industrie keine wesentlichen Durchbrüche erzielen. Im internationalen Wettbewerb wird die private Industrie, insbesondere Unternehmen wie Baidu, Amazon, Google und Microsoft, zunehmend die treibende Kraft hinter der Entwicklung dieser Technologien sein. Indien muss dringend eigene private Unternehmen fördern, um konkurrenzfähig zu bleiben.

Angesichts der hohen Komplexität der KI- und Robotiktechnologien ist es auch von entscheidender Bedeutung, dass Indien ein kohärentes System zur Führung der Forschungs- und Entwicklungsbemühungen etabliert. Der Militärische Ausbildungs- und Trainingskommando (HQ Army Training Command) muss dabei eng mit spezialisierten militärischen Institutionen zusammenarbeiten, wie etwa dem Militärischen Zentrum für elektronische und mechanische Technik (MCEME) und dem Militärischen Zentrum für Telekommunikations-Engineering (MCTE). Nur so kann sichergestellt werden, dass Indien in der Entwicklung und Implementierung autonomer Systeme den internationalen Standard erreicht.

Insgesamt muss Indien nicht nur seine militärischen Kapazitäten in Bezug auf autonome Waffensysteme stärken, sondern auch eine breite Zusammenarbeit zwischen öffentlichem Sektor, privater Industrie und akademischen Institutionen fördern. Dabei ist es unerlässlich, dass die indische Armee und die DRDO ein klareres Verständnis für die Entwicklung und Anwendung dieser Technologien entwickeln, um die militärische Effizienz und die strategische Position Indiens in der globalen Landschaft zu sichern.