Künstliche Intelligenz (KI) hat das Potenzial, die Kriegsführung grundlegend zu verändern. Sie kann nicht nur die Effizienz in der Logistik steigern, sondern auch eine präzisere Zielidentifikation und -bewertung ermöglichen und, im Extremfall, Entscheidungen ganz ohne menschliches Eingreifen treffen. Diese Entwicklung birgt sowohl Vorteile als auch Risiken, die es zu verstehen gilt, insbesondere in Bezug auf die ethischen Implikationen und die langfristigen Auswirkungen auf die militärische Stabilität.

Die Frage, ob Maschinen Entscheidungen über Leben und Tod treffen sollten, ist von zentraler Bedeutung. Im Falle von „autonomen Waffensystemen“ (AWS), die ohne direkte menschliche Kontrolle Ziele angreifen, stellen sich tiefgreifende ethische Bedenken. Auf der einen Seite wird argumentiert, dass Maschinen durch rationale Entscheidungen präziser und unvoreingenommener handeln könnten als Menschen, die oft von Emotionen und unbewussten Vorurteilen beeinflusst sind. Auf der anderen Seite gibt es die Ansicht, dass die Fähigkeit zur Empathie, die Menschen in moralischen Entscheidungsprozessen auszeichnet, in Maschinen nicht nachgebildet werden kann und somit der Verlust menschlicher Kontrolle eine Bedrohung für die Würde des Einzelnen darstellt.

Ein weiterer zentraler ethischer Konflikt betrifft die Kontrolle und Nachvollziehbarkeit der Entscheidungsprozesse. Wie kann gewährleistet werden, dass Menschen, auch wenn sie Maschinen zur Entscheidungsfindung einsetzen, die Kontrolle über das System behalten? Dies führt zu der wichtigen Frage der „Erklärbarkeit“ von KI-Systemen. In einer militärischen Umgebung, in der schnelle Entscheidungen über Leben und Tod getroffen werden, muss klar sein, wie und warum ein System zu einer bestimmten Entscheidung kommt. Dies ist besonders problematisch bei komplexen KI-Systemen, deren Entscheidungswege oft schwer nachvollziehbar sind.

Die potenziellen Gefahren von KI im militärischen Bereich gehen jedoch über ethische Fragen hinaus. Die Verwendung von KI kann auch die strategische Stabilität gefährden, insbesondere im Zusammenhang mit Kernwaffen. Die Einführung autonomer Systeme könnte das Gleichgewicht zwischen den nuklearen Großmächten destabilisieren, indem sie das Risiko unvorhergesehener Reaktionen und Fehlberechnungen erhöht. KI könnte eine neue Form der Kriegsführung ermöglichen, die schneller, effektiver, aber auch unvorhersehbarer ist als alles, was wir bisher kennen.

Ein weiteres Problem stellt die Überlastung durch Informationen dar. KI kann eine enorme Menge an Daten in Echtzeit analysieren, doch diese Fähigkeit bringt auch die Gefahr mit sich, dass wichtige Informationen übersehen oder falsch interpretiert werden. Wenn ein System, das auf Datenanalysen basiert, Empfehlungen für militärische Entscheidungen gibt, besteht das Risiko, dass diese Empfehlungen von den menschlichen Entscheidern als absolute Wahrheit angesehen werden – ein Phänomen, das als „Automatisierungsfehler“ bezeichnet wird.

Die Einführung von KI im militärischen Bereich stellt nicht nur technologische und strategische, sondern auch rechtliche Herausforderungen dar. Wer trägt die Verantwortung, wenn ein autonomes System einen Fehler macht? Ist es der Entwickler der Software, der Betreiber des Systems oder der militärische Führer, der das System eingesetzt hat? Diese Fragen sind besonders relevant, wenn man bedenkt, dass die Verwendung von KI in Waffensystemen potenziell katastrophale Auswirkungen haben kann.

Zusätzlich muss berücksichtigt werden, wie solche Systeme in die bestehende militärische Struktur integriert werden können. KI-gesteuerte Systeme, die Entscheidungen über Ziele treffen, benötigen eine neue Form der Ausbildung für die menschlichen Bediener. Diese müssen nicht nur in der Handhabung der Technologie geschult werden, sondern auch in den ethischen und strategischen Aspekten des Einsatzes solcher Systeme. Dabei geht es nicht nur um technische Kompetenzen, sondern auch um ein tieferes Verständnis der moralischen und politischen Implikationen des Einsatzes von KI in militärischen Konflikten.

Abschließend ist zu sagen, dass die Entwicklung und der Einsatz von KI im militärischen Bereich einer sorgfältigen ethischen und strategischen Überprüfung bedürfen. Die Technologie an sich ist nicht das Problem, sondern die Art und Weise, wie sie eingesetzt wird. Ohne ein starkes ethisches Fundament und klare rechtliche Rahmenbedingungen könnte KI nicht nur die militärische Kriegsführung, sondern auch die globale Sicherheit erheblich gefährden.

Wie wird künstliche Intelligenz in der Zukunft die Gesellschaft beeinflussen?

Funktional betrachtet sollten KI-unterstützte Maschinen die Fähigkeit besitzen, zu lernen, zu urteilen, zu analysieren, Vorhersagen zu treffen, Schlüsse zu ziehen und Maßnahmen zu ergreifen. Einfacher ausgedrückt, bedeutet dies, den menschlichen Verstand nachzuahmen. Es gibt drei Hauptkomponenten, die notwendig sind, um Intelligenz zu simulieren: das Gehirn, der Körper und der Verstand. Das Gehirn besteht aus den Software-Algorithmen, die mit den verfügbaren Daten arbeiten, der Körper ist die Hardware, und der Verstand ist die Rechenleistung, die die Algorithmen betreibt. Durch technologische Durchbrüche und das Zusammenwachsen dieser Bereiche wird das Feld der KI rasant weiterentwickelt.

Ein markantes Ereignis war 2016 der Sieg von Google DeepMinds AlphaGo gegen den südkoreanischen Meister Lee Se-dol im beliebten Brettspiel Go. Dieser Sieg wurde als Beweis für die Fortschritte der KI und der Teilbereiche maschinelles Lernen und Deep Learning gewertet. Eine anschauliche Vorstellung ihrer Beziehung ist, sie als konzentrische Kreise zu sehen, wobei KI der größte Kreis ist, dann maschinelles Lernen und schließlich Deep Learning – das heute die Explosion der KI-Technologien vorantreibt – in beiden enthalten ist. KI bezeichnet jegliche Technik, die es Computern ermöglicht, menschliche Intelligenz nachzuahmen. Maschinelles Lernen ist ein Teilbereich der KI, der sich auf die Entwicklung von Programmen konzentriert, die sich durch neue Daten verändern können, indem sie Muster in den Daten suchen und ihre Handlungen entsprechend anpassen. Deep Learning, ein weitergehender Teilbereich des maschinellen Lernens, besteht aus Algorithmen, die es der Software ermöglichen, sich durch die Verarbeitung von mehrschichtigen neuronalen Netzwerken, die aus der Neurologie des menschlichen Gehirns abgeleitet sind, selbst zu trainieren.

Zu den wichtigsten KI-Technologien, die derzeit rasante Fortschritte machen, gehören die Verarbeitung und Generierung natürlicher Sprache, Spracherkennung, Textanalyse, maschinelles Lernen, Deep Learning Plattformen, Entscheidungsmanagement, Biometrie und robotergestützte Prozessautomatisierung. Wichtige Akteure in diesem Bereich sind unter anderem Google mit seinem bekannten neuronalen Netzwerk AlphaGo, Facebook, das neue Algorithmen entwickelt, IBM mit Watson, einem kognitiven System, das maschinelles Lernen nutzt, Microsoft, das Entwicklern hilft, intelligente Apps für Android, iOS und Windows zu bauen, Toyota, das sich auf autonome Autos konzentriert, und Baidu Research, das weltweit Talente vereint, um an KI-Technologien zu arbeiten.

Aktuell wird KI häufig im Zusammenhang mit Bild- und Sprachverarbeitung genannt, was jedoch nur eine erste Manifestation ihres Potenzials darstellt. Der nächste Schritt wird die Fähigkeit zur Vernunft sein, und irgendwann könnte ein KI-System erreicht werden, das funktional nicht mehr von einem Menschen zu unterscheiden ist. Mit einer solchen Fähigkeit könnten KI-basierte Systeme ein unendliches Anwendungsspektrum erreichen. In einer Veröffentlichung aus dem Jahr 1951 schlug Alan Turing den sogenannten Turing-Test vor, um KI zu messen. Bei diesem Test gibt es zwei Teilnehmer, einen Menschen und eine Maschine, wobei ein unsichtbarer Richter entscheiden muss, wer von beiden mit ihm spricht. Obwohl es in der Vergangenheit Programme gab, die behaupteten, den Turing-Test bestanden zu haben, ist es bis heute keinem KI-System gelungen, diesen Test zu bestehen. Turing selbst dachte, dass Computern bis zum Jahr 2000 der Durchbruch gelingen würde. Obwohl die Meinungen darüber, wann ein Computer den Turing-Test tatsächlich bestehen könnte, auseinandergehen, sind sich die meisten KI-Wissenschaftler darin einig, dass dies in unserer Lebenszeit sehr wahrscheinlich der Fall sein wird.

Die Angst, dass Maschinen mit KI so intelligent werden, dass sie die Welt übernehmen und die Zivilisation zerstören könnten, rührt oft daher, dass ein Großteil der Gesellschaft kein ausreichendes Verständnis für diese Technologie hat. Ingenieure haben eine deutlich praktischere Vorstellung von KI, weshalb die Ängste dort weniger ausgeprägt sind. Zwar könnte KI in der Zukunft missbraucht werden, aber dieser mögliche Missbrauch existiert bei jeder Technologie. Die Vorstellung von einem "Ende der Zivilisation"-Szenario durch KI beruht daher vermutlich weitgehend auf der Angst vor dem Unbekannten und ist größtenteils unbegründet.

In militärischen Operationen wird KI zunehmend als eine mögliche Neuerung betrachtet, die eine Revolution in den militärischen Angelegenheiten (RMA) herbeiführen könnte. Roboter sind inzwischen weit verbreitet auf dem modernen Schlachtfeld, wobei immer autonomer agierende Systeme entwickelt oder bereits eingesetzt werden, die in der Lage sind, selbstständig zu suchen, zu erkennen, zu bewerten, zu verfolgen, anzugreifen und zu entscheiden, ob ein Ziel eliminiert werden muss. Mit diesen Entwicklungen wird zunehmend angenommen, dass KI und Robotik-Technologien das Potenzial besitzen, eine neue RMA einzuleiten. Besonders die Entwicklung tödlicher autonomer Waffensysteme (LAWS) könnte dabei eine Schlüsselrolle spielen.

Ein LAWS ist im Wesentlichen ein System, das nach der Aktivierung in der Lage ist, Ziele selbstständig auszuwählen und anzugreifen, ohne dass ein menschlicher Operator weiter eingreifen muss. Es gibt unterschiedliche Auffassungen darüber, was unter „vollständig autonom“ verstanden werden sollte. Laut einer Richtlinie des US-Verteidigungsministeriums von 2012 wird ein Waffensystem dann als autonom bezeichnet, wenn es in der Lage ist, nach seiner Aktivierung Ziele zu suchen und zu bekämpfen, ohne dass ein menschlicher Operator eingreifen muss. Diese Definition umfasst auch halbautonome Systeme, bei denen der Mensch ein Ziel auswählt, das System jedoch die Durchführung der Attacke eigenständig übernimmt.

Ein weiterer wichtiger Punkt bei der Entwicklung autonomer Waffensysteme ist der sogenannte "Human-Machine Teaming" – ein Konzept, bei dem Mensch und Maschine in einer symbiotischen Beziehung zusammenarbeiten. Dieses Modell kombiniert die Präzision und Zuverlässigkeit von Maschinen mit der Robustheit und Flexibilität des Menschen. In Bereichen, in denen schnelle Entscheidungen erforderlich sind, wie bei der Abwehr von Raketen oder der Cybersicherheit, sind vollständig automatisierte Systeme unverzichtbar. Langfristig jedoch wird ein gemischtes Vorgehen, bei dem Mensch und Maschine ihre Stärken vereinen, wahrscheinlich die effektivste Lösung darstellen.