Digitaler Wandel - Die Zukunft verteidigen

Nicht nur unser Konsum, auch Staaten und ihre Verteidigungspolitik werden künftig immer mehr von künstlichen Intelligenzen und Plattformen bestimmt. Die Zeit drängt. Wir müssen ethische Grundlagen schaffen

Erschienen in Ausgabe
„Es werden Maschinen gebaut, die uns beschützen sollen, aber über Leben und Tod entscheiden könnten.“ / Eric Chow
Anzeige

Autoreninfo

Ayad Al-Ani ist Mitglied beim Einstein Center Digital Future, Berlin

So erreichen Sie Ayad Al-Ani:

Anzeige

Autoreninfo

Jörg Stenzel ist studierter Offizier der Bundeswehr; hier gibt er ausschließlich seine persönliche Meinung wieder.

So erreichen Sie Jörg Stenzel:

Anzeige

Es war eine bemerkenswerte Kurzgeschichte, die in den späten sechziger Jahren auf dem Höhepunkt des Vietnamkriegs erschienen war: In seinem Science-Fiction-Roman „The Dueling Machine“ beschrieb der US-amerikanische Autor Ben Bova eine Zukunft, in der Menschen Konflikte nicht mehr persönlich austragen. Stattdessen führt eine Maschine die Auseinandersetzung virtuell, spielerisch und ohne physische Gewalt.

Zwar waren Maschinen und Rechnerkapazitäten in der Nachkriegszeit noch gering. Dennoch fasste man bereits damals Konzepte zur Steuerung und Selbststeuerung komplexer Systeme in der Wissensdisziplin der Kybernetik zusammen. Von ihr ging sofort eine ungeheure Faszination aus. Sie bildete die Grundlage für den sich dann abspaltenden Bereich der „künstlichen Intelligenz“ (KI). Den Lesern zur Zeit der „Duellierenden Maschine“ erschloss sich wohl schnell die hoffnungsvolle Botschaft, dass KI Gewalt und Krieg eines Tages unnötig machen würde. Nur kursierte zugleich auch der Witz, der klügste Computer des Pentagons – gefüttert mit den Zahlen der eigenen und vietnamesischen Truppenstärke – solle auf die Frage, wann der Krieg gewonnen würde, geantwortet haben: „Sie haben vor zwei Jahren gesiegt.“ Noch versagte die Maschine.

Es geht um mehr als Waffensysteme, Drohnen und Roboter

Inzwischen aber explodieren die Datenmengen, Computerprozessoren werden immer schneller. Und das Szenario einer KI-dominierten Welt, die Konflikte voraussagen, frühzeitig auflösen, isolieren und auch gewinnen kann, beginnt sich zu realisieren. Treiber dieser Entwicklung ist ein Technologiesektor, der sich zunehmend von der Dominanz öffentlicher Forschung und damit vom Staat löst. Immer öfter scheinen Nationen auf das KI-Wissen international operierender Technologieunternehmen und ihrer Daten im Verteidigungsbereich angewiesen zu sein: Großmächte wie die USA, China und Russland reagieren längst und versuchen diesen Wettlauf um die künstliche Intelligenz für sich zu entscheiden, indem sie zivile und militärische Industrien fusionieren.

Von diesen neuen Strategien drang bislang wenig an die Öffentlichkeit. Verhandelt wurden meist automatische Waffensysteme, Drohnen und Roboter. Doch es geht um viel mehr. War in der Vergangenheit das Militär ein monolithischer Block, der mehr oder weniger separat seine Aufgaben umsetzte, so lässt sich nun ein anderes Bild skizzieren: Verteidigungsinstitutionen werden nicht nur Waffen, sondern auch Menschen mithilfe von KI steuern und dazu mit Bereichen der Verwaltung, mit Unternehmen, aber auch Akteuren der Zivilgesellschaft eng zusammenarbeiten. Digitale Orte dieser neuen Art von Steuerung und Zusammenarbeit werden virtuelle Verteidigungsplattformen sein.

Konfliktmuster erkennen und Krisen bewältigen

Diese sollte man sich nun aber nicht nur als einen zentralen, geheimnisvollen, mit blinkender Technik und Bildschirmen vollgepackten Raum vorstellen, in dem Akteure durch eine sonore Computerstimme angeleitet werden. Die Plattformen bestehen vielmehr aus einer Vielzahl von Beziehungen zwischen Verteidigungsinstitutionen und ihrem Umfeld aus Wirtschaft, Wissenschaft und Zivilgesellschaft, die anlassbezogen aktiviert werden (tailored to mission). Welche Kooperationen sinnvoll sind und wie diese aussehen, dies wird auch durch KI bestimmt:

Um etwa in einer bestimmten Region Konfliktprävention zu betreiben, müssen die relevanten Partner, auf Basis ihrer kalkulierten Erfolgsaussichten, gefunden und aktiviert werden. Die einzelnen Operationen selbst greifen auch wieder auf die Berechnungen der KI zurück: Welche Konfliktmuster sind erkennbar und welche Krisenbewältigungsstrategien sind mit welcher Erfolgswahrscheinlichkeit sinnvoll?

Deutschland und die EU brauchen eine Agenda

Besonders für kleinere Nationen stellt sich die Frage, wie sie künftig ihre Interessen in dieser von Großmächten dominierten Plattformwelt wahren und wie sie ihre Werte und Vorstellungen in diese „hochladen“ können. Dazu sollten Deutschland und die EU eine Agenda entwickeln, und die Gesellschaft muss in die Diskussion, wie diese Maschinen und Algorithmen in einem zivilmilitärischen Verteidigungsökosystem ethisch konstruiert sein sollen, eingebunden werden.

Ein Ausgangspunkt dieser Entwicklung sind die sozialen Medien mit ihren gigantischen Datenmengen und den dadurch ermöglichten Fortschritt im Bereich der KI. Mithilfe der Technik des maschinellen Lernens (ML) werden nun Algorithmen angewiesen und anhand von Unmengen historischer Daten trainiert, um in einer bestimmten Situation die richtige Entscheidung zu treffen. Etwa indem die Maschine anhand einer Vielzahl gespeicherter Bilder den Nutzer erkennt. Die großen Datenmengen, die KI ermöglichen und zugleich benötigen, lassen die Dominanz internationaler Technologie- und Handelsunternehmen überhaupt erst erklären.

Früher trieb das Militär den technischen Fortschritt voran

In der Vergangenheit wurde technologischer Fortschritt durch öffentliche Aufträge in der Rüstungsindustrie ausgelöst – die Technologie von Mobiltelefonen rührt fast ausschließlich aus Militärentwicklungen. Zivile Industrien übernahmen von dort zudem auch Organisations- und Managementkonzepte. Das Verhältnis dreht sich nun um: Globale Plattform­unternehmen sammeln Daten, entwickeln Algorithmen, werten diese aus, um sie zu kommerzialisieren und das ML zu perfektionieren. Ein aktueller Bericht der Harvard Kennedy School beschreibt das Ausmaß an privater Entwicklung von KI/ML als derart enorm, dass sie Bemühungen des öffentlichen Bereichs auch in den USA vergleichsweise „zwergenhaft erscheinen lässt“.

Die von KI gesteuerten und lernenden Maschinen – so wie sie das Industrie-4.0.-Konzept oder das amerikanische Pendant, das Internet of Things, vorsehen – sind im Zeitalter von Amazons ­Alexa, Google Home oder Apple Home Pod kommunikationsfähiger, verstehen den Menschen wie auch andere Maschinen und steuern sich selbst auf Basis von Erfahrungswerten. Anders als der Mensch, der aus einer fixen Anzahl von Komponenten, Gliedmaßen und Sinnesorganen besteht, bilden nun mit einer Teilautonomie ausgestattete elektronische Komponenten eine „Community“, deren Mitglieder „kommen und gehen“ wie sie wollen beziehungsweise wie es die Gegebenheiten und Zielsetzungen erlauben oder erfordern. Intelligente Maschinen haben damit Fähigkeiten der „Eigengestaltung“ und sind zudem hochechtzeitfähig, also schneller und präziser als der Mensch. Die Bremsautomatik oder algorithmenbasierter Börsenhandel sind nur zwei Beispiele dafür.

Auch selbststeuernde System werden gesteuert

Und mehr noch: Algorithmen können Zukunft antizipieren. So wurde eine Datenbasis aller Sprengstoffanschläge im Nahen Osten angelegt und auf dieser Basis errechnet, wo und wann weitere Anschläge stattfinden können. In einer verstörenden Präsentation einer Kampfdrohne auf einer Waffenmesse wurde unlängst aufgezeigt, dass die Maschine kalkulieren kann, wohin sich ihr Ziel in den nächsten Minuten bewegen wird. Es ist bereits möglich, dass ein Sensor in einem U-Boot den drohenden Ausfall eines Teiles erkennt und automatisch bei einem 3-D-Drucker ein Ersatzteil ordert, das per Drohne zugestellt wird oder gleich an Bord ausgedruckt werden kann, wie erste Experimente der US-Marine zeigen.

Die kritische Frage: Wer soll solche Konglomerate von miteinander verbundenen, autonomen und teilautonomen Systemen und Menschen auf welche Weise steuern? Das sogenannte Predictive Policing liefert dazu ein Beispiel: Der zentrale Steuerungsraum der Polizei von Los Angeles ermittelt nicht nur die passenden operativen Kräfte für bestimmte Einsätze und lenkt ihren Einsatz. Der Datenraum kann auch Verbrechen antizipieren und entsendet dorthin Kräfte, wo diese vermutet werden. Entsprechende Steuerungssysteme entstehen auch im militärischen Bereich, wo etwa optimale Einsatzkräfte für bestimmte Aufgaben durch Algorithmen ausgesucht werden und Einsätze auf Basis vorhandener Erkenntnisse über den Gegner errechnet werden. Ähnliche Erfolge bei der Steuerung komplexer Systeme zeigte der experimentelle Einsatz von KI in der chinesischen Millionenmetropole Hangzhou: Verkehrsströme und Kriminalität gingen zurück.

Die Angriffslinien werden meist verdeckt ablaufen

Verteidigungsinstitutionen könnten nun wie Unternehmen und Städte Plattformen nutzen, die Maschinen und Menschen mit KI steuern. Damit ändert sich die Natur vieler Konflikte. Denn solche Verteidigungsplattformen werden sich mit anderen Plattformen in permanenter Reibung befinden. So wie heute fast routinemäßig Unternehmen und Verwaltungen, wie zuletzt auch der Bundestag und die Bundesregierung, Hackingangriffen ausgesetzt sind. Mit solchen virtuellen Attacken soll die gegnerische Plattform nicht nur durchdrungen, ihre Algorithmen erkundet und Daten abgeschöpft werden, auch Abläufe sollen gestört oder im eigenen Interesse unbemerkt verändert werden.

Der „spielerische“ Charakter solcher Duelle ist zentral. Der Gegner soll zumeist Schaden nehmen, aber auch irritiert und beeindruckt werden, ohne dass damit ein offener Konflikt ausgelöst werden soll. Die Angriffslinien werden deshalb meist verdeckt ablaufen und oft keinen Unterschied zwischen zivilen und militärischen Zielen machen und sogar in die physische Welt vordringen. Bereits in den siebziger Jahren erkannte der Kommunikationswissenschaftler Marshall McLuhan, dass der nächste Krieg wohl ein Informationskrieg sein werde, der nicht zwischen militärischen und zivilen Akteuren unterscheiden wird.

Es wird ein „Ökosystem Verteidigung“ entstehen

Erste Erfahrungen der Cyberkriegsführung und hybriden Konflikt­austragung bestätigen dies. Das Stuxnet-Computervirus sollte die iranische Atomindustrie sabotieren, drang aber auch in zivile Systeme ein und verursachte weltweit beträchtlichen Schaden, auch bei deutschen Unternehmen.

Jenseits solcher virtuellen Duelle und ihrer physischen Konsequenzen werden Verteidigungsplattformen ihre Vorhersagefähigkeiten nutzen, um Konflikte zu prognostizieren und gar nicht erst entstehen zu lassen. Mithilfe bestimmter Tools, die bereits kommerziell angeboten werden, können Konfliktsituationen im Zuge „temporaler Analysen“ schon recht gut vorhergesagt werden, indem sie Kommunikationsmuster in den sozialen Medien analysieren und mit Erfahrungswerten verknüpfen (wann, wo, wer, mit welcher Wahrscheinlichkeit?). Wer die Zukunft kennt, kann sie auch ändern. Peter Sloterdijk drückte es so aus: „Die Militärgeschichte der Zukunft wird an einer völlig neuen Front geschrieben werden: dort, wo der Kampf um das Unterlassen der Kämpfe geführt werden wird. Die entscheidenden Schläge werden diejenigen sein, die nicht geschlagen werden.“

Die bisherigen Verteidigungsinstitutionen werden diese Verteidigungsplattformen im Kern steuern und zugleich eng mit anderen Bereichen der Gesellschaft zusammenarbeiten, um Konflikte vorherzusehen, zu analysieren und vielleicht sogar ihre Wurzeln zu verstehen und frühzeitig aufzulösen. So können zivile Partner in einem „Ökosystem Verteidigung“ beispielsweise Leistungen wie Bildung, Gesundheit, Sicherheit vor Ort erbringen, um Ressourcenkonflikte zu entschärfen. Auf diese Weise werden aus Betroffenen Akteure oder „Co-Produzenten“ der Verteidigungsplattformen. So erfasst die afrikanische nichtkommerzielle Plattform Ushahidi mithilfe von Bürgermeldungen Sicherheitsprobleme und auch Wahlfälschungen.

Neue Chancen für bürgerliches Engagement

Solche Plattformen können auch verhärtete politische Positionen aufweichen und unwillige Kontrahenten zum Dialog motivieren. Die private israelische Plattform Peacefactory etwa schuf einen Dialog zwischen Bürgern Israels und Irans. Seither können Israelis virtuell auf Teherans Straßen spazieren und dabei Iraner kontaktieren. So wird ein Problem unterlaufen, das in Konfliktsituationen oft auftaucht und auch für involvierte Nationen, die kein Interesse an einem Konflikt haben, zur Herausforderung wird: die Unwilligkeit der Kontrahenten, aufeinander zuzugehen und Lösungen zu suchen. Man darf vermuten, dass die israelischen und iranischen Geheimdienste etwas ratlos vor diesem Austausch standen, westliche Länder eine solche Plattform durchaus begrüßen und unterstützen würden.

Nationen, die nicht nur Roboter, sondern auch KI-basierte Steuerungssysteme und virtuelle Verteidigungsökosysteme schaffen, haben also viele Vorteile und können durch diese Instrumente durchaus politische Macht erlangen, die nicht mehr unmittelbar auf der Bevölkerungsgröße, Rohstoffen und der Anzahl an Bewaffneten basiert. Der russische Präsident Putin ließ unlängst mit der mittlerweile viel zitierten Aussage aufhorchen, „dass diejenigen Nationen die Welt beherrschen werden, die das Thema der künstlichen Intelligenz meistern werden“.

China bastelt längst an seiner KI-Macht

Die vielen dann verwendeten KIs – so eine Prognose des holländischen Instituts für strategische Studien – werden sich möglicherweise verbinden und in Richtung einer „generellen KI“ mutieren. In China kooperiert die Verteidigungsindustrie bereits mit der zivilen Wirtschaft. Auf diese Weise will man mit dem „Next Generation Artificial Intelligence Development Plan“ China bis 2030 zur führenden Macht im Bereich der KI machen. Für Europa schlägt die niederländische Studie vor, dass sich kleinere Länder auf Verteidigungsplattformen stärker verschränken, massive konzertierte Anstrengungen im Bereich KI starten und ebenfalls beginnen sollen, ein Ökosystem für diese Plattformen aufzubauen. Damit – so die Hoffnung – können Nachteile gegenüber Großmächten ausgeglichen werden. Offen bleibt aber die Kooperation mit Technologiekonzernen, die zumeist nicht europäisch sind. Hierzu wird die Aufnahme von „Verhandlungen“ seitens der Regierungen beziehungsweise der Verteidigungsverantwortlichen empfohlen.

Im Unterschied zu amerikanischen und natürlich auch chinesischen Betrachtungen macht die europäische Perspektive notwendig, dass über Verteidigungsplattformen ethische Diskussionen geführt werden müssen, die deutlich komplexer als diejenige um autonome Autos sind. Es werden Maschinen gebaut, die uns beschützen sollen, aber in letzter Konsequenz über Leben und Tod entscheiden könnten. Global betrachtet scheint es zwei gegenläufige Stoßrichtungen für das Design digitaler Gesellschaftsmodelle, in welche Verteidigungsplattformen integriert sind, zu geben: Auf der einen Seite entsteht das chinesische Modell, bei dem militärische und zivile Akteure staatlich gelenkt eng kooperieren und bis auf die Ebene des Individuums steuern werden.

Eine europäische KI-Ethik könnte klüger sein

Dies zeigt das geplante Social Credit System, das jedem Bürger einen Score errechnen wird, der dessen „Compliance“ ausdrückt. Auf der anderen Seite wären partizipativere, demokratische Plattformen möglich, deren Konstitution und Werte auch in Maschinen und deren Algorithmen übersetzt werden könnten: Toleranz, Partizipation, Menschenrechte, Schutz von Schwachen und Minderheiten. Noch fehlen hierzulande Strukturen, um so eine technologische Diskussion zu führen. Allerdings bietet die Idee der Verteidigungsplattform eine Chance: Plattformen und ihre Ökosysteme verlangen eine gewisse Öffnung der traditionellen Verteidigungsinstitutionen.

Das schafft Raum für Partizipation. Die Auswahl von Kooperationspartnern, ihre Aufgaben und Werte könnten Teil einer öffentlicheren Diskussion werden. Auch Strategien und Maschinen der Verteidigungsplattformen werden so Teil eines gesellschaftlichen Diskurses. Dafür müssen wir uns wohl über bestehende Vorstellungen hinwegsetzen und uns einlassen auf komplexe Interessen. Vielleicht könnte die notwendige ethische Intelligenz einer europäischen Verteidigungsplattform ihr größter Vorteil werden: Zwangsläufig müsste sie die Kulturen der Region widerspiegeln, ihre Vielfalt und Werte. Das würde sie um einiges klüger machen als rein militärische oder autoritäre Plattformen von Großmächten.

Illustrationen: Eric Chow

Dieser Text stammt aus der April-Ausgabe des Cicero, die Sie am Kiosk oder in unserem Online-Shop erhalten.












 

Anzeige