Das Future Combat Air System (FCAS) ist das größte Verteidigungsprojekt Europas. Im Mittelpunkt steht ein »System of Systems« mit Kampfflugzeugen der nächsten Generation. Im Rahmen der Entwicklung haben Airbus und das Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE ein unabhängiges Expert*innengremium zur verantwortlichen Nutzung neuer Militärtechnologien gebildet. Es soll ethische und international geltende rechtliche Leitlinien für FCAS ausarbeiten. Im Interview erklärt Prof. Dr. Wolfgang Koch, Chief Scientist am Fraunhofer FKIE, die Aufgaben und Hintergründe. 

Hallo Herr Professor Koch, um mit Ihnen über Ethik in der Militärentwicklung und insbesondere das Future Combat Air System (FCAS) diskutieren zu können, müssen wir zunächst kurz über das Projekt an sich sprechen. Denn FCAS setzt alleine wegen des Umfangs und des weitreichenden militärischen Anspruchs Leitlinien. 

Das Future Combat Air System, an dem Deutschland, Frankreich und Spanien beteiligt sind, ist mehr als ein Projekt. FCAS ist in vielerlei Hinsicht ein Weitsprung. Es ist ein umfassendes Technologieprogramm, das sich zugleich auch moralischen und rechtlichen Herausforderungen der Militärforschung und des Einsatzes militärischer Mittel stellt. Rein technisch gesehen geht es um die Entwicklung eines flexiblen und schlagkräftigen Systems, dass aus Mehrzweckkampfflugzeugen der sechsten Generation, unbesetzten Begleitflugzeugen sowie neuen Waffen und Kommunikationssystemen besteht. Parallel dazu versuchen wir aber auch, grundsätzliche ethische Fragen zu beantworten: Wie beispielsweise können wir sicherstellen, dass ein solches System einerseits effektiv arbeitet und andererseits – trotz des weitreichenden Einsatzes der Digitalisierung – jederzeit und unter allen Umständen menschlicher Kontrolle unterliegt. 

Das von Ihnen mitgegründete FCAS Expert*innengremium hat genau dieses Ziel. Es soll eine Militärtechnik geschaffen und erhalten werden, die gewährleistet, dass grundsätzliche Entscheidungen letztlich immer und nachvollziehbar vom Menschen getroffen werden können. 

So verkürzt kann man es nicht ausdrücken. Denn natürlich wird es bei Waffensystemen wie dem Future Combat Air System auch Situationen geben, in denen Entscheidungsbäume vollautomatisch ablaufen müssen. Denken Sie an eine Rakete, die eine Fregatte angreift. Hier wäre der Zeitraum bis zur Umsetzung eines Befehls durch den oder die Kapitän*in zu lange. Ich würde den Schwerpunkt des Gremiums deshalb als »Meaningful Human Control in Weapon Systems« beschreiben. Es geht also darum, wie Waffensysteme stets und im bedeutenden Ausmaß unter menschlicher Kontrolle bleiben können. 

Sie sprechen davon, dass es dabei vor allem um »automatisiertes Technik-Design« gehe, das »verantwortbar« agieren muss. Das sind Begriffe, die Sie uns im Zusammenhang mit der Militärtechnologie erklären müssen. 

Wichtig ist zunächst die Unterscheidung zwischen den Begriffen Automation und Autonomie. Die technische Autonomie weckt – ähnlich wie der Begriff der künstlichen Intelligenz – gerade im Zusammenhang mit dem Militär eine Fülle von Assoziationen, die irreführend sind. Denn natürlich möchte kein und keine ernstzunehmende*r Verantwortliche*r eine intelligente Drohne einsetzen, die autonom Entscheidungen trifft. Drohnen arbeiten automatisch, gemäß ihren Weisungen. Aber eben nicht aufgrund einer vermeintlich eigenen »Intelligenz«, bei der immer die Befürchtung mitschwingt, dass sie sich verselbstständigen könnte. Verantwortbares Technikdesign meint deshalb, dass die Systeme so ausgelegt sind, dass sie die Aufgabe des oder der Soldat*in erleichtert, diese Technik verantwortungsvoll zu nutzen. Dieser Ansatz bedeutet übrigens auch, dass Verantwortung nicht etwa auf den oder die Pilot*in beschränkt ist. Die Last der Verantwortung ruht auf denen, die diese Technik finanzieren, entwickeln und bereithalten. 

Was bedeutet Verantwortung in diesem Zusammenhang?

Verantwortung heißt, Rechenschaft über sein Tun und Handeln abzulegen. Das ist aber nur möglich, wenn die ausführende Person frei ist in ihren Entscheidungen. Algorithmen oder die Maschine an sich fallen damit aus dem Raster. Die Verantwortung liegt allein bei den Menschen. 

Aber um als Mensch Verantwortung zu übernehmen, muss ich auch wissen, was die Folgen meines Handelns sein können.

Dafür sind zwei Dinge Voraussetzung: zum einen Lagebewusstsein. Ein oder eine Pilot*in muss verstehen, in welchem Szenario er oder sie sein oder ihr System eingesetzt werden soll. Um diese Situation adäquat zu beurteilen, können kognitive Assistenzen, also Maschinen, eine wichtige Hilfe sein. Grundlegend dafür ist allerdings, dass der oder die Pilot*in der Technosphäre, die ihn oder sie umgibt, geistig und seelisch gewachsen ist – intellektuell, aber auch psychisch. Deshalb gehört es zur Aufgabe der Maschine, den Geistes- und Gemütszustand des oder der Pilot*in zu überwachen und die übermittelte Informationsdichte darauf einzustellen. Und zum Zweiten braucht der oder die Pilot*in volitive Assistenz durch das System. Die Maschine muss den Menschen also dabei unterstützen, das, was er oder sie will, auch so umzusetzen, wie er oder sie es will. 

Sowohl bei der Einschätzung der Lage als auch der Unterstützungsleistung kommen wir zur Frage, wie weit Maschinen gehen dürfen … 

… oder auch gehen sollen. Es ist nicht so, dass der Mensch jedes Detail verstanden haben muss und über jedes Detail einzeln entscheiden muss. Wir müssen eine Maschine so designen, dass sie alle zur Verfügung stehenden Daten automatisiert zu einer den Menschen unterstützenden Information verdichten kann. Das ist auch die zentrale Frage in unserem Expert*innengremium: Wie können wir auf Grundlage der Verantwortbarkeit, über die wir gerade gesprochen haben, technische Designprinzipien ableiten, damit Ingenieur*innen und Techniker*innen verantwortbare Techniksysteme wie FCAS weiterentwickeln?

Sie wollen die Voraussetzungen dafür schaffen, ethische Erkenntnisse in technisches Design zu übersetzen, um ein verantwortungsvolles Nutzen von militärischen Systemen zu ermöglichen. Das mag theoretisch vorstellbar sein, aber wie praktikabel ist so ein Ansatz? 

In unserem Gremium arbeiten Militärexpert*innen, Politikberater*innen, Vertreter*innen politischer Stiftungen, Forscher*innen und Wissenschaftler*innen zusammen. Wir durchleuchten die komplexen Prozesse bei der Informationsverarbeitung. Beispielsweise, wenn eine Bekämpfung eingeleitet wird. Deshalb ist der Praxisbezug sehr hoch. Denken Sie beispielsweise an das Bekämpfen eines Ziels mithilfe von FCAS. Dafür müssen im Hintergrund komplexe Prozesse ablaufen, die diese Ziele erkennen, damit der oder die Pilot*in mithilfe dieser Informationen weiterführende Entscheidungen treffen kann. Das technische Design muss dabei so ausgelegt sein, dass – neben den technischen Fragen – auch die Prinzipien Nachvollziehbarkeit, Diskriminierung und Zurechenbarkeit erfüllt sind. Der oder die Pilot*in muss also erstens verstehen können, wie die Maschine arbeitet und wie sie zu ihren Empfehlungen kommt. Er oder sie muss sich zweitens sicher sein, dass er oder sie selbst ebenso wie die Maschine genau unterscheiden können zwischen einem Ziel, dass er oder sie legitimerweise angreifen möchte und einem Objekt, das er oder sie nicht angreifen darf. Und drittens muss es letztlich der Mensch sein, der die Entscheidung trifft, das Ziel anzugreifen. 

Das Design ist das elementare, aber vermutlich nicht das einzige Ziel des Expert*innengremiums?

Das Kernthema dabei ist fast immer der Vorschlag einer künstlichen Intelligenz und für den Menschen nachvollziehbare Begründungen dafür. Dabei orientieren wir uns oft an Einzelfällen und Einzelaspekten, die wir dann im FCAS Prototyping Lab anhand verschiedener Design-Alternativen durchspielen. So entwickeln wir Vorstellungen darüber, wie das Zusammenspiel zwischen dem oder der Pilot*in im Extremfall ablaufen kann. Diese Fälle sind dann auch Grundlage für weiterführende Diskussionen und Beschlüsse im Gremium. 

Besteht überhaupt Interesse daran, Verantwortung so klar zu definieren und Entscheider*innen damit letztlich angreifbar zu machen? 

FCAS dient dazu, unsere europäische Lebensform zu verteidigen – vor allem, aber nicht nur militärisch. Wir wollen und müssen aufzeigen, wie wir im Falle des Falles beispielsweise einen Luftkampf gewinnen können, ohne dass die Vorgehensweise unseren innersten Überzeugungen widerspricht. Deshalb ist die Frage nach Verantwortlichkeit und ethischem Handeln ein integraler Bestandteil.

Es ist das erste Mal in der Geschichte der Bundesrepublik Deutschland, dass ein großes, verteidigungspolitisches Projekt von Beginn an durch einen Diskurs über die technische Umsetzung grundlegender ethischer und rechtlicher Prinzipien begleitet wird. Warum kommt so etwas erst jetzt?

Natürlich lassen sich in der jüngeren Historie viele Gründe dafür finden. Letztlich aber war es ein Versäumnis, das wir nun glücklicherweise aus der Welt geschafft haben. Ich denke und hoffe, dass wir weiteren ethischen Diskussionen und Vorgaben damit den Weg bereiten.

(aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Fünf + = 6
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Prof. Dr. Wolfgang Koch
  • Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE
Weitere Artikel
Alle anzeigen
Selbst ist die KI
CoBot
Meine Empfehlung
Stellenangebote
Alle anzeigen