Kampfdrohne

Die Entscheidung über das Töten von Menschen darf nicht an Maschinen abgegeben werden - das fordern 62 deutsche Wissenschaftler in einem offenen Brief. Unterschrieben haben auch hessische KI-Forscher.

Videobeitrag

Video

zum Video Maschinen denken: Sprache

hs, 1.11.2021
Ende des Videobeitrags

Eine Atombombe, die autonom - ohne menschliche Kontrolle - entscheidet, wann sie wohin fliegt: Das ist für den Informatiker Kristian Kersting von der Technischen Universität Darmstadt "das ultimative Szenario", was Autonomie in Waffensystemen im schlimmsten Fall bedeuten könnte. Mirjam Minor von der Goethe-Universität Frankfurt nennt Kampfdrohnen als Beispiel, das aktuell verstärkt diskutiert werde.

Kersting und Minor sind zwei von 62 deutschen Wissenschaftlerinnen und Wissenschaftlern, die einen offenen Brief an die Verantwortlichen der Koalitionsverhandlungen im Bund sowie an die Vorsitzenden von SPD, Grünen und FDP unterzeichnet haben. Der Brief erschien am Montag als einseitige Anzeige in der Frankfurter Allgemeinen Zeitung und war auch im Online-Magazin Telepolis veröffentlicht worden. Der Titel: "Initiative für ein internationales Abkommen zu Autonomie in Waffensystemen".

Wenn Maschinen über Leben und Tod entscheiden

Im Kern gehe es bei autonomen Waffensystemen darum, "die Entscheidung über Leben und Tod einer Maschine zu überlassen - ohne menschliche Kontrolle", erklärt Kersting, der als Professor mit dem Aufgabenbereich Künstliche Intelligenz und Maschinelles Lernen forscht und lehrt.

Er will Künstliche Intelligenz, womit im weitesten Sinne automatisierte Entscheidungssysteme gemeint sind, nicht grundsätzlich verteufeln. "Wir müssen uns aber die Frage stellen, wie weit wir damit gehen wollen", sagt Kersting.

Zitat
„Werden Maschinen statt Menschen im Krieg eingesetzt, könnte das zu mehr Krieg führen.“ Informatiker Kristian Kersting Informatiker Kristian Kersting
Zitat Ende

Er ist der Meinung, dass es schlimm genug sei, wenn ein Mensch entscheiden müsse, jemanden umzubringen. "Noch schlimmer ist es, wenn eine Maschine das tun soll", sagt er. Eines seiner Argumente: Wenn Maschinen statt Menschen im Krieg eingesetzt werden, könnte Krieg billiger werden, denn die Personalkosten fallen weg. Und das könnte womöglich zu noch mehr Krieg führen, so Kerstings Befürchtung.

Algorithmen können tödliche Fehler machen

Die Wirtschaftsinformatikerin Mirjam Minor forscht an der Goethe-Universität Frankfurt an automatisierten Entscheidungssystemen durch Algorithmen. "Meine eigenen Forschungsarbeiten machen mir immer wieder klar, dass Algorithmen zur Klassifikation nicht unfehlbar sind", sagt sie. In Minors Arbeit geht es zum Beispiel um die Beschriftung von Patientenakten und Abrechnung medizinischer Leistungen.

"Ganz ähnliche Algorithmen stecken auch im Bauch von Drohnen, um beispielsweise ein Ziel auszuwählen oder den eigenen Batteriestand einzuschätzen", erklärt Minor. In ihrem Projekt würden Ergebnisse immer zusätzlich von Menschen überprüft. Ein Fehler der Algorithmen könnte ansonsten zu finanziellen Schäden führen. Anders bei autonomen Waffen: "Eine Manipulation oder Fehlentscheidung kann bei bewaffneten Kampfdrohnen tödlich sein", so Minor.

Appell an künftige Bundesregierung

Die Aktion der deutschen Wissenschaftlerinnen und Wissenschaftler geht von einer schon etwas älteren Initiative auf internationaler Ebene aus. Ins Leben gerufen hatte sie der australische Informatiker Toby Walsh.

Warum jetzt die deutsche Initiative? Durch die anstehenden Koalitionsvereinbarungen stünden nun Richtungsentscheidungen zur Rolle Deutschlands bei der internationalen Sicherheit und Verteidigung an, so die Frankfurter Wissenschaftlerin Minor.

Zitat
„Entscheidungen über Leben und Tod dürfen nicht an Algorithmen delegiert werden.“ Wirtschaftsinformatikerin Mirjam Minor Wirtschaftsinformatikerin Mirjam Minor
Zitat Ende

Der offene Brief fordert die wahrscheinlichen künftigen Koalitionspartnern auf Bundesebene - SPD, Grüne und FDP - auf, die Entwicklung eines völkerrechtlichen Abkommens zur Regulierung autonomer Waffensysteme anzutreiben und dies als Ziel in ihren Koalitionsvertrag aufzunehmen.

So solle rechtlich verankert werden, dass immer nachvollziehbar bleibe, wer eine Kampfhandlung ausgelöst habe und dafür die Verantwortung trage, so Minor. Sie ist der Meinung: "Entscheidungen über Leben und Tod dürfen nicht an Algorithmen delegiert werden."

Ethische Fragen für die gesamte Gesellschaft

Für Kristian Kersting ist das Thema aber nicht nur jetzt wichtig. Die Gesellschaft müsse sich in Zukunft immer wieder mit ethischen Fragen im Zusammenhang mit Künstlicher Intelligenz beschäftigen. "Für Forschende im Bereich der Künstlichen Intelligenz gibt es bisher kein klares Commitment zu moralischen Fragen, wie es das zum Beispiel mit dem Eid des Hippokrates für die Medizin gibt", sagt er.

Kristian Kersting

"Natürlich können wir als Wissenschaftler nicht verhindern, dass schlimme Dinge mit unseren Forschungsergebnissen gemacht werden", sagt Kersting und zieht den Vergleich zur Erfindung des Messers, das einerseits zum Töten, andererseits auch zum lebensrettenden Luftröhrenschnitt eingesetzt werden kann.

"Wir können uns aber dafür aussprechen, nicht aktiv an schlimmen Dingen zu forschen", sagt Kersting. Schließlich müsse die Wissenschaft immer eine Zielsetzung haben: "Die Menschheit voranbringen."

Weitere Informationen Ende der weiteren Informationen