38C3 Community Stages

Der Mythos der „gezielten Tötung”. Zur Verantwortung von KI-gestützten Zielsystemen am Beispiel „Lavender“
2024-12-28 , Stage HUFF
Language: Deutsch

Das Lavender-KI-Zielsystem zeigt gut, wie Kriegsautomatisierung aktuell aussieht und was daran falsch läuft.


Das Thema „KI in der Militärtechnik“ und die Beziehung zwischen Mensch und Maschine ist seit Jahrzehnten ein theoretisches Thema in der Philosophie, den Sozialwissenschaften und den kritischen Algorithmus-Studien. Doch in den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und jüngst in bewaffneten Konflikten praktisch eingesetzt. Am Beispiel des KI-gestützten Zielwahlsystem Lavender, das vom israelischen Militär IDF im derzeit laufenden Gaza-Krieg eingesetzt wird, werden die aktuellen Entwicklungen aufgezeigt und in den historisch-technischen Kontext der „Signature Strikes“ der USA in Waziristan (Pakistan) oder Afghanistan gesetzt, sowie konkrete technische Designentscheidungen vorgestellt und kritisch diskutiert. Dabei entstehen auch Fragen von Verantwortungsverlagerung und Rechtsumgehung.

Empirische Grundlage für die Betrachtung ist eine Investigativrecherche mit dem Titel „‚Lavender‘: The AI machine directing Israel's bombing spree in Gaza“ von Yuval Abraham, veröffentlicht im April 2024 in den bekannten israelischen Medien „+972“ und „Local Call “. Grundlage des Reports sind Aussagen von Mitarbeiter:innen und Soldat:innen der IDF. Darin enthüllt Abraham ein KI-basiertes Kommando-, Kontroll- und Entscheidungsunterstützungssystem, das von den IDF zur Identifizierung von Kämpfern Hamas und des Islamischen Dschihad verwendet wird, um Tötungslisten zu erstellen. Aufgrund der KI-typischen heuristischen Natur der Ergebnisse waren etwa 10 % der vorgeschlagenen Ziele Zivilist:innen. Andererseits wurden pro Ziel 15-100 getötete Zivilist:innen als Kollateralschaden eingepreist. Nach Zeugenaussagen werden die Zielpersonen dann nachts zu Hause angegriffen, wenn die ganze Familie anwesend ist. Im Juni 2024 hat das internationale Journalist:innennetzwerk „forbidden stories“ in seiner Studie „The Gaza Project“ gezeigt, dass auch Journalist:innen und Medienschaffende auf solche Listen gesetzt wurden.

Auch wenn das Label „KI-basiert“ oftmals Modernität suggerieren soll, trifft das Bild einer „schmutzigen Bombe“ oder Splitterbombe viel besser die eigentliche Funktionsweise dieser Systeme. Die Verwendung dieser Bilder als Metaphern fangen die ungenauen heuristischen Eigenschaften gut ein und ermöglichen es, konkrete Fragen von Verantwortung innerhalb der militärischen Hierarchie zu stellen, die über die Betrachtung der Individuen auf dem Schlachtfeld hinausgehen. Der Vortrag zielt darauf ab, die technische und öffentliche Debatte über Verantwortung in der Mensch-Maschine-Interaktion im Zusammenhang KI-gestützter Waffensysteme voranzutreiben.

Die hier vorgestellten Erkenntnisse beruhen auf einer gemeinsamen Analyse von Expert:innen des Forums InformatikerInnen für Frieden und Gesellschaftliche Verantwortung (FIfF e.V.) zusammen mit der Informationsstelle Militarisierung (IMI e.V.) und der Arbeitskreis gegen bewaffnete Drohnen e.V., die die Praxis der KI-basierten „gezielten Tötung“ wie etwa durch Lavender als Kriegsverbrechen zu ächten sucht.

Rainer Rehak ist wissenschaftlicher Mitarbeiter in den Gruppen „Digitalisierung, Nachhaltigkeit und Teilhabe“ sowie „Technik, Macht und Herrschaft“ am Weizenbaum-Institut für die vernetzte Gesellschaft. Er ist zudem Gastwissenschaftler am Wissenschaftszentrum Berlin für Sozialforschung (WZB) und promoviert aktuell an der TU Berlin zu systemischer IT-Sicherheit und gesellschaftlichem Datenschutz.

Er studierte Informatik und Philosophie in Berlin und Hong Kong und beschäftigt sich seit über 15 Jahren mit den Implikationen der Computerisierung der Gesellschaft. Seine Forschungsfelder sind Technikfolgenabschätzung, kollektiver Datenschutz, systemische IT-Sicherheit, staatliches Hacking, Informatik und Ethik, Technikfiktionen, Digitalisierung und Nachhaltigkeit, konviviale und demokratische Digitaltechnik, epistemische Grundlagen von Automatisierung, digitaler (De-)Kolonialismus, sowie die Implikationen und Grenzen von KI-Systemen.

Er ist Ko-Vorsitz des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e.V. (FIfF) und publiziert zudem regelmäßig auch in nicht-wissenschaftlichen Medien. Er ist Sachverständiger für Parlamente (z. B. den Deutschen Bundestag) und Gerichte (z. B. das Bundesverfassungsgericht). Er initiierte gemeinsam mit anderen Digitalpolitik- sowie Umweltorganisationen die „Bits & Bäume“-Konferenz für Digitalisierung und Nachhaltigkeit.