Lavender: Israels automatisiertes Morden mithilfe Künstlicher Intelligenz

Autorius: Dagmar Henn Šaltinis: https://www.anonymousnews.org/... 2024-04-15 16:38:00, skaitė 950, komentavo 0

Lavender: Israels automatisiertes Morden mithilfe Künstlicher Intelligenz

Massenmord in Gaza: Israel nutzt Künstliche Intelligenz

Immer wieder wird man auf die Frage der Humanität zurückgeführt in den derzeitigen globalen Auseinandersetzungen. Das ist auch der Fall, wenn man hört, wie die israelische Armee künstliche Intelligenz einsetzt, um tausende Zivilisten zu liquidieren.

von Dagmar Henn

Wer vor nicht ganz vierzig Jahren Cyberpunk-Romane gelesen hat, dem erscheinen Teile der heutigen Realität wie eine Art Cosplay. Das gilt auch für Lavender, das Programm, nach dem die israelische Armee Ziele gewählt haben soll, die dann bombardiert wurden. Das, was vor einigen Tagen über Lavender bekannt wurde, ist zutiefst unheimlich, und es braucht nicht mehr allzu viel Fantasie, um ein derartiges Programm mit KI-gesteuerten Drohnen zu verbinden, und schon steht man mitten in einer der damaligen Dystopien.

Aber Lavender ist keine Dystopie, sondern heutige Wirklichkeit, und man stellt verblüfft fest, dass die moralische Debatte über die Notwendigkeit menschlicher Verantwortung, die eines der Themen des Cyberpunk war, genau zu dem Zeitpunkt, an dem die damaligen Fantasien konkrete Wirklichkeit werden, völlig verschwunden ist. Das trifft zum Teil schon auf die völlig von Großkonzernen gesteuerte Welt zu, der wir mittlerweile ziemlich nahe sind (oder in der wir uns bereits befinden, wenn man an von der Leyen-Pfizer denkt).

Die Geschichte von Lavender, wie sie der israelische Journalist Yuval Abraham erzählt, ist so banal wie gruselig. Die israelische Regierung hat entschieden, alle Angehörigen des militärischen Arms der Hamas zum Ziel zu erklären, und die Armee stellte fest, dass sie das technisch überforderte, weil es schlicht zu viele Daten seien. Da kam dann das Programm ins Spiel, das zuvor nur als Hilfsmittel eingesetzt wurde, weil es wesentlich mehr Daten in kürzerer Zeit verarbeiten konnte. Zwei Wochen lang wurde überprüft, ob die Auswahl stimmte, dann wurde die Verwendung freigegeben. “Von dem Moment an waren sie, sagten Quellen, im Grunde aufgefordert, das als einen Befehl zu behandeln, wenn Lavender entschied, dass ein Individuum ein Hamas-Kämpfer sei, ohne Anforderung, unabhängig zu überprüfen, warum die Maschine diese Wahl getroffen hatte, oder die Daten zu untersuchen, auf denen sie beruhte.”

Im Regelfall wurden diese markierten Ziele dann morgens um fünf bombardiert, weil es einfacher war, sie zu Hause zu treffen als unterwegs. Dabei wurde es als akzeptabel angesehen, wenn mit einer einzelnen Person, die das Programm für einen einfachen Hamas-Kämpfer hielt, 15 bis 20 weitere Personen getötet wurden.

Alastair Crooke, ehemaliger britischer Diplomat, der jahrelang als Verbindungsmann zwischen der EU und unter anderem eben der Hamas gearbeitet hat, sagte dazu: “Jeder ist mehr oder weniger Hamas in Gaza. Ich meine, ich habe in Gaza gearbeitet damals, und die Hamas dominierte, sie hatte die Wahl gewonnen, sie waren da, und jeder kannte jemand von Hamas, jeder hatte Kontakt mit jemand von Hamas.” Und Crooke sagte noch etwas anderes: “Alle wichtigen Hamas-Leute sind tief unten in ihren Bunkern, und sie kommen nicht nach oben, man kann sie nicht mit Gesichtserkennung oder solchen Dingen identifizieren, und das, was an der Oberfläche ist in Gaza, sind vorwiegend Zivilisten.”

Lavender verarbeitete die Daten aller 2,3 Millionen Einwohner im Gazastreifen und versah sie alle mit einer Bewertung von 1 bis 100. Der Kommandeur der Abteilung des israelischen Geheimdienstes, die für das Abfangen von Nachrichten zuständig ist, soll sogar ein Buch geschrieben haben, in dem er die Möglichkeiten eines solchen Programms anpreist und einige der Kriterien nennt, nach denen eingestuft wurde – beispielsweise die Mitgliedschaft in einer Whatsapp-Gruppe, in der auch ein bekannter Kämpfer ist, ein Wechsel des Handys alle paar Monate oder häufigere Adressänderungen.

Allerdings bestimmen die Fragen das Ergebnis, und Abraham erklärt mit Berufung auf seine Quellen, ein derartiges Kommunikationsverhalten hätte sich noch bei ganz anderen Personen gefunden, bei Polizisten, Mitarbeitern der Zivilverteidigung, den Verwandten von Kämpfern, bei Einwohnern, die schlicht den gleichen Spitznamen trugen. Aber auch Bewohner des Gazastreifens, die schlicht ein gebrauchtes Handy nutzten, das einmal einem vermutlichen Kämpfer gehört hatte, blieben in diesem Netz hängen.

37.000 Menschen wurden zeitweise vom Programm zu Zielen erklärt. “Quellen sagten, dass die einzige vorgeschriebene Überprüfung durch einen Menschen, ehe die Häuser vermeintlicher “einfacher” Kämpfer bombardiert wurden, in einer einzigen Kontrolle bestand: sicherzustellen, dass das von der KI gewählte Ziel männlich und nicht weiblich war.”

Die Daten, die Lavender gewählt hatte, wurden dann mit Trackingprogrammen verknüpft, wie sie auch Eltern für die Handys ihrer Kinder nutzen, und schon gab es ein Ziel. Laut Abraham wurden selbst Minderjährige zu Zielen für Bombenangriffe.

Die teureren, zielgenaueren Bomben soll sich die israelische Armee für höherrangige Hamas-Kämpfer aufgehoben haben, für die vermeintlichen Fußtruppen reichte eine “dumme” Bombe. Und allein die Tatsache, dass das Programm so viele “Ziele” lieferte, sorgte dafür, dass nicht allzu viele Gedanken auf eine einzelne Person, geschweige denn auf die Mitbewohner des Hauses verschwendet wurden.

“Es konnten auch zwanzig Kinder für einen einfachen Kämpfer sein”, zitierte Abraham eine seiner Quellen. Für einen Angriff auf einen höheren Kommandeur des militärischen Arms wurden sogar 300 zivile Opfer in Kauf genommen.

Aber letztlich ist es nicht die Frage, ob die Schwelle bei zehn, fünfzehn oder zwanzig Menschenleben liegt, die als “Kollateralschaden” geopfert werden, es ist noch nicht einmal die Frage, wie verlässlich die Auswahl sein kann, die eine künstliche Intelligenz trifft, der entscheidende Punkt ist ein anderer, den der ehemalige CIA-Analytiker Larry Johnson anspricht:

“Wie auch immer die Wahl getroffen wird, wer getötet wird, entbindet das die Menschen, die das ausführen, nicht von ihrer moralischen und juristischen Verantwortung für die Entscheidung, zu töten.”

Und Johnson verweist zutreffend auf die historischen Beispiele, die belegen, welche Funktion es erfüllt, die Verantwortung möglichst weit von den Ausführenden zu entfernen.

“Wir haben das bei den Einsatzgruppen im Zweiten Weltkrieg gesehen, die durch die Ukraine zogen, wo sie Menschen nackt auszogen, sie in Gräben stellten und erschossen. Das war, als die Führung des deutschen Militärs entdeckte, dass das enorme psychische Probleme erzeugte, also mussten sie einen Weg finden, um Massenhinrichtungen durchzuführen, ohne dass die Menschen unmittelbar beteiligt waren, und das ist genau das, was sich mit Netanjahu entwickelt hat, wo sie im Grunde Massenhinrichtungen durchführen, ohne sich tatsächlich persönlich verantwortlich zu fühlen, obwohl sie es selbstverständlich sind.”

Es ist eine bizarre Entwicklung der Geschichte, dass dort, wo einst der Prozess gegen Adolf Eichmann stattfand, der sich mit großer Ausdauer darauf herausredete, schließlich nur Befehle befolgt zu haben, nun eine künstliche Intelligenz, das “Denken” einer Maschine exakt die Funktion erfüllt, die Eichmann hatte und an seiner Stelle die Befehle gibt – mit den gleichen barbarischen Folgen. Wobei vor allem klar sein sollte, dass es kein Zufall ist, dass derartige Strukturen, die es ermöglichen, die persönliche Verantwortung abzulegen, stets mit genau dem Ziel etabliert werden, jegliche menschliche Hemmung zu überwinden.

Lavender ist ein erschreckender Blick in eine mögliche Zukunft. In den vergangenen Jahren war viel zu lernen über unreflektierte Bereitschaft zum Gehorsam – im gesamten Westen. Und die Maßstäbe der Menschlichkeit haben deutlich an Wert verloren. Wenn dem nicht Einhalt geboten wird, wenn keine Rückkehr zu Verantwortlichkeit und Mitmenschlichkeit erstritten wird und sich Programme wie Lavender zusammen mit all den anderen Möglichkeiten von Überwachung, Kontrolle und Verfolgung verbreiten, dann werden die Dystopien des Cyberpunk noch einmal wie eine freundliche Andeutung wirken. Auch in diesem Punkt, bei der Frage der Bewahrung menschlicher Verantwortung, zu einem Zeitpunkt, an dem ihre Aufhebung möglich geworden ist, erleben wir derzeit ein zivilisatorisches Ringen.