"Lavender": Die KI-Maschine, die Israels Bombenangriffe in Gaza steuert
Die israelische Armee hat Zehntausende von Bewohnern des Gazastreifens als Verdächtige für die Ermordung markiert. Sie nutzt dazu ein KI-Zielsystem mit wenig menschlicher Aufsicht und einer freizügigen Politik für Opfer, wie +972 und Local Call enthüllen.
Von Yuval Abraham
Im Jahr 2021 wurde ein Buch mit dem Titel "
The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" auf Englisch unter dem Pseudonym "
Brigadier General Y.S." veröffentlicht. Darin plädiert der Autor - ein Mann, bei dem es sich nachweislich um den derzeitigen Kommandeur der israelischen Eliteeinheit 8200 handelt - für die Entwicklung einer speziellen Maschine, die in kürzester Zeit riesige Datenmengen verarbeiten könnte, um Tausende potenzieller "Ziele" für militärische Angriffe in der Hitze eines Krieges zu generieren. Eine solche Technologie, so schreibt er, würde, wie er es nennt, "den menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Freigabe der Ziele" beseitigen.
Wie sich herausstellt, gibt es eine solche Maschine tatsächlich. Eine neue Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen "Lavender" entwickelt hat, das hier zum ersten Mal enthüllt wird. Laut sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges gegen den Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von KI zur Generierung von Tötungszielen zu tun hatten, spielt Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge ist der Einfluss von Lavender auf die Operationen des Militärs so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandeln, "als wären sie eine menschliche Entscheidung".
Formal ist das Lavender-System so konzipiert, dass es alle verdächtigen Mitglieder der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), einschließlich derjenigen mit niedrigem Rang, als potenzielle Bombenziele markiert. Die Quellen erklärten gegenüber +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavender verließ, das bis zu 37.000 Palästinenser als mutmaßliche Kämpfer - und ihre Häuser - für mögliche Luftangriffe registrierte.
In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, Lavenders Tötungslisten zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als "Stempel" für die Entscheidungen der Maschine dient, und fügte hinzu, dass sie sich normalerweise nur etwa "20 Sekunden" mit jedem Ziel befassten, bevor sie einen Bombenangriff genehmigten - nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in mindestens 10 Prozent der Fälle "Fehler" macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere Verbindung zu militanten Gruppen oder oft gar keine Verbindung haben.
Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten - in der Regel nachts, wenn ihre gesamte Familie anwesend war - und nicht während einer militärischen Aktivität. Den Quellen zufolge liegt dies daran, dass es aus nachrichtendienstlicher Sicht einfacher ist, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System mit dem Namen "Where's Daddy?", das hier zum ersten Mal enthüllt wird, werden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnhäuser ihrer Familien betreten.
Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinensern - die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren oder sind - durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Wochen des Krieges, aufgrund der Entscheidungen des AI-Programms.
"Wir waren nicht daran interessiert, [Hamas]-Aktivisten nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Aktivität beteiligt waren", sagte A., ein Nachrichtenoffizier, gegenüber +972 und Local Call. "Im Gegenteil, die IDF haben sie, als erste Option, ohne zu zögern in ihren Häusern bombardiert. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen".
Die Lavender-Maschine gesellt sich zu einem anderen KI-System, "The Gospel", über das in einer früheren Untersuchung [1] von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen veröffentlicht wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während "The Gospel" Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert "Lavender" Menschen - und setzt sie auf eine Tötungsliste.
[..]
Weiter im Link:
https://www.972mag.com/lavender-ai-israeli-army-gaza/