'Lavender': Stroj s umělou inteligencí, který řídí izraelské bombardování v Gaze

13.04.2024

Izraelská armáda označila desítky tisíc obyvatel Gazy za podezřelé pomocí systému zaměřování
s umělou inteligencí, který má jen malý lidský dohled a tolerantní politiku vůči obětem, odhalují portály +972 a Local Call. 

V roce 2021 byla vydána kniha "The Human-Machine Team: Jak vytvořit synergii mezi lidskou a umělou inteligencí, která způsobí revoluci v našem světě" vyšla v angličtině pod pseudonymem "Brigadier General Y.S.". Autor - muž, o němž se nám potvrdilo, že je současným velitelem elitní izraelské zpravodajské jednotky 8200 - v ní předkládá argumenty pro konstrukci speciálního stroje, který by dokázal rychle zpracovat obrovské množství dat a vygenerovat tisíce potenciálních "cílů" pro vojenské údery ve válečné vřavě. Taková technologie, píše, by vyřešila to, co popisuje jako "lidské úzké hrdlo jak při vyhledávání nových cílů, tak při rozhodování o jejich schválení".

Ukázalo se, že takový stroj skutečně existuje. Nové šetření časopisu +972 a Local Call odhalilo, že izraelská armáda vyvinula program založený na umělé inteligenci, známý jako "Lavender", který zde byl poprvé představen. Podle šesti izraelských zpravodajských důstojníků, kteří všichni sloužili v armádě během současné války v pásmu Gazy a měli přímou účast na používání umělé inteligence k vytváření cílů pro atentáty, hrál Lavender hlavní roli v bezprecedentním bombardování Palestinců, zejména
v počátečních fázích války. Podle zdrojů byl její vliv na operace armády takový, že s výstupy stroje s umělou inteligencí v podstatě zacházela, "jako by to bylo lidské rozhodnutí".

Formálně je systém Lavender navržen tak, aby označil všechny podezřelé členy vojenských křídel Hamásu a Palestinského islámského džihádu (PIJ), včetně těch s nízkou hodností, jako potenciální cíle bombových útoků. Zdroje sdělily serverům +972
a Local Call, že během prvních týdnů války se armáda téměř zcela spoléhala na systém Lavender, který označil
až 37 000 Palestinců jako podezřelé bojovníky - a jejich domy - pro případné nálety.

V počátečních fázích války armáda vydala důstojníkům rozsáhlý souhlas s přebíráním Lavenderových seznamů zabitých osob, aniž by bylo nutné důkladně prověřit, proč se stroj rozhodl právě pro tyto seznamy, nebo prozkoumat prvotní zpravodajské údaje, na nichž byly založeny. Jeden zdroj uvedl, že lidský personál často sloužil pouze jako "razítko" pro rozhodnutí stroje,
a dodal, že obvykle se osobně věnoval každému cíli jen asi "20 vteřin", než schválil bombardování - jen aby se ujistil, že Lavenderem označený cíl je muž. A to i přesto, že věděli, že systém dělá přibližně v 10 procentech případů chyby, které jsou považovány za "omyly", a je známo, že občas označí i osoby, které mají pouze volné spojení s militantními skupinami nebo nemají žádné spojení.

Izraelská armáda navíc systematicky útočila na osoby, které se staly terčem útoku, když byly ve svých domovech - obvykle
v noci, kdy byly přítomny celé jejich rodiny - a nikoli v průběhu vojenské činnosti. Podle těchto zdrojů to bylo proto, že z hlediska zpravodajských informací bylo snazší lokalizovat osoby v jejich soukromých domech. Další automatizované systémy, včetně systému nazvaného "Where is Daddy?", který zde byl rovněž poprvé odhalen, byly používány speciálně ke sledování cílových osob a k provádění bombových útoků, když vstoupily do svých rodinných sídel.

Výsledkem je, jak dosvědčily zdroje, že tisíce Palestinců - většinou žen a dětí nebo lidí, kteří se nezapojili do bojů - byly kvůli rozhodnutím programu AI vyhlazeny izraelskými nálety, zejména v prvních týdnech války.

"Neměli jsme zájem zabíjet operativce [Hamásu] pouze tehdy, když se nacházeli ve vojenské budově nebo byli zapojeni
do vojenské činnosti," řekl zpravodajský důstojník A. v rozhovoru pro +972 a Local Call. "Naopak, IDF je bez váhání bombardovala v domech, jako první možnost. Je mnohem snazší bombardovat rodinný dům. Systém je postaven tak, aby je v těchto situacích hledal."

Lavender se připojil k dalšímu systému umělé inteligence "Gospel", o němž byly informace zveřejněny v předchozím vyšetřování organizací +972 a Local Call v listopadu 2023 a také v publikacích izraelské armády. Zásadní rozdíl mezi oběma systémy je
v definici cíle: zatímco Gospel označuje budovy a stavby, ze kterých podle armády operují militanti, Lavender označuje lidi
a zařazuje je na seznam zabitých.

Navíc podle zdrojů, pokud jde o cílení na údajné mladší militanty označené systémem Lavender, armáda raději používá pouze neřízené střely, obecně známé jako "hloupé" bomby (na rozdíl od "chytrých" přesných bomb), které mohou zničit celé budovy
i s jejich obyvateli a způsobit značné ztráty na životech. "Nechcete plýtvat drahými bombami na nedůležité lidi - pro zemi je to velmi drahé a je jich (těchto bomb) nedostatek," řekl C., jeden z důstojníků rozvědky. Jiný zdroj uvedl, že osobně schválili bombardování "stovek" soukromých domů údajných mladších agentů označených Lavenderem, přičemž při mnoha z těchto útoků zahynuli civilisté a celé rodiny jako "vedlejší škody".

Bezprecedentním krokem bylo podle dvou z těchto zdrojů to, že armáda v prvních týdnech války také rozhodla, že za každého Lavenderem označeného mladšího operativce Hamásu je přípustné zabít až 15 nebo 20 civilistů; v minulosti armáda při atentátech na nízko postavené bojovníky žádné "vedlejší škody" nepovolovala. Zdroje dodaly, že v případě, že cílem byl vysoký představitel Hamásu s hodností velitele praporu nebo brigády, armáda při několika příležitostech povolila zabití více než
100 civilistů při atentátu na jednoho velitele.


Vytvořte si webové stránky zdarma!