Показват се публикациите с етикет Lavender AI. Показване на всички публикации
Показват се публикациите с етикет Lavender AI. Показване на всички публикации

четвъртък, 4 април 2024 г.

„Лавандула“: Машината с изкуствен интелект, насочваща бомбардировките на Израел в ивицата Газа.

🇮🇱🇵🇸 Израелската армия е маркирала десетки хиляди жители на ивицата Газа като евентуална мишена за убийство, използвайки система за насочване с изкуствен интелект (AI), която притежава висока толерантност към допускането на цивилни жертви и почти нулев човешки надзор. Разследване на +972 и Local Call разкрива непознати до този момент детайли.

През 2021 г. книга, озаглавена „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ беше издадена на английски език от неизвестен на широката публика автор, подписващ се под псевдонима „Brigadier General Y.S.“

В него той - човек, за когото потвърдихме, че е настоящият командир на елитната израелска разузнавателна единица 8200 - дава аргументите си за проектиране на специална машина, която може бързо да обработва огромни количества данни, за да генерира хиляди потенциални „мишени“ за военни удари в разгара на войната. Такава технология, пише той, би разрешила това, което той описа като „човешко затруднение както за локализирането на новите цели, така и за вземането на решения за одобряване на целите“.

Такава машина, оказва се, наистина съществува - израелската армия е разработила програма, базирана на изкуствен интелект, известна като „Lavender“, представена тук за първи път. Според шестима офицери от израелското разузнаване, всеки от които е служил в армията по време на настоящата война в Ивицата Газа и е имал пряко участие в използването на AI за генериране на мишени за убийство, Lavender е изиграла централна роля в безпрецедентната бомбардировка на палестинците, особено в ранните етапи на войната. Всъщност, според тях, влиянието й върху операциите на военните е било толкова голямо, че те по същество са третирали резултатите от машината с изкуствен интелект (AI) „като че ли е човешко решение“.

Формално системата Lavender е предназначена да маркира всички заподозрени оперативни служители във военните крила на Хамас и Палестински ислямски джихад (PIJ), включително нископоставени, като потенциални цели на въздушен удар. Източниците потвърждават, че през първите седмици на войната армията почти изцяло е разчитала на Lavender, която е маркирала около 37 000 палестинци на територията ивицата Газа като заподозрени бойци - и техните домове - като евентуални мишени на израелски удари.

По време на ранните етапи от войната армията даде широко одобрение на офицерите да приемат списъците за убийства на Lavender, без изискване да се проверява щателно защо машината е направила конкретните избори или да се изследват необработените разузнавателни данни, на които се основават въпросните решения. Един от източниците споделя, че човешкият персонал често е служил само като „гумен печат“ за решенията на машината, добавяйки, че обикновено те (персоналът - бел.ред.) лично биха посветили само около „20 секунди“ на всяка цел, преди да оторизират бомбардировка – просто, за да се уверят, че маркираната от Lavender цел е мъж. Всичко това се е случвало, въпреки че са били наясно за грешките, които системата допуска в приблизително 10 процента от случаите - маркирайки от време на време лица, които или имат слаба връзка с войнствени и терористични организации, или изобщо нямат такава.

Освен това израелската армия систематично атакува набелязаните лица, докато те са били в домовете си - обикновено през нощта, когато там присъстват целите им семейства. Според източниците това е така, защото от гледна точка на разузнаването е било по-лесно да се открият лицата в частните им къщи. Допълнителни автоматизирани системи, включително една, наречена „Къде е татко?" са използвани специално за проследяване на целите и извършване на бомбени атентати именно в момента, в който са влезли в домовете си при своите близки.

Резултатът е хиляди палестинци - повечето жени и деца или хора, които по никакъв начин не са участвали в битките - са били изпепелени от израелските въздушни удари, особено през първите няколко седмици на войната, в следствие на AI-базираните решения на програмата.

„Не бяхме заинтересовани да убиваме [Хамас] оперативни служители само когато бяха във военна сграда или участваха във военна дейност“, каза А., офицер от разузнаването, пред +972 и Local Call. „Напротив, армията ги бомбардираше именно в домовете им и то без колебание, още при първата появила се възможност. Много по-лесно е да бомбардираш дома на семейството. Системата е изградена така, че да ги открива именно в тези ситуации.“

Системата Lavender се присъединява към друга AI-базирана система, „Gospel“ (Евангелието), която беше разкрита в предишно разследване на същите автори през ноември 2023 г., както и от онлайн публикации на IDF (въоръжените сили на Израел - бел. ред.). Фундаменталната разлика между двете системи е в дефиницията на целта: докато "Евангелието" маркира сгради и структури, от които армията твърди, че екстремистите извършват своите операции, Lavender маркира хората - и ги поставя в списък за елиминиране.

В допълнение, според източниците, когато става въпрос за насочване към предполагаеми младши бойци, набелязани от Lavender, армията предпочита да използва само неуправляеми ракети, известни като „глупави“ бомби (за разлика от „умните“ прецизни бомби), които могат да унищожат цели сгради върху техните обитатели и причиняват значителни жертви. „Не искате да хабите скъпи бомби за маловажни хора – това е много скъпо за страната и има недостиг [на тези бомби]“, каза К., един от офицерите от разузнаването. Друг източник каза, че те лично са разрешили бомбардирането на „стотици“ частни домове на предполагаеми младши оперативни служители, маркирани от системата, като много от тези атаки са убили цивилни и цели семейства като „съпътстващи щети“.

В безпрецедентен ход, според двама от източниците, армията също така е решила през първите седмици на войната, че за всеки млад оперативен агент на Хамас, отбелязан от Lavender, на системата е позволено да убие до 15 или 20 цивилни; в миналото военните не са разрешавали никакви „съпътстващи щети“ при елиминиране на бойци от нисък ранг. Източниците добавят, че в случай, че целта е бил високопоставен служител на Хамас с ранг командир на батальон или бригада, армията на няколко пъти е дала картбланш за убийството на повече от 100 цивилни за един-единствен командир.

Цялото разследване в оригинал на английски език можете да откриете на следния линк:

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza