Współczesne państwa coraz częściej wykorzystują technologię nie tylko do administrowania społeczeństwem, ale do jego inżynieryjnej kontroli. W tym pejzażu Izrael wyróżnia się jako laboratorium cyfrowych eksperymentów władzy, w którym technologia służy nie tyle bezpieczeństwu, ile utrzymaniu asymetrii — politycznej, militarnej i demograficznej. Jednym z najbardziej niepokojących narzędzi tej kontroli jest system Lewiatan – infrastruktura cyfrowa zaprojektowana do masowego śledzenia, analizowania i profilowania Palestyńczyków. W połączeniu z tezami Jathana Sadowskiego z książki „Cyfrowy kapitalizm” (Too Smart), Lewiatan ukazuje, do czego prowadzi fuzja interesów kapitału, technologii i państwowej władzy.

Czym jest system Lewiatan?

System Lewiatan (hebr. לויתן), nazwany nieprzypadkowo tak jak biblijna bestia i klasyczne dzieło Thomasa Hobbesa, to cyfrowy mechanizm totalnego nadzoru nad Palestyńczykami, rozwijany przez izraelską jednostkę wywiadu wojskowego Aman oraz elitarną jednostkę 8200. Jego funkcją nie jest jedynie zbieranie danych, lecz ich integracja, analiza i predykcyjne wykorzystanie w celach prewencyjnych.

System łączy dane biometryczne, sygnały z telefonów komórkowych, obrazy z kamer monitoringu, aktywność w mediach społecznościowych oraz dane zbierane na przejściach granicznych i punktach kontrolnych. Wspomagany przez sztuczną inteligencję i algorytmy uczenia maszynowego, Lewiatan umożliwia tworzenie profilów ryzyka, wykrywanie wzorców zachowań oraz identyfikację potencjalnych „zagrożeń” – często bez konieczności wszczynania formalnych procedur dochodzeniowych.

Według doniesień izraelskiego portalu +972 Magazine, dane przetwarzane przez Lewiatana trafiają niemal natychmiast do jednostek operacyjnych. Algorytmy wskazują osoby do przesłuchań, zatrzymań lub prewencyjnej eliminacji. W ten sposób Lewiatan staje się narzędziem selekcji i przemocy algorytmicznej, działającym poza sferą przejrzystości prawnej i demokratycznej kontroli.

Militaryzacja sztucznej inteligencji i konsekwencje humanitarne

Izrael systematycznie wzmacnia swoje zdolności militarne poprzez szerokie zastosowanie technologii sztucznej inteligencji zarówno w operacjach defensywnych, jak i ofensywnych. W systemach obronnych, takich jak Iron Dome, algorytmy AI wspierają pracę radarów, umożliwiając automatyczne wykrywanie i przechwytywanie pocisków z minimalnym udziałem człowieka. Zwiększa to efektywność operacyjną i skraca czas reakcji.

Jednak najwięcej kontrowersji budzi użycie systemów ofensywnych, takich jak Habsora i Lavender, które wykorzystują sztuczną inteligencję do autonomicznego identyfikowania celów i planowania ataków. Redukcja ludzkiego nadzoru w procesie decyzyjnym – od klasyfikacji do eliminacji – oznacza de facto przekazanie uprawnień zabijania algorytmom.

Zastosowanie tych technologii w gęsto zaludnionych obszarach cywilnych, szczególnie po 7 października 2023 roku, doprowadziło do masowych strat wśród ludności cywilnej. Operacje wojskowe oparte na AI były prowadzone w sposób, który sugeruje systematyczne ignorowanie zasad rozróżnienia i proporcjonalności – fundamentów międzynarodowego prawa humanitarnego. Otwarte źródła dokumentują przypadki, w których izraelskie wojsko akceptowało wysoką liczbę ofiar cywilnych jako „straty uboczne”, a obszary zamieszkane traktowano jako dopuszczalne cele militarne.

Te praktyki wywołały poważne zastrzeżenia prawne i etyczne. Organizacje praw człowieka, eksperci ONZ i przedstawiciele społeczności międzynarodowej zwracają uwagę, że sposób użycia sztucznej inteligencji przez izraelskie siły zbrojne może stanowić naruszenie prawa wojennego. Co więcej, destrukcyjne skutki tych operacji dla ludności cywilnej wskazują na głęboką erozję podstawowych standardów ochrony praw człowieka w warunkach nowoczesnych konfliktów zbrojnych.

Cyfrowy kolonializm: technologia jako narzędzie panowania

W „Cyfrowym kapitalizmie” Jathan Sadowski argumentuje, że inteligentne technologie nie są neutralne – przeciwnie, służą utrwalaniu strukturalnych nierówności i władzy. W kontekście okupacji palestyńskiej technologia staje się cyfrowym kolonializmem – zamiast bezpośredniego zarządzania terytorium, państwo instaluje infrastrukturę cyfrową, która umożliwia ciągłe śledzenie, klasyfikowanie i zarządzanie całą populacją.

Palestyńczyk w tym systemie nie funkcjonuje jako obywatel, lecz jako obiekt danych – stale monitorowany, klasyfikowany, dostępny do interwencji. System Lewiatan jest więc formą biowładzy i prewencyjnej przemocy, idealnie wpisującą się w logikę, którą Sadowski nazywa kapitalizmem inwigilacyjnym.

Lewiatan i kapitalizm danych: kto na tym zyskuje?

System Lewiatan nie jest tylko narzędziem wojskowym. Izrael od dawna rozwija strategię eksportu technologii bezpieczeństwa, testowanych na terytoriach okupowanych, a następnie oferowanych globalnym klientom – rządom, służbom specjalnym i firmom⁷. Firmy takie jak NSO Group, Cellebrite, Elbit Systems czy AnyVision blisko współpracują z izraelskimi siłami zbrojnymi, oferując gotowe systemy rozpoznania twarzy, ekstrakcji danych z telefonów czy narzędzia cyfrowego przesłuchania.

Zgodnie z analizą Sadowskiego, dane są dziś zasobem strategicznym, porównywalnym z surowcami naturalnymi. Kto je posiada – zdobywa przewagę rynkową i polityczną. W tym sensie Lewiatan pełni także funkcję platformy akumulacji wiedzy i przewagi gospodarczej, umożliwiając tworzenie algorytmów i modeli predykcyjnych eksportowanych globalnie.

Dane Palestyńczyków stają się więc surowcem dla prywatnych firm i bazą testową dla przyszłych zastosowań komercyjnych – od zarządzania tłumem po rozpoznawanie emocji czy profilowanie klientów⁹.

Od przemocy militarnej do przemocy algorytmicznej

System Lewiatan przekształca klasyczne formy przemocy w przemoc cyfrową, proceduralną i infrastrukturalną. Palestyńczycy nie wiedzą, dlaczego zostali zatrzymani, objęci zakazem podróży czy poddani przesłuchaniu. Nie wiedzą też, jak długo ich dane będą przechowywane i w jakim celu użyte. To życie w warunkach niewidzialnej, wszechobecnej inwigilacji.

Przemoc algorytmiczna nie wymaga fizycznej obecności żołnierza. Obiekt danych może zostać zneutralizowany na podstawie wzorca zachowania – nie popełniwszy żadnego czynu. Tego typu prewencyjna logika zmienia model bezpieczeństwa z reaktywnego na predykcyjny, co – jak zauważa Sadowski – czyni z systemów smart technologie panowania, nie usprawnienia.

Smart control: przyszłość w wersji izraelskiej?

Tak więc technologia „smart” to nie innowacja – to automatyzacja nadzoru. System Lewiatan realizuje dokładnie tę logikę: umożliwia zdalne, masowe zarządzanie populacją, w sposób opłacalny, efektywny i politycznie wygodny. Okupacja nie musi już opierać się na masowej obecności wojska – wystarczy sieć kamer, skanery biometryczne i dostęp do smartfona ofiary.

Izraelski model szybko staje się eksportowalny. Wiele państw – w tym USA, Indie, Filipiny, a także niektóre państwa UE – korzysta z izraelskich systemów nadzoru testowanych wcześniej w Gazie czy na Zachodnim Brzegu¹². Lewiatan jest więc prekursorem przyszłości, w której państwo nie kontroluje przestrzeni – lecz informację o niej.

Dane jako pole bitwy: co dalej?

Technologie danych są polityczne: nie tylko rejestrują rzeczywistość, ale ją formatują – decydują, co jest normalne, kto jest zagrożeniem, kto może przekroczyć granicę. Lewiatan czyni z danych narzędzie klasyfikacji, uprzedzania, eliminacji. Takie systemy nie dają się łatwo zatrzymać – raz wdrożone, ewoluują, uczą się i rozszerzają swoje pole działania.

To nie jest odległa przyszłość ale teraźniejszość testowana na oczach świata. Pytanie, które stawia Sadowski, brzmi: czy mamy jeszcze kontrolę nad technologią, czy już tylko iluzję zarządzania systemem, który działa poza naszym zasięgiem?

Determinizm technologiczny i kwestia odpowiedzialności

Jak pisze Kadir Temiz w raporcie DEADLY ALGORITHMS Destructive Role of Artificial Intelligence in Gaza War – zastosowanie sztucznej inteligencji w izraelskich operacjach wojskowych wywołało istotną debatę na temat granic odpowiedzialności prawnej i etycznej. Minimalna obecność człowieka w procesach decyzyjnych systemów autonomicznych – takich jak Lavender czy wcześniej Habsora – zaciera jasność co do tego, kto ponosi winę za ewentualne zbrodnie wojenne i kto powinien zostać za nie rozliczony. Zdolność tych systemów do samodzielnego typowania celów i podejmowania decyzji o ataku komplikuje tradycyjny łańcuch dowodzenia, utrudniając przypisanie winy i egzekwowanie odpowiedzialności.

W efekcie, izraelskie wykorzystanie narzędzi opartych na AI nie tylko redefiniuje nowoczesne pole walki, lecz także wystawia na próbę obowiązujące normy prawa międzynarodowego. Wysoka liczba ofiar cywilnych towarzyszących tym operacjom stawia pod znakiem zapytania zarówno efektywność mechanizmów weryfikacji celów, jak i etyczną legitymację użycia takich technologii. Rosnący dystans między operatorem a decyzją śmierci czyni tę przemoc „bezosobową”, lecz nie mniej realną.

Izraelskie działania militarne stają się dziś osią globalnej debaty o granicach automatyzacji w wojnie i potrzebie stworzenia nowych, jednoznacznych ram prawnych, które obejmą kwestie użycia sztucznej inteligencji, odpowiedzialności cywilnej i ochrony ludności. Obecne przepisy nie nadążają za dynamiką technologiczną – a brak reakcji oznacza przyzwolenie na przeniesienie decyzji o życiu i śmierci poza jakikolwiek demokratyczny nadzór.

M. Trojanowska

Cyfrowy kapitalizm

Pierwotna cena wynosiła: 65,00 zł.Aktualna cena wynosi: 54,00 zł.

Poprzednia najniższa cena: 54,00 .

LEWIATAN NIE ŚPI
Izraelski system totalnego nadzoru – zaprojektowany, by wiedzieć wszystko, zanim cokolwiek się wydarzy.

Twój głos. Twój ruch. Twoje pragnienia.
To nie dane. To broń.

Lewiatan to nie przyszłość – to teraźniejszość.
Algorytmy decydują, kto jest zagrożeniem.
Kapitał eksportuje gotowy model panowania.

Przypisy i źródła

  1. Jathan Sadowski, Cyfrowy kapitalizm, Wydawnictwo Wektory, 2025.
  2. Ronen Bergman, Rise and Kill First, Random House, 2018; zob. także: Unit 8200 reports, Haaretz, 2014.
  3. Yuval Abraham, “A vast surveillance program is turning Gaza into a testing ground for AI-powered war”, +972 Magazine, 5.12.2023, https://www.972mag.com/lavender-ai-israeli-army-gaza/
    Human Rights Watch, „Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza” (10 września 2024)
    🔗 https://www.hrw.org/news/2024/09/10/questions-and-answers-israeli-militarys-use-digital-tools-gaza
  4. Le Monde, „Israeli army uses AI to identify tens of thousands of targets in Gaza” (5 kwietnia 2024):
    https://www.lemonde.fr/en/international/article/2024/04/05/israeli-army-uses-ai-to-identify-tens-of-thousands-of-targets-in-gaza_6667454_4.html
  5. Kadir Temiz, Israel’s Use of Artificial Intelligence in Gaza: Legal and Political Implications, SETA Report No. 260, Foundation for Political, Economic and Social Research (SETA), luty 2025, https://www.setav.org/en/assets/uploads/2025/02/r260en.pdf


Odkryj więcej z Myślozbrodnia

Zapisz się, aby otrzymywać najnowsze wpisy na swój adres e-mail.