The Guardian: İsrail, yapay zeka destekli katliam sistemini Gazze'de nasıl kullandı?

İngiltere merkezli The Guardian'da, İsrail'in Gazze'de gerçekleştirdiği katliamlarında yapay zeka sistemlerini nasıl kullandığına dair ayrıntıların değerlendirildiği bir analiz yayınlandı.

Guardin'a konuşan çok sayıda stihbarat kaynağına göre, İsrail ordusunun Gazze'deki bombardımanlarında daha önce açıklanmayan yapay zeka destekli bir veri tabanı kullanıldı ve bu yapay zeka programları çok büyük oranda sivil katliamına neden oldu.

İstihbarat uzmanlarının ayrıntıları ile anlattığı sistemde, belirlenen kriterlere göre rütbesine göre tek bir Hamas mensubunun öldürmek için 100'den fazla sivilin öldürülebileceğine bile karar verildi.

İşte The Guardin'da yayınlanan analiz:

İstihbarat kaynaklarına göre, İsrail ordusunun Gazze'deki bombardımanlarında, daha önce açıklanmayan yapay zeka destekli bir veri tabanı kullanıldı ve bu veri tabanı Hamas'la ilgili 37 bin potansiyel hedef belirledi.

Lavender adı verilen yapay zeka sisteminin kullanımına dair ayrıntıları açıklayan istihbarat kaynakları, İsrailli askeri yetkililerin özellikle çatışmanın ilk aylarında çok sayıda Filistinli sivilin öldürülmesine neden olduğunu iddia etti.

Yetkililerin ifadeleri, altı aylık savaş sırasında hedefleri belirlemeye yardımcı olmak için yapay zeka sistemlerini kullanan İsrailli istihbarat yetkililerinin ilk elden deneyimlerini ortaya koydu.

İsrail'in Hamas'a karşı savaşında yapay zeka sistemlerini kullanması bir dizi yasal ve ahlaki soruyu da gündeme getirdi.

Lavender'i kullanan bir istihbarat subayı yaptığı açıklamada;

"Ben de dahil olmak üzere oradaki herkes 7 Ekim'de yakınlarını kaybetti. Bu benim hafızamda eşi benzeri olmayan bir şey. Bu nedenle savaş sırasında istatistiksel bir mekanizmaya, yas tutan bir askerden daha çok güveniyoruz.”

ifadelerini kullandı.

The Guardian'a konuşan altı farklı kaynak da Lavender'in savaşta merkezi bir rol oynadığını ve hedef alınacak kişileri hızla belirlemek için yığınla veriyi işlediğini belirtti.

Kaynaklardan dördü, savaşın başlarında Lavender yapay zeka sistemi tarafından Hamas ya da İslami Cihad ile ilişkilendirilen 37 bin kadar Filistinli erkeği listelediğini açıkladı.

Lavender, İsrail ordusunun seçkin istihbarat birimi olan Birim 8200 tarafından geliştirilmiş bir sistem olarak biliniyor.

Kaynakların birçoğu, İsrail ordusunun belirli hedef kategorileri için, bir saldırıya izin verilmeden önce öldürülebilecek tahmini sivil sayısı için önceden yetkilendirilmiş izinleri nasıl uyguladığını anlattı.

İki kaynak savaşın ilk haftalarında düşük rütbeli militanlara yönelik hava saldırıları sırasında 15 ya da 20 sivilin öldürülmesine izin verildiğini söyledi. Kaynaklar, bu tür hedeflere yönelik saldırıların genellikle güdümsüz mühimmatlar kullanılarak gerçekleştirildiğini, bu mühimmatların evleri yerle bir ettiğini ve tüm sakinlerini öldürdüğünü belirtti.

Bir istihbarat yetkilisi;

"Pahalı bombaları önemsiz insanlar üzerinde harcamak istemezsiniz. Bu çok maliyetli olur ve bu tür akıllı bombalar az.”

açıklamasında bulundu.

Bir diğer kaynak ise karşı karşıya kaldıkları temel sorunun sivillere verilecek "ikincil zararın" bir saldırıya izin verip vermeyeceği konusu olduğunu ifade etti.

Kaynak;

"Saldırıları genellikle güdümsüz bombalarla gerçekleştiriyorduk ve bu da kelimenin tam anlamıyla tüm evin, içindekilerin üzerine yıkılması anlamına geliyordu. Ancak bir saldırının sonucunu umursamıyorsunuz. Hemen bir sonraki hedefe geçiyorsunuz. Sistem yüzünden hedefler hiç bitmiyor. Sizi bekleyen 36 bin kişi daha var."

ifadelerini kullandı.

Uzmanlara göre, eğer İsrail yapay zekanın yardımıyla Gazze'deki militan gruplarla bağlantılı binlerce Filistinlinin evini bombalayarak yıktıysa, bu durum savaştaki şok edici yüksek ölü sayısını açıklıyor.

Gazze Sağlık Bakanlığı son altı ay içinde 33 bin Filistinlinin çatışmalarda öldüğünü açıkladı. BM verileri sadece savaşın ilk ayında 1340 ailenin birden fazla kayıp verdiğini, 312 ailenin ise 10'dan fazla üyesini kaybettiğini gösteriyor.

İsrail ordusu ise tüm bu verilere rağmen yaptığı açıklamada, saldırılarının uluslararası hukuk çerçevesinde orantılılık kurallarına uygun olarak gerçekleştirildiğini savundu.

Açıklamada güdümsüz bombaların İsrail pilotları tarafından "yüksek düzeyde hassasiyet" sağlayacak şekilde kullanılan "standart silahlar" olduğu belirtildi.

Açıklamada;

"İsrail, teröristleri tanımlayan ya da bir kişinin terörist olup olmadığını tahmin etmeye çalışan bir yapay zeka sistemi kullanmamaktadır. Bilgi sistemleri sadece hedef belirleme sürecinde analistler için bir araçtır."

ifadeleri kullanıldı.

Lavender veri tabanı

İsrail ordusu tarafından yürütülen daha önceki askeri operasyonlarda insan hedefler üretmek genellikle daha yoğun emek gerektiren bir süreçti.

Guardian'a konuşan kaynaklardan birisi, bir bireyi "suçlu gösterme" ya da "meşru bir hedef olarak tanımlama" kararının tartışıldığını ve ardından kararın bir hukuk danışmanı tarafından imzalandığını ifade etti.

Kaynaklara göre 7 Ekim'den sonraki haftalarda ve aylarda, hedeflere yönelik saldırıları onaylamaya yönelik bu model dramatik bir şekilde hızlandırıldı. İsrail ordusunun Gazze'ye yönelik bombardımanı yoğunlaştıkça, komutanlar sürekli yeni bir hedef hattı talep etti.

Kaynak;

"Bize sürekli daha fazla hedef getirmemiz için baskı yapılıyordu.”

ifadelerini kullandı.

Bu talebi karşılamak için İsrail ordusu, İslami Cihad veya Hamas özelliklerine sahip olduğuna karar verilen kişilerin veri tabanını oluşturmak için Lavender'a büyük ölçüde bel bağlamaya başladı.

Lavender'in algoritmasını eğitmek için kullanılan belirli veri türleri ya da programın sonuçlara nasıl ulaştığı ile ilgili ayrıntılar +972 ya da Local Call tarafından yayınlanan hesaplarda yer almıyor.

Ancak kaynaklar, savaşın ilk birkaç haftası boyunca Birim 8200'ün Lavender'in algoritmasını geliştirdiğini ve arama parametrelerini değiştirdiğini belirtiyor.

Kaynaklar, rastgele örnekleme ve tahminlerini çapraz kontrol ettikten sonra, birimin Lavender'in yüzde 90 doğruluk oranına ulaştığı sonucuna vardığını ve İsrail ordusunun bir hedef tavsiye aracı olarak kapsamlı kullanımını onaylamasına yol açtığını ifade etti.

Lavender'in Hamas'ın askeri kanadının ağırlıklı olarak düşük rütbeli üyeleri olarak işaretlenmiş on binlerce kişiden oluşan bir veri tabanı oluşturduğunu da belirtti. Bu veri tabanı, bireyler yerine bina ve yapıları hedef olarak öneren Gospel adlı başka bir yapay zeka tabanlı karar destek sistemiyle birlikte kullanıldı.

Kaynaklardan biri;

"Sistem en yoğun olduğu dönemde 37 bin kişiyi potansiyel insan hedefi olarak üretmeyi başardı. Ancak rakamlar sürekli değişti. Çünkü bu bir Hamas üyesinin tanımına dair çıtayı nereye koyduğunuza bağlıydı. Kriterleri genişlettiğimizde sistem bize, bomba israf etmemek için sivil savunma personellerini polis memurlarını da getirmeye başladı. Çünkü sisteme göre bu kişiler Hamas hükümetine yardım ediyorlardu. Ama askerleri gerçekten tehlikeye atmıyorlardı."

açıklamasında bulundu.

Savaştan önce ABD ve İsrail, Hamas'ın askeri kanadının üye sayısının yaklaşık 25 ila 30 bin kişi olduğunu tahmin ediyordu.

Kaynaklar, 7 Ekim saldırısından sonraki haftalarda, Hamas'ın askeri kanadıyla bağlantılı Filistinli erkeklerin rütbelerine veya önemlerine bakılmaksızın potansiyel hedef olarak ele alınmasına karar verildiğini kaydetti.

Kaynaklar, bombardımanın en yoğun aşamasında İsrail ordusunun hedef alma süreçlerinin de gevşetildiğini vurguladı.

Diğer bir kaynak ise;

"Bombardımanlardaki kayıplar konusunda tamamen müsamahakar bir politika vardı. O kadar müsamahakar bir politikaydı ki bence bir intikam unsuru taşıyordu. Söz konusu olan küçük rütbeli bir militan olduğunda, bu işe insan gücü ve zaman harcamak istemedik.”

açıklamasında bulundu.

Local Call ve +972 tarafından üretilen veriler, bu kadar gelişmiş kabiliyetlere ve son derece hassas saldırılar gerçekleştirebilen silahlara sahip bir Batı ordusunun, nasıl olup da bu kadar büyük bir insan kaybına yol açan bir savaş yürüttüğünü açıklar nitelikte.

Böyle bir strateji daha yüksek sayıda sivil kayıp riskini beraberinde getiriyordu ve kaynaklar İsrail ordusunun tek bir Hamas militanını hedef alan bir saldırıda öldürmeyi kabul edilebilir bulduğu sivil sayısına önceden belirlenmiş sınırlar getirdiğini ifade etti. Bu oranın zaman içinde değiştiği ve hedefin kıdemine göre farklılık gösterdiği belirtildi.

+972 ve Local Call'a göre, İsrail ordusu üst düzey bir Hamas yetkilisine yönelik saldırılarda 100'den fazla sivilin öldürülebileceğine karar verdi.

Başka bir kaynak ise;

"Hamas'ın bir tugay komutanı için kaç sivilin, bir tabur komutanı için kaç sivilin öldürülebileceğine dair bir hesaplamamız vardı. Çift haneli sayılarda (onlarca) ikincil hasarla insanları öldürdük. Bunlar daha önce yaşanmamış şeyler."

ifadelerini kullandı.

Guardian'a konuşan uluslararası hukuk uzmanları, İsrail ordusunun özellikle düşük rütbeli militanlar için 20 sivile varan zayiat oranlarını kabul ettiği ve önceden onayladığı yönündeki açıklamalardan endişe duyduklarını ifade ettiler.

ABD Dışişleri Bakanlığı'ndan bir uluslararası hukuk uzmanı, "özellikle alt düzey savaşçılar için 1'e 15 sivil kayıp oranının kabul edilebilir görüldüğünü hiç duymadıklarını" belirtti.

ABD Savunma Bakanlığı'nda eski bir avukat olan ve şu anda Crisis Group'ta analist olarak çalışan Sarah Harrison ise;

"Tek terörüste karşı 15 sivilin ölümünün orantılı olabileceği bazı durumlar olsa da, kesinlikle orantılı olmayacağı durumlar da var. Bir hedef kategorisi için öylesine bir sayı belirleyip, daha sonra da bunun yasal olarak orantılı olacağını söyleyemezsiniz."

değerlendirmesinde bulundu.

Sonuç olarak; İsrail'in bombalama stratejisinin yasal ya da ahlaki gerekçeleri ne olursa olsun, hem bazı istihbarat görevlileri hem de uluslararası uzmanlar, İsrail'in yaklaşımını gün geçtikçe daha da fazla sorgulayacak gibi görünüyor.

Özet
:
İsrail, yapay zeka destekli katliam sistemini Gazze'de nasıl kullandı? İşte istihbarat yetkililerinin ifadeleri ile İsrail'in katliam sisteminin ayrıntıları...
Resim
Türkçe
X