
YDH - ABD ve İsrail’in İran’a yönelik haydutluk eylemleri deam ederken, Savaş Bakanlığı'nın (Pentagon) hedefleri belirlemek ve önceliklendirmek amacıyla yapay zeka sistemlerinden yararlandığı kaydedildi.
Palantir tarafından geliştirilen ve Anthropic şirketinin "Claude" adlı modelini de içeren "Project Maven" sistemi, modern savaş sahasında veri işleme hızını kökten değiştiriyor.
Pentagon, bu yapay zeka sisteminin İran’da 170’ten fazla kişinin, çoğunluğu kız çocukları olmak üzere hayatını kaybettiği okul saldırısında rol oynayıp oynamadığını inceliyor.
CENTCOM Komutanı Amiral Brad Cooper, yapay zekanın sahadaki etkisine ilişkin yaptığı açıklamada, "Askerlerimiz çeşitli gelişmiş yapay zeka araçlarından yararlanıyor. Bu sistemler, muazzam miktardaki veriyi saniyeler içinde taramamıza yardımcı oluyor; böylece liderlerimiz gürültüyü ayıklayıp düşmanın tepki verebileceğinden daha hızlı ve akıllı kararlar alabiliyor" dedi.
Cooper, son kararın her zaman insanlar tarafından verileceğini vurgulasa da, geçmişte günler süren süreçlerin artık saniyeler içinde tamamlandığını belirtti.
Modern savaş uzmanı ve Newcastle Üniversitesi Kıdemli Öğretim Üyesi Craig Jones, Democracy Now'a verdiği mülakatta yapay zeka teknolojisinin ordulara "katliam zinciri" (kill chain) sürecini hızlandırmada kritik bir avantaj sağladığını kaydetti.
Jones, "On binlerce saatlik devasa bir insan iş yükünü saniyelere ve dakikalara indiriyorsunuz. İş akışlarını azaltıyor ve insan yapımı hedefleme kararlarını her türlü sorunlu yasal, etik ve siyasi soruyu beraberinde getirecek şekilde otomatize ediyorsunuz" diye konuştu.
İsrail’in daha önce Gazze ve Lübnan’da benzer sistemler kullandığını hatırlatan Jones, yapay zekanın istihbarat analizindeki rolüne dikkat çekti.
Jones, sistemin cep telefonu sinyalleri, internet trafiği ve konum takibi gibi çok formatlı verileri "yaşam kalıplarını" tespit etmek için kullandığını belirterek, "Yapay zeka sistemleri bu kalıpları arıyor ve hedefler için önerilerde bulunuyor. Bu teknoloji günde yüzlerce, hatta potansiyel olarak binlerce hedef önerebiliyor ve bu hız insan bilişinin evriminin çok ötesinde" ifadelerini kullandı.
İran'ın güneyindeki bir kız okuluna düzenlenen ve yaklaşık 170 sivilin katledilmesiyle sonuçlanan saldırı, yapay zeka destekli hedeflemenin risklerini gündeme getirdi.
İlk aşamada ABD ordusu tarafından reddedilen, ardından Tomahawk füzeleriyle gerçekleştirildiği teyit edilen saldırıda, yapay zekanın okulu neden bir askeri hedef olarak tanımladığı araştırılıyor.
Craig Jones, saldırının gerçekleştiği bölgedeki askeri yerleşke ile okul arasında 13 yıl önce inşa edilmiş bir duvarın bulunduğuna işaret ederek, "Eğer askeri yetkililer saldırıdan sadece yarım saat önce insansız hava aracı görüntülerini izlemiş olsalardı, o sabah okula bırakılan 170 kız çocuğunu görürlerdi ve burası net bir şekilde sivil kullanım alanı olarak tanımlanırdı" dedi.
Jones, bu durumun hem yapay zeka hem de insan istihbaratının birleştiği "felaketle sonuçlanan bir başarısızlık" olduğunu vurguladı.
Yapay zeka kullanımına ilişkin tartışmalar, teknoloji dünyası ile Pentagon arasında derin bir çatlağa yol açtı. Anthropic şirketinin, teknolojisinin Amerikalıların kitlesel gözetimi ve tam otonom silahlar için kullanılmasına kısıtlama getirme girişimi üzerine Trump yönetimi sert bir misillemede bulundu.
SAvaş Bakanı Pete Hegseth, firmayı "tedarik zinciri riski" ilan ederek hükümet sözleşmelerinden dışladı.
Anthropic bu karara karşı dava açarken, aralarında yaklaşık 150 emekli yargıcın da bulunduğu bir grup, şirkete destek veren bir hukuki görüş (amicus brief) sundu. Bu sırada, OpenAI CEO'su Sam Altman'ın Anthropic'in bıraktığı boşluğu doldurmak üzere Pentagon ile işbirliğine yöneldiği bildirildi.
Craig Jones, askeri operasyonlarda hukuki danışmanlık veren savaş hukukçularının Trump yönetimi tarafından sistematik olarak etkisizleştirildiğini ifade etti.
Jones, orantılılık hesaplamaları yapan ve sivil kayıpları önlemek için çalışan kıdemli hukuk birimi başkanlarının görevden alındığını ve yerlerine itiraz etmeyen isimlerin getirildiğini belirtti.
Savaş Bakanı Pete Hegseth'in "kurallara takılmayan, siyasi doğruluktan uzak, tarihin en ölümcül hava harekatını yürütme" yönündeki açıklamalarını değerlendiren Jones, "Bu, savaşın hesap verebilirliğini sağlayan denetim ve denge mekanizmalarının kasıtlı olarak devre dışı bırakılmasıdır. Teknolojilerin nasıl çalıştığını tam olarak bilmediğimiz için bir 'ilk hareket eden avantajına' ihtiyacımız olduğunu söylüyorlar. Bu, 'hızlı hareket et ve parçala' anlayışının askeri sahadaki karşılığıdır ve sonuçları endişe vericidir" değerlendirmesini yaptı.
Yapay zeka destekli bu yeni savaş doktrininin, Vietnam Savaşı dönemindeki kontrolsüz şiddet kullanımına geri dönüş riski taşıdığı konusunda uyarıda bulunan Jones, teknoloji tekellerinin bu sistemlerin sahadaki insani sonuçlarıyla aralarına mesafe koyduğunu vurguladı.