Categories: Siyaset

Savaş alanında yapay zeka: Katliam teknolojisi mi, ilerleme mi?

Yapay zeka sadece insanları daha iyi yaşatmak değil, daha çok öldürmek için de kullanılmaya başlandı. Bunun son örneğini İsrail’in Gazze operasyonunda görüyoruz. İsrail’in geliştirdiği Lavender (Lavanta) isimli yapay zekâ uygulamasının Gazze’deki sivil ölümlerin korkunç boyutlara ulaşmasında pay sahibi olduğu tartışılıyor. TEPAV’ın Askeri Alanda Yapay Zeka: Düzenlemeler ve Etik Tartışmalar başlıklı değerlendirmesi konuyu detaylarıyla ele alıyor.

Yapay zeka sadece insanları daha iyi yaşatmak değil, daha çok öldürmek için de kullanılmaya başlandı. Bunun son örneğini İsrail’in Gazze operasyonunda görüyoruz. İsrail’in geliştirdiği Lavender (Lavanta) isimli yapay zeka uygulamasının Gazze’deki sivil ölümlerin korkunç boyutlara ulaşmasında pay sahibi olduğu tartışılıyor. Filistin Sağlık Bakanlığına göre 17 Haziran itibarıyla Gazze’de öldürülenler 37 bini, yaralananlar ise 85 bini geçti. Lavender, İsrail jetlerinin otomatik olarak istihbarat birimlerince daha önce Hamas üyelerinin bulunduğu binaları hedef almasını sağlıyor. İsrail ordusunun Hamas militanıyla birlikte bazen çok sayıda sivilin de öldürülmesini “kabul edilebilir hata” saydığı suçlaması var medyada.

Rusya’nın Ukrayna’ya savaşında ise her iki taraf da yapay zeka destekli askeri teknolojileri geniş olarak kullanıyor. Rusya hangi teknolojileri kullandığını gizli tutarken Ukrayna kendi geliştirdiği ve bazı NATO ülkelerinden ithal ettiği yapay zeka uygulamalarını insansız hava ve deniz araçlarını Rus hedeflerine karşı kullandığını gizlemiyor. Bazı yorumlara göre yapay zeka Ukrayna’nın Rusya’ya savaşında en önemli silahlarından.

Türkiye Ekonomi Politikaları Araştırma Vakfı (TEPAV) araştırmacılarından Ece Berfin Ergezer’in “Askeri Alanda Yapay Zeka: Düzenlemeler ve Etik Tartışmalar” başlıklı tahlili bu alandaki son gelişme ve tartışmaları ele alıyor:

Askeri Alanda Yapay Zeka: Düzenlemeler ve Etik Tartışmalar

Sıcak çatışma bölgelerinde sahneye çıkan siber saldırılar, yapay zeka ile donatılmış otonom silahlar ve dezenformasyon araçları, modern savaşların kurallarını yeniden yazıyor. Bu ileri teknoloji silahlar, stratejik üstünlük sağlamanın ötesinde, insanlığın geleceği için derin endişeler uyandırıyor. Siber saldırılar, düşman hatlarını aşarak kritik altyapılara zarar verebilirken yapay zeka entegreli otonom silahlar, insan kontrolü olmaksızın hedeflerini tespit edip etkisiz hale getirebiliyor.

Etik tartışmaların ortasında, bu yeniliklerin savaş alanlarında yarattığı dönüşüm, sadece askeri stratejileri değil, uluslararası güvenlik ve barış kavramlarını da sarsacak bir potansiyele sahip. Bu durum, teknolojinin savaş sanatını ne kadar ileri taşıdığı kadar, insanlık değerlerini ne kadar geriye götürebileceği sorusunu da gündeme getiriyor.

Rusya-Ukrayna Savaşı ve Yapay Zeka

Rusya-Ukrayna Savaşı sırasında yapay zeka destekli silahların kullanımı ve geçtiğimiz günlerde İsrail’in Gazze’de kullandığı yapay zeka destekli “Lavender” ile savaşlarda bu teknolojinin kullanımı, özellikle de insani boyutuyla bir kez daha gündeme geldi.

+972 dergisi ve Local Call tarafından yayımlanan yeni bir rapor, İsrail’in Gazze’de şüpheli Hamas hedeflerini belirlemek için Lavender isimli yapay zeka destekli bir veri tabanı kullandığını gösteriyor. Özellikle savaşın ilk aşamalarında sivil zaiyatında Lavender’ın önemli bir rol oynamış olabileceği tahmin ediliyor. The Guardian’a açıklama yapan İsrail Savunma Kuvvetleri (IDF) yetkilileri ise, yapay zekayı teyit edilmiş askeri hedefler oluşturmak için kullandıklarını reddettiler ve Lavender’ın “terör örgütü üyeleri hakkında güncel bilgi katmanları üretmek adına istihbarat kaynaklarını çapraz referanslamak” için kullanıldığını, bütün askeri operasyonlarının da uluslararası hukukun orantılılık ilkesi temel alınarak gerçekleştiğini savundular.

Küresel Dinamikler

Batılı hükümetler Yapay Zeka Güvenlik Enstitüleri kurma çalışmalarına hız vermeye başlarken Çin ve Rusya gibi güçler de askeri uygulamalar için yapay zeka AR-GE çalışmalarına büyük yatırımlar yapıyor. ABD Savunma Bakanlığı şimdiden modifiye edilmiş bir F-16 savaş uçağını uçurabilen yapay zeka botlarını deniyor, Rusya, otonom tank benzeri araçları test ediyor. Çin ise kendi yapay zeka ile çalışan sistemlerini devreye sokmak için acele ediyor.

ABD İç Güvenlik Bakanlığı Yapay Zeka Güvenlik ve Emniyet Kurulunu kurarken Avrupa Birliği üye ülkeleri de içinde bulunduğumuz Mayıs ayı içinde Yapay Zeka Yasasını (EU AI Act) onayladı. Yasa, yapay zeka sistemlerinin güvenli, şeffaf ve insan haklarına saygılı olmasını hedeflerken bu sistemler topluma potansiyel zararları göz önünde bulundurularak “kabul edilemez risk,” “yüksek risk,” “spesifik şeffaflık riski” ve “düşük risk” olarak dört kategoriye ayırıyor. Fakat bu kategorizasyon ve düzenlemeler milli güvenlik meselelerini kapsamıyor.

Yapay zeka düzenlemeleriyle ilgili yapılan çalışmalarda güvenliğe yapılan yoğun vurgu göz önüne alındığında, bu organların hiçbirinin Yapay Zeka’nın askeri kullanımını yönetmemesi ise dikkat çekici.

Dikkat çeken bir diğer durum da, bu hızlanmanın gelecekte bir küresel silahlanma yarışı ve güvenlik ortamında istikrarsızlaşma potansiyelini artırması. Özellikle otonom silahların yaygın kullanımını göz önünde bulundurduğumuzda, uluslararası işbirliği ve düzenlemeler, bu teknolojilerin belirli bir ahlaki etik çerçevesinde geliştirilmesini ve kullanılmasını sağlamak için çok önemli.

REAIM 2023

Yapay zekanın askeri operasyonlarda kullanımı sırasında ortaya çıkan etik ve yasal sorunları ele almak ve bu teknolojilerin güvenli ve sorumlu bir şekilde kullanılmasını sağlamak için gerekli politikaları ve uygulamaları tartışmak önem kazanıyor.

Hollanda hükümeti de bu kapsamda, Askeri Alanda Sorumlu Yapay Zeka konulu ilk küresel Zirve olan REAIM 2023’e ev sahipliği yaptı. Zirve, tüm paydaşların yapay zekanın askeri uygulamalarıyla ilgili temel fırsatları, zorlukları ve riskleri tartışmaları için bir platform sağladı. REAIM zirvesinde bir araya gelen hükümet temsilcileri, yapay zekanın askeri alanda sorumlu bir şekilde geliştirilmesi, konuşlandırılması ve kullanılması konusunda ortak bir eylem çağrısı üzerinde anlaştılar.

Toplantı sonunda açıklanan bildiride, yapay zekanın askeri alanda kullanımının çok paydaşlı bir zorluk olduğu ve küresel diyaloğun kapsayıcı bir şekilde sürdürülmesine kararlılık vurgulandı. Bunun yanı sıra, tüm paydaşların uluslararası hukuka uygun olarak güvenlik ve istikrara katkıda bulunma sorumluluğunu üstlenmeleri gerektiği belirtilirken devletlerin askeri alanda sorumlu yapay zeka konusunda ulusal çerçeveler, stratejiler ve ilkeler geliştirmesi önerildi.

Hukuki Boyut

Doğrudan savaşlarda yapay zeka kullanımını hedefleyen bir sözleşme henüz bulunmasa da, hangi koşullarda kabul edilebilir olduğu, nasıl kullanılması gerektiği ve hangi durumlarda yasal sorumluluklar doğurabileceği konuları dolaylı olarak uluslararası hukukta yer buluyor.

Cenevre Sözleşmesi ve Silahlı Çatışma Hukukuna göre, savaşanların sivil halktan ayrılmasını içeren ayrımcılık, sadece savaşanlara ve onları savaş alanından uzaklaştıracak ölçüde güç kullanılmasını içeren orantılılık ve insancıl hukukun temel prensiplerine riayet edilmelidir.

Ayrımcılık ilkesi, bütün çatışmalarda asıl odağın karşı tarafın askeri gücünün zayıflatılması olduğu prensibine dayanmaktadır. Yerleşim yerleri ve konutlara saldırı yasaklanmış ve savaşan tarafların, savaşçılar ile sivillerin ayrılmasını sağlayan tedbirleri alması zorunlu tutulmuştur.

Orantılılık ilkesine göre, saldırıda hedefin yakınında bulunan sivillerin zarar görme olasılığı varsa bu durumda yapılan saldırı orantısız kabul edilir. Sivil kayıpların olacağı veya sivillere ait konutların zarar göreceğini bilerek bir saldırı düzenlemek, bu kuralın ihlali sonucunu doğurmaktadır. İnsancıl hukuka göre ise, her türlü silahlı çatışma ortamında savaşa taraf olamayan sivillerin korunması gerekmektedir.

Sonuç olarak, yapay zeka kullanımının savaş alanında etik ve uluslararası hukuk konularını da beraberinde getirdiğini unutmamak gerekir. Sivil kayıpların en aza indirilmesi ve insan haklarının korunması gibi önemli hususlar, bu teknolojinin kullanımında dikkate alınmalıdır.

YetkinReport

Recent Posts

Erdoğan may long for Biden days: Trump’s cabinet of horrors

President Tayyip Erdoğan welcomed Donald Trump's return to the US presidency. During Trump's previous tenure,…

1 saat ago

Bahçeli’nin çıkışı ve terörle mücadele: Bir durum tespiti

Türkiye’yi hedef alan iki vekil gücün liderlerine ilişkin Ekim ayında, ardı ardına önemli gelişmeler yaşandı.…

2 saat ago

Erdoğan, Biden’ı mumla arayabilir: Trump ve kabus kabinesi

Cumhurbaşkanı Tayyip Erdoğan, Donald Trump’ın yeniden ABD Başkanı seçilmesine memnun oldu. Bir sorun çıktığında doğrudan…

5 saat ago

İmamoğlu ve Yavaş’a soruşturma: Erdoğan’a adaylık yolu operasyonu

Ankara Cumhuriyet Başsavcılığının 13 Kasım’da Ankara Büyükşehir Belediyesine usulsüz harcama soruşturma başlatmasından saatler sonra İstanbul…

1 gün ago

Erdoğan’ın yeniden cumhurbaşkanlığı ve Bahçeli’nin bekledikleri

Türkiye’de ana siyasi gelişmelerin birçoğunda belirleyici olan Milliyetçi Hareket Partisi (MHP) genel başkanı Devlet Bahçeli;…

1 gün ago

Daron Acemoğlu’na bir not: Atatürk neden önce laiklik ile başladı?

Nobel ödülüne layık görülmesi hepimizi gururlandıran (ve bir GS Lisesi mezunu olarak benim de özellikle…

1 gün ago