Categories: Siyaset

Savaş alanında yapay zeka: Katliam teknolojisi mi, ilerleme mi?

Yapay zeka sadece insanları daha iyi yaşatmak değil, daha çok öldürmek için de kullanılmaya başlandı. Bunun son örneğini İsrail’in Gazze operasyonunda görüyoruz. İsrail’in geliştirdiği Lavender (Lavanta) isimli yapay zekâ uygulamasının Gazze’deki sivil ölümlerin korkunç boyutlara ulaşmasında pay sahibi olduğu tartışılıyor. TEPAV’ın Askeri Alanda Yapay Zeka: Düzenlemeler ve Etik Tartışmalar başlıklı değerlendirmesi konuyu detaylarıyla ele alıyor.

Yapay zeka sadece insanları daha iyi yaşatmak değil, daha çok öldürmek için de kullanılmaya başlandı. Bunun son örneğini İsrail’in Gazze operasyonunda görüyoruz. İsrail’in geliştirdiği Lavender (Lavanta) isimli yapay zeka uygulamasının Gazze’deki sivil ölümlerin korkunç boyutlara ulaşmasında pay sahibi olduğu tartışılıyor. Filistin Sağlık Bakanlığına göre 17 Haziran itibarıyla Gazze’de öldürülenler 37 bini, yaralananlar ise 85 bini geçti. Lavender, İsrail jetlerinin otomatik olarak istihbarat birimlerince daha önce Hamas üyelerinin bulunduğu binaları hedef almasını sağlıyor. İsrail ordusunun Hamas militanıyla birlikte bazen çok sayıda sivilin de öldürülmesini “kabul edilebilir hata” saydığı suçlaması var medyada.

Rusya’nın Ukrayna’ya savaşında ise her iki taraf da yapay zeka destekli askeri teknolojileri geniş olarak kullanıyor. Rusya hangi teknolojileri kullandığını gizli tutarken Ukrayna kendi geliştirdiği ve bazı NATO ülkelerinden ithal ettiği yapay zeka uygulamalarını insansız hava ve deniz araçlarını Rus hedeflerine karşı kullandığını gizlemiyor. Bazı yorumlara göre yapay zeka Ukrayna’nın Rusya’ya savaşında en önemli silahlarından.

Türkiye Ekonomi Politikaları Araştırma Vakfı (TEPAV) araştırmacılarından Ece Berfin Ergezer’in “Askeri Alanda Yapay Zeka: Düzenlemeler ve Etik Tartışmalar” başlıklı tahlili bu alandaki son gelişme ve tartışmaları ele alıyor:

Askeri Alanda Yapay Zeka: Düzenlemeler ve Etik Tartışmalar

Sıcak çatışma bölgelerinde sahneye çıkan siber saldırılar, yapay zeka ile donatılmış otonom silahlar ve dezenformasyon araçları, modern savaşların kurallarını yeniden yazıyor. Bu ileri teknoloji silahlar, stratejik üstünlük sağlamanın ötesinde, insanlığın geleceği için derin endişeler uyandırıyor. Siber saldırılar, düşman hatlarını aşarak kritik altyapılara zarar verebilirken yapay zeka entegreli otonom silahlar, insan kontrolü olmaksızın hedeflerini tespit edip etkisiz hale getirebiliyor.

Etik tartışmaların ortasında, bu yeniliklerin savaş alanlarında yarattığı dönüşüm, sadece askeri stratejileri değil, uluslararası güvenlik ve barış kavramlarını da sarsacak bir potansiyele sahip. Bu durum, teknolojinin savaş sanatını ne kadar ileri taşıdığı kadar, insanlık değerlerini ne kadar geriye götürebileceği sorusunu da gündeme getiriyor.

Rusya-Ukrayna Savaşı ve Yapay Zeka

Rusya-Ukrayna Savaşı sırasında yapay zeka destekli silahların kullanımı ve geçtiğimiz günlerde İsrail’in Gazze’de kullandığı yapay zeka destekli “Lavender” ile savaşlarda bu teknolojinin kullanımı, özellikle de insani boyutuyla bir kez daha gündeme geldi.

+972 dergisi ve Local Call tarafından yayımlanan yeni bir rapor, İsrail’in Gazze’de şüpheli Hamas hedeflerini belirlemek için Lavender isimli yapay zeka destekli bir veri tabanı kullandığını gösteriyor. Özellikle savaşın ilk aşamalarında sivil zaiyatında Lavender’ın önemli bir rol oynamış olabileceği tahmin ediliyor. The Guardian’a açıklama yapan İsrail Savunma Kuvvetleri (IDF) yetkilileri ise, yapay zekayı teyit edilmiş askeri hedefler oluşturmak için kullandıklarını reddettiler ve Lavender’ın “terör örgütü üyeleri hakkında güncel bilgi katmanları üretmek adına istihbarat kaynaklarını çapraz referanslamak” için kullanıldığını, bütün askeri operasyonlarının da uluslararası hukukun orantılılık ilkesi temel alınarak gerçekleştiğini savundular.

Küresel Dinamikler

Batılı hükümetler Yapay Zeka Güvenlik Enstitüleri kurma çalışmalarına hız vermeye başlarken Çin ve Rusya gibi güçler de askeri uygulamalar için yapay zeka AR-GE çalışmalarına büyük yatırımlar yapıyor. ABD Savunma Bakanlığı şimdiden modifiye edilmiş bir F-16 savaş uçağını uçurabilen yapay zeka botlarını deniyor, Rusya, otonom tank benzeri araçları test ediyor. Çin ise kendi yapay zeka ile çalışan sistemlerini devreye sokmak için acele ediyor.

ABD İç Güvenlik Bakanlığı Yapay Zeka Güvenlik ve Emniyet Kurulunu kurarken Avrupa Birliği üye ülkeleri de içinde bulunduğumuz Mayıs ayı içinde Yapay Zeka Yasasını (EU AI Act) onayladı. Yasa, yapay zeka sistemlerinin güvenli, şeffaf ve insan haklarına saygılı olmasını hedeflerken bu sistemler topluma potansiyel zararları göz önünde bulundurularak “kabul edilemez risk,” “yüksek risk,” “spesifik şeffaflık riski” ve “düşük risk” olarak dört kategoriye ayırıyor. Fakat bu kategorizasyon ve düzenlemeler milli güvenlik meselelerini kapsamıyor.

Yapay zeka düzenlemeleriyle ilgili yapılan çalışmalarda güvenliğe yapılan yoğun vurgu göz önüne alındığında, bu organların hiçbirinin Yapay Zeka’nın askeri kullanımını yönetmemesi ise dikkat çekici.

Dikkat çeken bir diğer durum da, bu hızlanmanın gelecekte bir küresel silahlanma yarışı ve güvenlik ortamında istikrarsızlaşma potansiyelini artırması. Özellikle otonom silahların yaygın kullanımını göz önünde bulundurduğumuzda, uluslararası işbirliği ve düzenlemeler, bu teknolojilerin belirli bir ahlaki etik çerçevesinde geliştirilmesini ve kullanılmasını sağlamak için çok önemli.

REAIM 2023

Yapay zekanın askeri operasyonlarda kullanımı sırasında ortaya çıkan etik ve yasal sorunları ele almak ve bu teknolojilerin güvenli ve sorumlu bir şekilde kullanılmasını sağlamak için gerekli politikaları ve uygulamaları tartışmak önem kazanıyor.

Hollanda hükümeti de bu kapsamda, Askeri Alanda Sorumlu Yapay Zeka konulu ilk küresel Zirve olan REAIM 2023’e ev sahipliği yaptı. Zirve, tüm paydaşların yapay zekanın askeri uygulamalarıyla ilgili temel fırsatları, zorlukları ve riskleri tartışmaları için bir platform sağladı. REAIM zirvesinde bir araya gelen hükümet temsilcileri, yapay zekanın askeri alanda sorumlu bir şekilde geliştirilmesi, konuşlandırılması ve kullanılması konusunda ortak bir eylem çağrısı üzerinde anlaştılar.

Toplantı sonunda açıklanan bildiride, yapay zekanın askeri alanda kullanımının çok paydaşlı bir zorluk olduğu ve küresel diyaloğun kapsayıcı bir şekilde sürdürülmesine kararlılık vurgulandı. Bunun yanı sıra, tüm paydaşların uluslararası hukuka uygun olarak güvenlik ve istikrara katkıda bulunma sorumluluğunu üstlenmeleri gerektiği belirtilirken devletlerin askeri alanda sorumlu yapay zeka konusunda ulusal çerçeveler, stratejiler ve ilkeler geliştirmesi önerildi.

Hukuki Boyut

Doğrudan savaşlarda yapay zeka kullanımını hedefleyen bir sözleşme henüz bulunmasa da, hangi koşullarda kabul edilebilir olduğu, nasıl kullanılması gerektiği ve hangi durumlarda yasal sorumluluklar doğurabileceği konuları dolaylı olarak uluslararası hukukta yer buluyor.

Cenevre Sözleşmesi ve Silahlı Çatışma Hukukuna göre, savaşanların sivil halktan ayrılmasını içeren ayrımcılık, sadece savaşanlara ve onları savaş alanından uzaklaştıracak ölçüde güç kullanılmasını içeren orantılılık ve insancıl hukukun temel prensiplerine riayet edilmelidir.

Ayrımcılık ilkesi, bütün çatışmalarda asıl odağın karşı tarafın askeri gücünün zayıflatılması olduğu prensibine dayanmaktadır. Yerleşim yerleri ve konutlara saldırı yasaklanmış ve savaşan tarafların, savaşçılar ile sivillerin ayrılmasını sağlayan tedbirleri alması zorunlu tutulmuştur.

Orantılılık ilkesine göre, saldırıda hedefin yakınında bulunan sivillerin zarar görme olasılığı varsa bu durumda yapılan saldırı orantısız kabul edilir. Sivil kayıpların olacağı veya sivillere ait konutların zarar göreceğini bilerek bir saldırı düzenlemek, bu kuralın ihlali sonucunu doğurmaktadır. İnsancıl hukuka göre ise, her türlü silahlı çatışma ortamında savaşa taraf olamayan sivillerin korunması gerekmektedir.

Sonuç olarak, yapay zeka kullanımının savaş alanında etik ve uluslararası hukuk konularını da beraberinde getirdiğini unutmamak gerekir. Sivil kayıpların en aza indirilmesi ve insan haklarının korunması gibi önemli hususlar, bu teknolojinin kullanımında dikkate alınmalıdır.

YetkinReport

Recent Posts

AB Komisyonu Başkanı 1 milyar yolda dedi, Özel sert çıktı: “Türkiye 200 milyar kaybetti”

AB Komisyonu Başkanı Ursula von der Leyen'in yeni yönetim döneminde Türkiye'ye ilk ziyareti Suriye'de Esad…

22 saat ago

Trump’ın “Türkiye Suriye’ye çöktü” sözü ve Erdoğan övgülerinin anlamı

Donald Trump’ın “Türkiye Suriye’ye çöktü” ifadesini Türk medyasındaki haberlerin pek çoğunda bulmanız mümkün değil. Trump’ın…

1 gün ago

Asgari ücret, enflasyon ve üretkenlik

Asgari ücret yine gündemimizde. Bu kez temel tartışma konusu asgari ücret ve enflasyon ilişkisi. Asgari…

2 gün ago

İlk Suriye’nin geleceği toplantısından kareler: kim, kiminle, nereye?

Suriye’de gelişmeler baş döndürücü bir hız kazandı. Beşar Esad’ın 7 Aralık akşamı Moskova’ya kaçmasından yalnızca…

2 gün ago

Kılıçdaroğlu ile Suriye’deki son durum ve Suriye siyaseti üzerine

CHP’nin önceki Genel Başkanı Kemal Kılıçdaroğlu, kendi dönemindeki Suriye politikası nedeniyle yeniden gündemde. Cumhurbaşkanı Tayyip…

2 gün ago

Suriye’de pek çok “ama” ve “acaba” dolu “geçiş dönemi”

Suriye'de Esad rejimini deviren harekatın hazırlığının bir yıldan fazla bir süredir yapıldığı, Türkiye’nin, ABD’nin ve…

2 gün ago