ankara envantermedya – Japonya Savunma Bakanlığı, yapay zekanın savunma sistemlerinde kullanımına ilişkin ilk resmi yönergelerini yayımladı. Yönergelerle birlikte, insan müdahalesi olmadan hedef belirleyip saldırı düzenleyebilen otonom silah sistemlerinin geliştirilmesi açık şekilde yasaklandı.
Tokyo yönetiminin yayımladığı düzenlemelerin, yapay zekanın askeri alandaki kullanımına yönelik küresel yönetişim tartışmalarında önemli bir adım olarak değerlendirildiği bildirildi.
ÖLÜMCÜL OTONOM SİLAH SİSTEMLERİ REDDEDİLDİ
Yönergelere göre Japonya, bir kez etkinleştirildikten sonra operatör müdahalesine gerek kalmadan hedef seçebilen ve vurabilen yapay zeka destekli “Ölümcül Otonom Silah Sistemleri (LAWS)”ni reddediyor. Japonya ayrıca bu tür sistemlerin küresel ölçekte yasaklanması yönünde diplomatik çabalarını sürdürmeyi hedefliyor.
Düzenlemelerde, Japonya’nın savunma anlayışının insan merkezli yaklaşım, insan kontrolü, hukuki uyum ve şeffaflık ilkeleri üzerine kurulu olduğu vurgulandı.
RİSK YÖNETİMİ VE HUKUKİ DENETİM ÖNE ÇIKIYOR
Yönergeler kapsamında, yapay zeka entegreli savunma sistemlerinin geliştirilmesi sürecinde risk değerlendirmesi, hukuki ve politik denetim ile insan haklarına uyumun zorunlu olacağı belirtildi. Yüksek riskli sistemlerin, uluslararası insancıl hukuk ve Japonya’nın insan kontrolüne bağlılık ilkeleri çerçevesinde inceleneceği kaydedildi.
Sistemlerin ayrıca şeffaflık, güvenilirlik, emniyet ve önyargı azaltma gibi teknik kriterlere göre değerlendirilmesi öngörülüyor.
ULUSLARARASI GELİŞMELER DİKKATE ALINDI
Haziran 2025’te yayımlanan yönergelerin, Ukrayna ve Orta Doğu’daki devam eden çatışmaların, yapay zekanın askeri entegrasyonuna ilişkin endişeleri artırdığı bir dönemde hazırlandığı ifade edildi.
Uluslararası değerlendirmelerde, Çin, Kuzey Kore ve Rusya gibi ülkelerde yapay zekanın bilgi manipülasyonu, otonom saldırılar ve siber suçlar amacıyla daha yoğun kullanıldığına dikkat çekilirken, Japonya’nın yaklaşımının bu eğilimlere karşı önleyici bir çerçeve sunduğu belirtildi.
SAVUNMA PROJELERİNDE SINIRLI YAPAY ZEKA KULLANIMI
Tokyo merkezli düşünce kuruluşu Crisis Intelligence’ta görev yapan savunma analisti Hiroyasu Harada, Japonya’nın yapay zekayı savunma alanında tamamen dışlamadığını, ancak kullanımın keşif sistemleri, depo otomasyonu ve arz-talep tahmin araçları gibi destekleyici alanlarla sınırlandırıldığını ifade etti.
Harada, yayımlanan yönergelerin zamanlamasının, Japonya’nın savunma operasyonlarını geliştirme hedefi ile etik ve hukuki sınırlar arasında denge kurma çabasını yansıttığını belirtti.
Japonya’nın yayımladığı bu çerçevenin, yapay zekanın askeri kullanımına ilişkin uluslararası normların güçlendirilmesi ve etkili karşı önlemlerin geliştirilmesi açısından referans niteliği taşıdığı değerlendiriliyor.