ANKARA — ABD Savunma Bakanlığı’nın (Pentagon) büyük dil modeli (LLM) tabanlı yapay zekâ araçlarını hızla askeri süreçlere entegre etmeye çalıştığı bir dönemde, uzmanlar asıl tehlikenin “katil robotlar” değil, insan muhakeme yeteneğinin zayıflaması olduğuna dikkat çekiyor.
Yeni araştırmalar, yapay zekâya aşırı güvenin insanın eleştirel düşünme, analiz ve karar verme becerilerini aşındırabileceğini ortaya koyuyor.
“YAPAY ZEKÂYI KULLANDIKÇA BEYİN DEĞİŞİR”
NATO Dönüşümden Sorumlu Yüksek Müttefik Komutanı Amiral Pierre Vandier, yapay zekânın insan zihni üzerindeki etkisine ilişkin uyarıda bulundu.
Vandier, ❝Yapay zekâyı ne kadar çok kullanırsanız, beyninizi o kadar farklı kullanırsınız❞ ifadelerini kullanarak, bu sistemlerin mutlaka denetlenmesi gerektiğini vurguladı.
ARAŞTIRMALAR UYARIYOR
Son dönemde yayımlanan akademik çalışmalar, yapay zekânın askeri karar süreçlerinde yaratabileceği riskleri ortaya koyuyor:
Hava Kuvvetleri Araştırma Laboratuvarı çalışması: Yapay zekâ, düşünceyi tek tip hale getirerek alternatif analiz yöntemlerini zayıflatabiliyor
Wharton araştırması: Kullanıcılar, yanlış olduğunu bilseler bile yapay zekâ çıktısına güvenebiliyor
Princeton çalışması: Sohbet botları “yanıltıcı güven” oluşturarak kullanıcıları önyargılarına hapsedebiliyor
Uzmanlar bu durumu ❝bilişsel teslimiyet❞ olarak tanımlıyor.
ASKERİ KARAR ALMADA KRİTİK RİSK
Uzmanlara göre bu eğilim, özellikle askeri operasyonlarda ciddi sonuçlar doğurabilir.
Hedef tespiti ve analiz süreçlerinde hata riski artabilir
Komutanların bağımsız değerlendirme yeteneği zayıflayabilir
Yanlış veya manipüle edilmiş veriler sorgulanmadan kabul edilebilir
Bir eski üst düzey askeri yetkili, ❝Çatışmaların ilerleyen aşamalarında daha hızlı hedef üretme baskısı oluşur. Bu da yapay zekâya bağımlılığı artırır❞ değerlendirmesinde bulundu.
PENTAGON’DA DENETİM BOŞLUĞU
Habere göre Pentagon’un, yapay zekâ araçlarının kullanıcılar üzerindeki etkisini izlemeye yönelik kapsamlı bir mekanizma geliştirdiğine dair sınırlı veri bulunuyor.
Ayrıca:
Yapay zekâ modellerinin güvenilirliği konusunda belirsizlikler sürüyor
Askeri kullanıcıların bu sistemleri nasıl kullandığı tam olarak bilinmiyor
Teknoloji şirketlerinin sahadaki desteği sınırlı kalıyor
Pentagon’un bazı yapay zekâ araçlarını “tedarik zinciri riski” olarak değerlendirdiği ancak kullanımın tamamen sonlandırılmadığı ifade ediliyor.
STRATEJİK DÖNÜŞÜM VE YENİ TEHDİT
Uzmanlara göre yapay zekâ, modern savaşın doğasını değiştirirken yeni bir risk alanı oluşturuyor.
❝Asıl mesele otonom silahlar değil, insanın karar verme kapasitesinin aşınmasıdır❞ değerlendirmesi öne çıkıyor.
Bu durumun uzun vadede:
Askeri liderlik kalitesini etkileyebileceği
İstihbarat analizinde hataları artırabileceği
Komuta-kontrol süreçlerinde zafiyet oluşturabileceği
belirtiliyor.
DEĞERLENDİRME
Yapay zekânın askeri alanda sunduğu hız ve verim avantajına rağmen, insan faktörünün zayıflaması riski giderek daha fazla tartışılıyor.
Uzmanlar, yapay zekâ kullanımının:
Sıkı denetim mekanizmalarıyla desteklenmesi
İnsan karar vericinin merkezde tutulması
Eleştirel düşünme becerilerinin korunması
gerektiğini vurguluyor.
Kaynak: Defense One
https://www.defenseone.com/technology/2026/03/military-ai-troops-judgement/412390/?oref=d1-homepage-river
