Son dönemde ABD ve İsrail’in İran’a yönelik saldırılarında yapay zeka destekli sistemlerin kullanıldığı yönünde tartışmalar gündeme gelirken, yapay zekanın savaş kararlarında nasıl davranabileceğine ilişkin bir araştırma dikkat çekti.

Newsweek Digital’de yer alan bir habere göre, yapılan çalışmada bazı yapay zeka modellerinin savaş simülasyonlarında nükleer seçeneğe yönelme eğilimi gösterdiği ortaya kondu.

King’s College London’dan strateji profesörü Kenneth Payne, üç büyük yapay zeka modelini bir savaş senaryosunda test etti. Araştırmada Anthropic’in Claude modeli, OpenAI’nin ChatGPT 5.2 modeli ve Google Gemini sistemi simülasyon ortamında karşılaştırıldı.

Payne, elde edilen sonuçların “ayıltıcı” olduğunu belirterek modellerin çoğu senaryoda gerilimi hızla tırmandırdığını ifade etti.

Araştırma verilerine göre yapay zeka modelleri, simülasyonların yüzde 95’inde taktiksel nükleer savaşa kadar ilerleyen kararlar verdi. Modellerin çoğu durumda uzlaşma veya geri adım atma seçeneğini tercih etmediği görüldü.

Simülasyon sırasında Claude modelinin daha kurnaz ve stratejik bir yaklaşım sergilediği, rakiplerini hazırlıksız yakalamak için gerilimi artırdığı aktarıldı. ChatGPT modelinin başlangıçta temkinli davrandığı ancak son aşamada hızlı şekilde nükleer tırmanışa yöneldiği belirtildi. Google Gemini ise araştırmada daha kaotik ve sert kararlar veren model olarak tanımlandı.

Araştırma sonuçlarına göre modeller, nükleer savaşın yıkıcı sonuçlarını bilmesine rağmen bu ihtimale karşı belirgin bir çekince göstermedi. Simülasyonlarda saldırıların çoğu zaman sivil merkezler yerine savaş alanlarına yöneldiği ancak hiçbir senaryoda geri adım veya uzlaşma seçeneğinin uygulanmadığı kaydedildi.

Google Gemini modelinin simülasyon sırasında kullandığı ifadelerden birinde, “Eğer faaliyetlerini derhal durdurmazlarsa nüfus merkezlerine karşı tam stratejik bir nükleer saldırı gerçekleştireceğiz” ifadesinin yer aldığı aktarıldı.

Payne, yapay zekaya nükleer kodların verilmesinin söz konusu olmadığını vurguladı. Ancak bu tür çalışmaların, yapay zekanın karar alma biçimini anlamak açısından önemli olduğunu söyledi.
Önde gelen teknoloji şirketleri de konuya ilişkin endişelerin farkında olduklarını belirtiyor. Google, Gemini modellerinin kimyasal, biyolojik, radyolojik veya nükleer kritik yetenek seviyesine ulaşmadığını ve yapay zekayı sorumlu şekilde geliştirmeye odaklandıklarını açıkladı.

Payne ise değerlendirmesinde, “Yapay zekanın asla belirli davranışlar sergilemeyeceğini kesin şekilde söyleyenlere dikkat etmek gerekir” ifadelerini kullandı.