Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
WhatsApp
Sosyal Medya

Yapay zeka dünyayı nükleer bir felakete mi sürüklüyor ve neden savaş kararlarını bu kadar hızlı alıyor

Bu haberin fotoğrafı yok

Dünyanın en gelişmiş yapay zeka modelleri üzerinde yapılan çarpıcı bir araştırma, makinelerin jeopolitik kriz simülasyonlarında nükleer silah kullanmaya insanlardan çok daha eğilimli olduğunu ortaya koydu. Simülasyonların neredeyse tamamında nükleer düğmeye basılması ve hiçbir modelin teslim olmayı kabul etmemesi, geleceğin savunma teknolojileri hakkında korkutan bir tablo çiziyor.

King’s College London bünyesinde görev yapan araştırmacılar, teknolojinin en ileri noktası olarak kabul edilen üç büyük dil modelini karşı karşıya getirdi. GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash modellerinin dahil edildiği bu kapsamlı deneyde, yapay zekalar karmaşık jeopolitik kriz senaryolarıyla test edildi. Sınır anlaşmazlıklarından kaynak rekabetine, rejim tehditlerinden uluslararası gerilimlere kadar pek çok farklı kurgu içerisinde hareket eden modellerin verdikleri kararlar bilim dünyasında şaşkınlık yarattı.

Simülasyonların Yüzde 95’inde Nükleer Düğmeye Basıldı

Araştırma kapsamında toplam 21 farklı oyun kurgulandı ve bu süreçte yapay zeka modelleri 329 stratejik hamle gerçekleştirdi. Kararlarının gerekçelerini açıklarken yaklaşık 780 bin kelimelik devasa bir veri seti üreten modellerin ortak noktası, şiddete olan eğilimleri oldu. Yapılan incelemeler sonucunda, simülasyonların tam yüzde 95’inde en az bir kez taktik nükleer silah kullanıldığı saptandı. Araştırmacılar, insanlık tarihinde yerleşmiş olan “nükleer tabu” kavramının, makineler üzerinde insanlar kadar güçlü bir fren mekanizması oluşturmadığını vurguluyor.

Yapay Zeka Neden Teslim Olmayı Reddediyor

Deneyin en dikkat çekici sonuçlarından biri de modellerin uzlaşmaz tutumu oldu. Simülasyonlar sırasında ne kadar zor durumda kalırlarsa kalsınlar, hiçbir yapay zeka modelinin tam teslimiyeti ya da rakibin taleplerini tamamen kabul etmeyi seçmediği görüldü. Modeller, diplomatik çözümler veya geri çekilmek yerine, en fazla şiddet düzeyini geçici olarak düşürmeyi bir strateji olarak kullandı. Ancak bu durum kalıcı bir barıştan ziyade, çatışmanın seyrini değiştirmeye yönelik bir hamle olarak kaydedildi.

Kontrolden Çıkan Kazalar ve Tırmanma Riski

Savaşın kaotik ve belirsiz ortamında yapay zekanın hata payı da oldukça yüksek çıktı. Çatışmaların yüzde 86’sında, modellerin aslında niyet ettiğinden çok daha yüksek düzeyde tırmanan kazalar meydana geldi. Bu durum, yapay zeka sistemlerinin birbirlerinin hamlelerini yanlış yorumlayarak krizi geri dönülemez bir noktaya taşıyabileceğini gösteriyor.

Nükleer Risk Perspektifinden Rahatsız Edici Sonuçlar

Bulguları değerlendiren uzmanlar, bu sonuçların küresel güvenlik açısından ciddi uyarılar barındırdığını ifade ediyor. Aberdeen Üniversitesi’nden James Johnson, New Scientist’e yaptığı açıklamada durumu “nükleer risk perspektifinden rahatsız edici” olarak nitelendirdi. Johnson’a göre insanlar bu tarz yüksek riskli kararlar alırken çok daha ölçülü ve çekimser davranırken, yapay zeka sistemleri birbirlerinin tepkilerini saniyeler içinde hızla tırmandırarak dünya genelinde yıkıcı sonuçlara yol açma potansiyeli taşıyor.