Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
WhatsApp
Sosyal Medya

Anthropic ve Pentagon arasında neler yaşanıyor? 100 milyon dolarlık drone yarışmasında katil robot krizi mi çıktı?

Yapay zeka dünyasının en büyük etik savunucularından biri olarak bilinen

Yapay zeka dünyasının en büyük etik savunucularından biri olarak bilinen Anthropic’in, Pentagon’un otonom drone sürüsü projesine gizlice başvurduğu ancak “katil robot” tartışmaları nedeniyle büyük bir krizin eşiğine gelindiği ortaya çıktı. ABD Savunma Bakanlığı’nın şirkete yönelik yasak kararı ve 100 milyon dolarlık yarışmanın perde arkasındaki detaylar, yapay zekanın savaş alanındaki geleceğine dair korkuları yeniden tetikledi.

Yapay Zeka Devinin Pentagon ile İmtihanı Nasıl Başladı?

Yapay zeka teknolojilerinin etik sınırları konusunda hassasiyetiyle tanınan Anthropic şirketinin, Pentagon’un sesle kontrol edilen otonom drone sürüsü teknolojileri geliştirmeyi hedefleyen devasa yarışmasına teklif sunduğu haberi teknoloji dünyasında bomba etkisi yarattı. Bloomberg tarafından paylaşılan bilgilere göre, 100 milyon dolar ödüllü bu yarışma, teknolojinin askeri alandaki sınırlarını zorlamayı hedeflerken, Anthropic ile ABD hükümeti arasında derin bir görüş ayrılığına yol açtı.

İsmini açıklamayan kaynaklar, Anthropic’in teklifini sunmasının ardından krizin derinleştiğini belirtiyor. ABD Savunma Bakanı Pete Hegseth’in, geçtiğimiz cuma günü Pentagon yüklenicilerine ve ortaklarına Anthropic ile herhangi bir ticari faaliyet yürütmeyi yasaklama talimatı verdiği öne sürüldü. Bu sert kararın arkasında, tarafların teknolojinin askeri kullanımındaki etik sınırlar konusunda uzlaşamaması yatıyor.

Katil Robot Tartışması Hangi Noktada Tıkandı?

Anlaşmazlığın merkezinde, insan müdahalesi olmadan hedef seçip ateş açabilen ve kamuoyunda “katil robotlar” olarak adlandırılan otonom silah sistemlerinde yapay zekanın oynayabileceği rol vardı. Anthropic yöneticileri, daha önce yaptıkları açıklamalarda yapay zekanın savaş alanında geniş kapsamlı ve yasal kullanımını desteklediklerini, ancak kitlesel iç gözetim ve tamamen otonom silah sistemlerini kırmızı çizgi olarak gördüklerini vurgulamıştı.

Kaynaklara göre şirket, geliştirilmesi planlanan teknolojinin bu sınırları aşmayacağını düşünüyordu. Olası bir ölümcül drone sürüsü ortaya çıksa bile sistemin insan operatörler tarafından izlenebileceği ve gerektiğinde durdurulabileceği değerlendiriliyordu. Ancak bu hassasiyet, Pentagon’un operasyonel beklentileriyle tam olarak örtüşmedi.

Claude Drone Sürülerini Nasıl Yönetecekti?

Anthropic’in Pentagon’a sunduğu teklifin detaylarında, şirketin popüler yapay zeka modeli Claude’un merkezi bir rol oynaması planlanıyordu. Kaynaklara göre teklif, Claude adlı yapay zeka aracının komutanların niyetini dijital komutlara dönüştürmesine ve çok sayıda drone’un koordinasyonunu sağlamasına odaklanıyordu. Yani yapay zeka, hedef seçimi veya silah kullanım kararlarını otonom biçimde -kendi kendine- vermeyecekti.

Şirket ayrıca insanların sistem üzerinde gözetim yetkisine sahip olmasını ve Pentagon ile birlikte otonom silahların güvenli geliştirilmesi ve test edilmesine yönelik ortak bir araştırma programı kurulmasını önerdi. Ancak bu “güvenli geliştirme” ısrarı, askeri operasyonların ihtiyaç duyduğu hız ve tam otonomi seviyesiyle çeliştiği için kabul görmemiş olabilir.

Beş Aşamalı Planın Detaylarında Neler Var?

Bloomberg’in daha önce aktardığına göre yarışma, yazılım geliştirme aşamasıyla başlayıp gerçek saha testlerine uzanan beş aşamalı bir araştırma-geliştirme programı olarak tasarlanmıştı. Pentagon’un ocak ayındaki duyurusunda drone’ların saldırı amaçlı kullanılacağına işaret edilirken, insan-makine etkileşiminin sistemlerin “öldürücülüğü ve etkinliği” üzerinde doğrudan etkili olacağı vurgulanmıştı.

İlk aşama yalnızca yazılım geliştirmeye odaklanacak. Amaç, hava ve deniz gibi farklı alanlarda faaliyet gösteren drone’ların sürü halinde koordineli hareket edebilmesini sağlayacak sistemler geliştirmek. İlerleyen aşamalarda hedef farkındalığı paylaşımı ve nihayetinde “fırlatmadan görev sonlandırmaya” kadar tüm operasyon sürecinin ele alınması planlanıyor. Anthropic ise bu süreçte seçilen şirketler arasında yer almadı