ABD merkezli yapay zeka şirketi OpenAI, geliştirdiği ChatGPT ve gelecek nesil modelleri hakkında dikkat çeken bir açıklama yaptı. ChatGPT tam olarak güvenli olmayabilir. Neden mi? Açıklamalar haberimizin detaylarında..
Yeni Nesil Modeller Biyomedikal Araştırmalarda Çığır Açabilir
OpenAI, yayımladığı blog yazısında, gelişmiş yapay zeka modellerinin biyomedikal araştırma ve biyolojik savunma gibi alanlarda önemli katkılar sağlayabileceğini belirtti. Ancak bu ilerlemenin, zararlı bilgilere erişimi engelleme ile bilimsel gelişmeyi destekleme arasında hassas bir denge gerektirdiği vurgulandı.
Güvenlik Sorumlusu Uyardı: Amatörler Bile Biyolojik Silah Üretebilir
OpenAI Güvenlik Sorumlusu Johannes Heidecke, Axios’a yaptığı açıklamada, gelecek yapay zeka modellerinin kendi başlarına yeni biyolojik tehditler oluşturamayacağını ancak bilgi sağlama yoluyla biyolojik silah üretimi için rehber olabileceğini söyledi. Heidecke, “Daha önce var olmamış, tamamen bilinmeyen biyolojik tehditlerin yaratıldığı bir dünyada değiliz. Şu an için bildiklerimiz bile yeterince tehlikeli” dedi.
OpenAI: Önleyici Güvenlik Tedbirleri Alınacak
Şirket, yeni nesil modellerin tam anlamıyla hazır olmadığını ifade ederken, “o3 akıl yürütme modeli” adını verdikleri serinin gelecek versiyonlarının bu seviyeye ulaşabileceğini belirtti. Yayınlanan blog yazısında ise, biyolojik tehditlere karşı önleme odaklı bir yaklaşımın benimsendiği vurgulandı:
“Yeterli düzeyde güvenlik önlemlerine karar vermeden önce bir biyolojik tehdit olayının gerçekleşip gerçekleşmeyeceğini beklemek doğru değil.”
Yüzde 99 Performans Yetersiz
Heidecke, kötü niyetli kullanımları engellemek için modellerin mükemmele yakın bir şekilde programlanması gerektiğini söyledi. Ona göre, yüzde 99’luk bir performans bile bu konuda yeterli değil:
“Zararın gerçekleşmesini önlemek için mutlak düzeye yakın bir koruma sağlamamız gerekiyor.”
Biyolojik Silah Endişesi
OpenAI’nin bu açıklamaları, yapay zekanın etik kullanımı ve güvenlik önlemleri konusundaki tartışmaları bir kez daha gündeme taşıdı. Uzmanlar, biyomedikal ilerlemeler için geliştirilen yapay zekaların kötü aktörlerce istismar edilmemesi için daha katı düzenlemelerin gerekli olduğu konusunda hemfikir.