Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Gazeteler Puan Durumu
WhatsApp
Sosyal Medya

Dijital Arkadaş ChatGPT’de Güven Korkusu

ABD merkezli yapay zeka şirketi OpenAI, geliştirdiği ChatGPT ve gelecek nesil modelleri hakkında dikkat çeken bir açıklama yaptı.

ABD merkezli yapay zeka şirketi OpenAI, geliştirdiği ChatGPT ve gelecek

ABD merkezli yapay zeka şirketi OpenAI, geliştirdiği ChatGPT ve gelecek nesil modelleri hakkında dikkat çeken bir açıklama yaptı. ChatGPT tam olarak güvenli olmayabilir. Neden mi? Açıklamalar haberimizin detaylarında..

Yeni Nesil Modeller Biyomedikal Araştırmalarda Çığır Açabilir

OpenAI, yayımladığı blog yazısında, gelişmiş yapay zeka modellerinin biyomedikal araştırma ve biyolojik savunma gibi alanlarda önemli katkılar sağlayabileceğini belirtti. Ancak bu ilerlemenin, zararlı bilgilere erişimi engelleme ile bilimsel gelişmeyi destekleme arasında hassas bir denge gerektirdiği vurgulandı.

Güvenlik Sorumlusu Uyardı: Amatörler Bile Biyolojik Silah Üretebilir

OpenAI Güvenlik Sorumlusu Johannes Heidecke, Axios’a yaptığı açıklamada, gelecek yapay zeka modellerinin kendi başlarına yeni biyolojik tehditler oluşturamayacağını ancak bilgi sağlama yoluyla biyolojik silah üretimi için rehber olabileceğini söyledi. Heidecke, “Daha önce var olmamış, tamamen bilinmeyen biyolojik tehditlerin yaratıldığı bir dünyada değiliz. Şu an için bildiklerimiz bile yeterince tehlikeli” dedi.

OpenAI: Önleyici Güvenlik Tedbirleri Alınacak

Şirket, yeni nesil modellerin tam anlamıyla hazır olmadığını ifade ederken, “o3 akıl yürütme modeli” adını verdikleri serinin gelecek versiyonlarının bu seviyeye ulaşabileceğini belirtti. Yayınlanan blog yazısında ise, biyolojik tehditlere karşı önleme odaklı bir yaklaşımın benimsendiği vurgulandı:

“Yeterli düzeyde güvenlik önlemlerine karar vermeden önce bir biyolojik tehdit olayının gerçekleşip gerçekleşmeyeceğini beklemek doğru değil.”

Yüzde 99 Performans Yetersiz

Heidecke, kötü niyetli kullanımları engellemek için modellerin mükemmele yakın bir şekilde programlanması gerektiğini söyledi. Ona göre, yüzde 99’luk bir performans bile bu konuda yeterli değil:

“Zararın gerçekleşmesini önlemek için mutlak düzeye yakın bir koruma sağlamamız gerekiyor.”

Biyolojik Silah Endişesi

OpenAI’nin bu açıklamaları, yapay zekanın etik kullanımı ve güvenlik önlemleri konusundaki tartışmaları bir kez daha gündeme taşıdı. Uzmanlar, biyomedikal ilerlemeler için geliştirilen yapay zekaların kötü aktörlerce istismar edilmemesi için daha katı düzenlemelerin gerekli olduğu konusunda hemfikir.