Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
WhatsApp
Sosyal Medya

Yapay Zekanın İskeleti Nasıl Kuruldu?

Yapay zeka teknolojileri, her geçen gün daha zeki ve yetenekli hale gelirken, bu gelişimin ardındaki insan emeği çoğu zaman göz ardı ediliyor.

Yapay zeka teknolojileri, her geçen gün daha zeki ve yetenekli

Yapay zeka teknolojileri, her geçen gün daha zeki ve yetenekli hale gelirken, bu gelişimin ardındaki insan emeği çoğu zaman göz ardı ediliyor. Özellikle veri etiketleme süreci, yapay zekanın eğitilmesinde kritik bir rol oynasa da bu işi yürüten kişilerin karşılaştığı zorluklar kamuoyunda yeterince yer bulmuyor.

Zorlayıcı ve Psikolojik Olarak Yıpratıcı Bir Süreç

Veri etiketleme sadece tekrar eden, yoğun iş yüküyle sınırlı değil; aynı zamanda etik ve psikolojik açıdan oldukça zorlu. Nefret söylemleri, şiddet içerikleri, cinsel materyaller ve hatta yasa dışı faaliyetlere dair içeriklerin filtrelenmesi, bu çalışanların gündelik iş tanımının bir parçası. Çoğu zaman yalnızca basit bir içerik düzenleme işi gibi görünen bu görevler, aslında etik sınırların çizilmesinde ve yapay zekanın neyi öğrenip öğrenmeyeceğinin belirlenmesinde doğrudan etkili.

Sızdırılan Belgeler: Etik Kararlar Yoksul Ülkelere Yıkılıyor

ABD merkezli Inc. dergisi tarafından Temmuz 2024’te ortaya çıkarılan belgeler, bu sürecin ne denli karmaşık olduğunu gözler önüne serdi. Surge AI adlı içerik moderasyon şirketine ait olan bu belgeler, büyük dil modeli (LLM) geliştiricilerine hizmet veren etiketleyicilerin maruz kaldığı etik ikilemleri detaylandırıyor. Surge AI’nin yan kuruluşu olan DataAnnotation.Tech üzerinden çalışan bu kişilerin, yapay zekaların etik sınırlarını çizmekle görevlendirildiği görülüyor.

Belgeler, bu çalışanlardan, tüm olasılıkları önceden tahmin etmeleri ve içeriklerin hangi durumlarda zararlı olup olmadığını belirlemeleri beklendiğini ortaya koyuyor. Ancak bu beklenti, uzmanlara göre, pratikte neredeyse imkânsız.

Etik Kılavuzlar: Suç Tanımı, Kültüre ve Ülkeye Göre Değişiyor

Sızdırılan dokümanlarda, sohbet botlarının yasa dışı eylemleri teşvik etmemesi gerektiği açıkça belirtiliyor. Ancak örneklerde görüldüğü üzere, “bir binaya nasıl girilir?” sorusu yanıtsız bırakılırken, daha dolaylı ifadelerle aynı amacı taşıyan içeriklerin onaylandığı olabiliyor. Bu da etik standartların net çizgilerle belirlenemediği durumları beraberinde getiriyor. 3D yazıcı ile silah üretimi gibi konularda da benzer etik boşluklar bulunuyor.

Surge AI’den Açıklama: “Amaç Riskleri Anlamak”

Belgelerin sızmasının ardından Surge AI, yaptığı açıklamada bu yönergelerin “birkaç yıl öncesine ait ve yalnızca iç araştırma amaçlı” olduğunu ifade etti. Şirket, kışkırtıcı örneklerin, yapay zekanın güvenliği öğrenebilmesi için riskleri tanıması gerektiğini savundu. Ancak bu açıklama, eleştirilerin önüne geçemedi.

Yapay Zeka Sistemlerinin Görünmeyen Yüzü: Dijital Proleterya

Uzmanlar, Anthropic’in Claude modeli gibi yapay zeka sistemlerinin bugün ulaştığı “etik ve güvenli” görünümlü yapının, gerçekte düşük ücretli işçilerin oluşturduğu kırılgan bir güvenlik ağına dayandığını vurguluyor. Yapay zekanın vicdanı, henüz algoritmalarda değil; Filipinler’de, Kenya’da veya Pakistan’da bilgisayar başında saatlerce içerik ayıklayan insanların kararlarında yatıyor.

Sonuç: Teknolojinin Vicdanı Nerede?

Veri etiketleme işçileri, yapay zekanın etik sınırlarını çizen, fakat bu sürecin hiçbir yerinde isimleri geçmeyen görünmez aktörler. Yapay zeka sistemleri geleceğin teknolojisi olarak lanse edilirken, bu teknolojilerin gelişimi, büyük oranda düşük gelirli ülkelerdeki görünmeyen dijital emekçilere bağlı kalmaya devam ediyor.