Sızdırılan belgeler, yapay zekanın aslında nasıl geliştirildiğini ortaya koydu

Yapay Zeka Gelişiminde İnsan Emeği Unutulmamalı!

Yapay zeka teknolojilerinin ilerlemesinde büyük önemi olan insan emeği, genellikle göz ardı edilmektedir. Özellikle yapay zeka algoritmalarını eğitmek için kullanılan veri etiketleme süreci, metin, ses ve video gibi içeriklerin insanlar tarafından elle işlenmesini içerir. Bu süreç genellikle düşük ücretle çalışan serbest çalışanlar tarafından, özellikle Filipinler, Pakistan, Kenya ve Hindistan gibi ülkelerde gerçekleştirilmektedir.

Veri etiketleyicileri, yoğun ve tekrarlayan işlerin yanı sıra nefret söylemleri, şiddet içeriği ve cinsel materyalleri ayıklama gibi zorlayıcı görevlerle karşı karşıyadır.

İç Yönergelerin Şaşırtıcı Detayları!

ABD merkezli Inc. dergisi tarafından dile getirilen bir belge, veri etiketleme firması Surge AI’nın içerik moderasyonuna dair yönergelerini gün yüzüne çıkardı. Belgede, birçok alanda etik kuralların tanımlandığı görülmektedir; tıbbi tavsiyelerden cinsel içeriklere, nefret söyleminden şiddete kadar geniş bir yelpazede.

Surge AI, büyük dil modelleri (LLM) geliştiricilerine doğrudan hizmet veren bir taşeron şirket olarak faaliyet göstermektedir. Şirketin yan kuruluşu DataAnnotation.Tech üzerinden istihdam edilen veri etiketleyicilerinin karşı karşıya kaldığı karmaşık etik kararlar, sızdırılan belgelerde açıkça görülmektedir.

Etiğin Yönü, Yoksul Ülkelerdeki Emekçilerle Şekilleniyor!

Belgeler, yapay zeka sistemlerinin etik sınırlarının genellikle yoksul bölgelerde çalışan insanların kararlarıyla belirlendiğini göstermektedir. Bu kişilerden neredeyse imkansız beklentilerde bulunulmaktadır; çünkü her türlü senaryoyu önceden tahmin etmeleri gerekmektedir.

Suç tanımının ülkelere göre değişkenlik göstermesi, etik konularda net sınırların belirlenmesini zorlaştırmaktadır. Örneğin, dolaylı içeriklere izin verilirken direkt soruların yanıtsız bırakılması gibi durumlar etik kararları zorlaştırmaktadır.

Surge AI’dan Açıklama Geldi!

Surge AI, belgelerin sızdırılmasının ardından yaptığı açıklamada, kılavuzun birkaç yıl öncesine ait olduğunu ve yalnızca iç araştırma amacıyla hazırlandığını belirtti. Şirket, güvenliği öğrenmek için modellerin riskleri tanıması gerektiğini belirtirken, uzmanlar yapay zeka sistemlerinin gerçekte düşük ücretle çalışan emekçilerin üzerine dayandığını vurgulamaktadır.

Related Posts

Elon Musk ‘Yeter artık’ dedi! Tesla’yı satılması için kampanyaya boğdu

Elon Musk’ın CEO’su olduğu Tesla, satış grafiğinin düşmesinin ardından yeni kampanyalarla piyasadi yerini yükseltmeyi hedefliyor. Bu doğrultuda şirket A’dan Z’ye birçok kampanya paylaştı.

Kalpleri donör vücudu olmadan ‘başlatmak’ için yeni yöntemler geliştirildi

Doktorlar hayatları kurtarmak için ölümün tanımını belirsizleştirmeye devam ediyor.

Kediler uyurken neden çoğunlukla sol tarafa yatıyor?

Kedi sahiplerinin dikkatini çekmiş olabilir: Kediniz uyurken hep aynı tarafa mı yatıyor? Yeni bir araştırma, kedilerin çoğunlukla sol yanlarına yatmayı tercih ettiklerini ve bunun basit bir alışkanlıktan ibaret olmayabileceğini öne sürüyor. Yapılan …

Hiç fark etmeden tüm galerileri kopyalanıyor: İnternetin yeni tehlikesi yayıldı

Siber güvenlik uzmanları, kullanıcıların farkında bile olmadan zararlı komutlar çalıştırmasına neden olan yeni bir saldırı yöntemine karşı uyarıyor. “FileFix” adı verilen bu teknik, kullanıcı alışkanlıklarını hedef alarak cihaza sızıyor ve hiçbir güvenlik açığı kullanmadan sistemleri ele geçirebiliyor.

46 yıl sonra üretimi durmuştu! Ford’un efsane modeli geri dönüyor

46 yıllık bir serüvenden sonra otomotiv devi Ford, 2023 yılında Fiesta modelinin üretimini durdurmuştu. Otomotiv devi kararını değiştirdi.

Temmuz ayının yarısını geçtik, iOS 26’nın halka açık ilk betası neden halen gelmedi?

Apple, önceki yıllarda temmuz ayının ilk yarısında yayımladığı açık beta sürümlerini bu yıl daha geç bir tarihe ertelemiş gibi görünyor. Gecikmenin ardında yeni tasarım dili ve kullanıcı geri bildirimleriyle şekillenen geliştirme süreci olduğu düşünülüyor.

vozolcenter.com