TIME mecmuasının yaptığı araştırmalar, yapay zeka yaratıcısı olan OpenAI’ın rahatsız edici kimi hareketlerini yakaladı. Biz de bu yazımızda yapay zeka geliştirme işinin daha az bilinen kısmından bahsediyoruz.
Kaynak: https://time.com/6247678/openai-chatg…
ChatGPT, geçtiğimiz Kasım ayında piyasaya sürüldüğünde 2022’nin en etkileyici teknolojik yeniliklerinden biri olarak lanse edildi.

Güçlü yapay zeka (AI) sohbet robotu, Megan Thee Stallion stilinde tekrar tasarlanmış bir Shakespeare sonesinden, 5 yaşındaki bir çocuğun anlayabileceği lisanda açıklanan karmaşık matematik teoremlerine kadar çabucak hemen her konu/tema hakkında metin üretebiliyor. Bu yüzden uygulama bir hafta içinde bir milyondan fazla kullanıcıya ulaştı.
ChatGPT’nin yaratıcısı OpenAI’ın, Microsoft şirketinden 10 milyar dolarlık ek bir yatırım alacağı da gündemde.

Bu, muhteşem akıllı makineler oluşturmak maksadıyla 2015 yılında San Francisco’da kurulan OpenAI’yi dünyanın en kıymetli yapay zeka şirketlerinden biri yapacak. Lakin bu muvaffakiyet hikayesi, sadece Silikon Vadisi dehalarının kıssası değil. Bir TIME araştırmasına nazaran OpenAI, ChatGPT’yi daha az toksik hale getirme arayışında, saatte 2 dolardan az kazanan dış kaynaklı Kenyalı personelleri kullandı.
Bu çalışma, OpenAI için hayati değer taşıyordu.

ChatGPT’nin selefi GPT-3, cümleleri bir ortaya getirmek için etkileyici bir marifet göstermişti. Lakin uygulama birebir vakitte şiddetli, cinsiyetçi ve ırkçı kelamlar söylemeye eğilimli olduğundan satışı zordu. Bunun nedeni, yapay zekanın internetten kazınmış yüz milyarlarca sözle – geniş bir insan lisanı deposuyla – eğitilmiş olması. Bu devasa eğitim bilgi seti, GPT-3’ün etkileyici lisan maharetlerinin nedeniydi lakin tıpkı vakitte tahminen de en büyük lanetiydi. İnternetin kimi kısımları toksik olduğundan, eğitim verisinin bu kısımlarını temizlemenin kolay bir yolu yoktu. Yüzlerce beşerden oluşan bir takımın bile devasa data kümesini manuel olarak taraması onlarca yıl alırdı. OpenAI, sırf yapay zeka dayanaklı ek bir güvenlik sistemi oluşturarak bu ziyanı dizginleyebilir ve günlük kullanıma uygun bir sohbet robotu üretebilirdi.
Bu güvenlik sistemini oluşturmak için OpenAI, Facebook üzere toplumsal medya şirketlerinin oyun kitabından yararlandı.

Yapılacak şey kolaydı: Bir yapay zekayı etiketli şiddet, nefret söylemi ve cinsel taciz örnekleriyle besleyin ve bu araç, salınacağı yerde bu cins toksisiteleri tespit etmeyi öğrenebilir. Bu yardımcı dedektör, eğitim datalarının toksisitesini yansıtıp yansıtmadığını denetim etmek ve kullanıcıya ulaşmadan evvel filtrelemek için ChatGPT’ye yerleştirilebilir. Ayrıyeten, gelecekteki yapay zeka modellerinin eğitim bilgi kümelerinden zehirli metinlerin temizlenmesine de yardımcı olabilir.
OpenAI, bu etiketleri almak için Kasım 2021’den itibaren Kenya’daki bir dış kaynak firmasına on binlerce metin parçacığı gönderdi.

Bu metinlerin birden fazla internetin en karanlık köşelerinden çekilmiş şeylerdi. Kimileri çocuklara yönelik cinsel istismar, hayvanlarla cinsel bağ, cinayet, intihar, azap, kendine ziyan verme ve ensest üzere durumları grafik detaylarla tanımlıyordu. OpenAI’nin Kenya’daki dış kaynak kullanım ortağı, Google, Meta ve Microsoft üzere Silikon Vadisi müşterilerinin datalarını etiketlemek için Kenya, Uganda ve Hindistan’da personel çalıştıran San Francisco merkezli bir şirket olan Sama idi. Sama kendisini ‘etik bir yapay zeka’ şirketi olarak pazarlıyor ve 50 binden fazla insanı yoksulluktan kurtarmaya yardımcı olduğunu sav ediyor.
Time; OpenAI ismine Sama tarafından istihdam edilen data etiketleyicilere, kıdeme ve performansa bağlı olarak saatte 1,32 ila 2 ABD Doları ortasında bir fiyat ödediğini argüman ediyor.

Bu öykü için TIME, personel maaş bordroları da dahil olmak üzere yüzlerce sayfalık dahili Sama ve OpenAI evraklarını inceledi ve projede çalışan dört Sama çalışanıyla röportaj yaptı. Tüm çalışanlar, geçim kaynakları telaşı nedeniyle isimlerini saklı tutmak kaydıyla konuştu. ChatGPT’yi mümkün kılan emekçilerin kıssası, yapay zeka sanayisinin bu az bilinen kısmındaki şartlara bir bakış sunuyor fakat tekrar de yapay zeka sistemlerini kamu tüketimi için inançlı hale getirme gayretinde kıymetli bir rol oynuyor. OpenAI’nin ilişkin olduğu yapay zeka kuruluşlarının bir koalisyonu olan Partnership on AI, ‘Bu bilgi zenginleştirme uzmanlarının oynadığı temel role karşın, giderek artan sayıda araştırma bu çalışanların karşı karşıya kaldığı garantisiz çalışma şartlarını ortaya koyuyor’ diyor.
Bir OpenAI sözcüsü yaptığı açıklamada, Kenya’daki Sama çalışanlarının, ChatGPT’ye dahil edilen zehirli içeriği tespit etmek için geliştirilen bir araca katkıda bulunduğunu doğruladı.

Açıklamada ayrıyeten, bu çalışmanın ChatGPT üzere araçların eğitim data setlerinden toksik dataları kaldırma eforlarına katkıda bulunduğu belirtildi. Sözcü, ‘Misyonumuz, yapay zekanın tüm insanlığa yarar sağlaması. Bunun için ziyanlı içeriği sınırlayan inançlı ve kullanışlı yapay zeka sistemleri oluşturmak istiyoruz. Ziyanlı [metin ve resimleri] sınıflandırmak ve filtrelemek, eğitim bilgilerinde yer alan şiddet içeren içerik ölçüsünü en aza indirmek ve ziyanlı içeriği tespit edebilecek araçlar oluşturmak için gerekli bir adım’ diyor.
Siz bu bahis hakkında ne düşünüyorsunuz? Yorumlarda buluşalım!