Facebook Genel Merkezi Giriş Tabelası
Facebook Genel Merkezi

Facebook, 3000 Yeni İçerik Denetleyicisi İşe Alıyor

 

Facebook Genel Merkezi Giriş Tabelası

Facebook Genel Merkezi

Bu ayın başında Mark Zuckerberg, kullanıcıların rapor ettiği resimleri, videoları ve gönderileri inceleyen Facebook’un topluluk operasyon ekibinde çalışmak üzere 3.000 kişiyi işe aldığını açıkladı. Bu yeni çalışanlar, mevcuttaki 4.500 çalışana katılarak gelecekte Robert Goodwin’in vurulması gibi olaylara erişimi en aza indirgemek için çaba gösterecekler. Facebook için önemli olduğu kadar gerekli de bir yatırım. Ancak bizi temel bir soruya götürüyor: Bu iş otomatik olamaz mı?

Bu çok büyük bir iş gücü gerektiriyor: Facebook, New York Times’in, Wall Street Journal’in ve Washington Post’un haber merkezlerinde çalışanların toplamından çok daha fazla insanı işe alıyor. Facebook şu ana kadar çalışanların kadrolu mu yoksa taşeron mu olacağını ve Birleşik Devletler’de mi yoksa yurt dışında mı istihdam edileceği konusunda bir bilgi vermedi. (Bu işin neye benzediğini mi merak ediyorsunuz? Adrien Chen’in 2014’ten itibaren yazdığı içerik denetimi hakkındaki yazılarını okuyabilir veya moderasyon süreci hakkındaki bu videoyu izleyebilirsiniz.)

Facebook CEO’su Zuckerberg, “Bu denetleyiciler, nefret söylemi ve çocuk istismarı gibi Facebook’ta izin vermediğimiz şeyleri kaldırmamıza da yardımcı olacaklardır” dedi. “Ayrıca kendisine zarar vermek üzere olan ya da başı belada olan birinin yardıma ihtiyacı olması durumunda yardım edebilecek en iyi konumda olan yerel topluluklar ve kolluk kuvvetleri ile çalışmaya devam edeceğiz.”

Bu işin kırılma noktası 16 Nisan’da Cleveland’da gerçekleşen Robert Goodwin’in öldürülmesi olayıdır. Facebook zaman tüneline göre 16 Nisan’da saat 14.09’da bir adam cinayet işleyeceğini belirten bir video yükledi. İki dakika sonra da Goodwin’i vurduğu videosunu yükledi. Bundan kısa süre sonra cinayet şüphelisi beş dakika boyunca Facebook’ta canlı yayın yaptı. Cinayet videosu saat 16.00’da uygunsuz olarak bildirildi. Saat 16.22’de Facebook, katilin hesabını askıya aldı ve videolarını kaldırdı. Olayın ilk yayınlanmasından hesabının askıya alınması arasında iki saatten biraz fazla zaman geçti ancak Facebook’un her yere ulaşması ve cinayetin korkunç niteliği olayın ulusal haberlere konu olmasına yetti.

Bazı içerikler, yüklenir yüklenmez Facebook tarafından sansürlenir. Şirketin kullandığı otomatik sistemler, çıplaklık ve pornografi içerdiklerinden dolayı daha önce silinmiş fotoğrafları ikinci defa yüklendiklerinde tespit edebiliyor.  Sosyal paylaşım ağı ayrıca, kendi veri tabanında yer alan çocuk istismarı fotoğraflarının bilinen işaretlerine çapraz referanslar vererek uygunsuz fotoğrafları bulup engelleyen ve yasal makamlara bildirilebilen bir araç olan PhotoDNA’yı kullanıyor. Her iki durumda da otomasyon sistemleri, önceden bilinen değerleri referans alarak denetliyor.

Süreçteki otomasyonun çoğu, denetleyicilerin uygulamalarına yardımcı olur. Eğer bir içerik 1000 kez bildirilmişse, bu araçlar yinelenen bildirimleri tanır ve böylece bu içeriğin sadece bir kez incelenmesini sağlar. Diğer araçlar, resimleri, postaları veya videoları, konusunda uzman denetleyicilere yönlendirir; Örneğin, Arapça konuşan birisi, Facebook’un hizmet şartlarını ihlal edebilecek Suriye’deki radikal bir grubun işaretlenmiş bir içeriğini denetleyebilir.

Günü yöneten içeriği anlamak insani yargı yeteneği gerektiriyor. Bir yorumun nefret uyandıran veya tehdit içerikli olup olmadığını belirlemek için Facebook, gerçek insanlara güvenmekte. Facebook Live içerisinde canlı yayın raporlarını izleyen bir ekip yer alıyor. Ekip, belirli bir popülerlik eşiğine ulaşan canlı videoları otomatik olarak izliyor.

Facebook’un yapay zekaya (YZ) daha aktif bir rol verdiği bir alan var. Mart ayında sosyal ağ, intihar düşüncelerini barındıran mesajları tanımlayabilen bir intihar önleyici YZ aracını başlattı. BuzzFeed’e göre YZ, benzer sonuçları olan önceki durumları referans alarak mevcut yayınları ve yorumları tarayabiliyor. Nadiren de olsa denetleyicileri doğrudan uyarabiliyor, ancak çoğunlukla kullanıcılara bir yardım hattı numarası gibi intihar önleme araçlarına yönlendiriyor. Buna ek olarak YZ, kişinin kendine açıkça zarar vereceğini anladığında arkadaşlarının bildirebilmesi için bir düğme oluşturuyor. Böylece video rapor edilerek olası bir durum Facebook denetleyicilerine bildirilmiş oluyor.

Denetleyici sistemine en yakın alternatif, muhtemelen önleyici sansürdür.

“Daha fazla sansürlenmiş bir Facebook mu istiyoruz?” diyor Yale’deki Bilgi Toplumu Projesi’nde yer alan Kate Klonick, “Aşırı sağlam bir sistem oluşturulursa birçok kelime yanlış yorumlanacak ve çok fazla sansür oluşacaktır.”

Klonick’in çalışmaları, çevrimiçi konuşmayı yöneten sistemler olan Facebook’a ve diğer platformlara odaklanıyor. Facebook’un gönderilen veya gönderilmiş olan içerikleri nasıl düzenleyeceği konusunda aktif tercihler yapması gerektiğini söyleyen Klonick, bunu bir konuşma probleminden doğruca bir teknik probleme çevirecek sihirli bir algoritma olmadığını da ekliyor.

“Henüz bu karmaşık karar verme problemlerini çözebilecek YZ teknolojisinden uzağız. ” diyor Klonick. “Bu, sadece fotoğraf tanıma işi olmayıp aynı zamanda sınıflandırma ve karar vermeyi de içeren, güvenilir bir şekilde çözülebilmesine henüz yakın olamadığımız bilişsel bir problemdir.”

Fotoğraf tanıma, bilgisayar programcıları arasında simgesel bir hale gelmiştir. 1966’da MIT’den Seymour Papert, basit bir yaz projesi olacağını düşündüğü bir çalışma öne sürdü; Bir bilgisayarın nesneleri tanımasını sağlamak. Projenin 1966 yazında bitmesi bir yana günümüzde Google ve Facebook gibi firmalar, saatler ve paralar harcayarak bu simgesel problemin çözümü için hala uğraşıyorlar.

“Yakın gelecekte, bu bir YZ sorunu ya da bir YZ çözümü olmayacak.” diyor Klonick.

Yazan: Kelsey D. Atherton

Bunları da okumak isteyebilirsiniz...

Bir cevap yazın

Abonelikle İlgili Konular İçin abone@doganburda.com

Eksik Sayılar İçin okurhizmetleri@doganburda.com

Müşteri Hizmetleri (212) 478 0 300

Danışma Hattı (212) 410 32 00

 

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir