Facebook geçtiğimiz haftalarda, üç ayda bir yayımlanan Topluluk Standartları Uygulama Raporu’nu yayınladı. Bu raporda, politikalarını ihlal eden içeriğin kaldırılması için alınan önlemlerin yanı sıra, bu içeriğin ne kadarının kullanıcılar tarafından Facebook’un dikkatine sunulmasından önce tespit edilip kaldırıldığını bildirdi. Bu ikinci kategori, büyük ölçüde makine öğrenmesi yoluyla geliştirilen otomatik sistemlere dayanmakta.
Son yıllarda, bu AI araçları nefret söylemine odaklandı. Facebook CTO’su Mike Schroepfer’e göre, şirketin otomatik sistemleri 2020’nin üçüncü çeyreğinde, 2019’un üçüncü çeyreğine göre üç kat daha fazla nefret söylemi içeren gönderiyi belirledi ve kaldırdı. Bu iyileştirmenin bir kısmının, sürekli iyileştirmek için yalnızca çevrimdışı veri kümeleri yerine canlı, çevrimiçi verileri kullanan yeni bir makine öğrenmesi yaklaşımına gittiğini belirtti. Reinforced Integrity Optimizer için RIO etiketli teknoloji, platformda nefret söyleminin genel yaygınlığını izleyen bir sayıya bakıyor ve bu sayıyı aşağı itmeye çalışmak için algoritmalarını bunlara göre ayarlıyor.
2020 boyunca Facebook’un yanlış bilgiye yönelik politikaları giderek daha sıkı hale geldi, ancak çoğu kişi yeterince sıkı olmadığını söylüyor. Nisan ayında şirket, COVID-19 yanlış bilgilerine maruz kalan kullanıcıları doğrudan uyaracağını duyurdu. Eylül ayında, oylamayı bastıracak içeriği kaldırmaya yönelik çabaların arttığını ve sonuçlar kesinleşmeden önce seçim zafer iddialarını etiketleme planını duyurdu. Ekim ayında, Hunter Biden hakkında şüpheli bir hikayenin yayılmasını kısıtladı. Ve yıl boyunca yanlış bilgi olarak tanımlanan içeriğe, kullanıcı tıklayana kadar gönderiye erişimi engelleyen bir ekran da dahil olmak üzere giderek daha açık etiketler uyguladı. Facebook dürüstlük başkan yardımcısı Guy Rosen, kullanıcıların yalnızca yüzde beşinin bu ekstra adımı attığını bildirdi.
Eylül ayında, oylamayı bastıracak içeriği kaldırmaya yönelik çabaların arttığını ve sonuçlar kesinleşmeden önce seçim zafer iddialarını etiketleme planını duyurdu. Ekim ayında, Hunter Biden hakkında şüpheli bir hikayenin yayılmasını kısıtladı. Ve yıl boyunca yanlış bilgi olarak tanımlanan içeriğe, kullanıcı tıklayana kadar gönderiye erişimi engelleyen bir ekran da dahil olmak üzere giderek daha açık etiketler uyguladı. Facebook dürüstlük başkan yardımcısı Guy Rosen, kullanıcıların yalnızca yüzde beşinin bu ekstra adımı attığını bildirdi.
Schroepfer, Facebook’un bir gönderiyi otomatik olarak yakalamak istediğini söylüyor. Şirket bir blog gönderisinde yeni bir araç olan SimSearchNet ++’ın bu çabaya yardımcı olduğunu bildirdi. Kendi kendine denetlenen öğrenme yoluyla geliştirilen, bir görüntünün varyasyonlarını arayan ve metin söz konusu olduğunda optik karakter tanıma yöntemini kullanan bir araç.
Schroepfer ayrıca Facebook’un sahte tehditlere karşı koymak için kendi araçlarını kullandığını da bildirdi. Şirketin 2019’da başlattığı Deep Fake Challenge sayesinde, Facebook’un kullanımda olan derin bir sahte tehdit dedektörü var.
Konu hakkında daha detaylı bilgiye buradan ulaşabilirsiniz.