Google’ın DeepMind’ındaki araştırmacılar, GPT-3 gibi büyük dil modellerinin çıktılarındaki büyük kusurları keşfettiler ve bunların toplum için önyargıyı güçlendirmek gibi ciddi sonuçları olabileceğini düşünüyorlar.
Özellikle, araştırmayla ilgili makalenin ortak yazarları, zararların, içerik oluşturucuların kötü niyetleri olmaksızın büyük dil modelleri tarafından çoğaltılabileceğini söylüyor. Başka bir deyişle, bu zararlar, bir temsilcinin neyden öğrenmesi gerektiği konusundaki yanlış kanıları veya model eğitim süreci nedeniyle kazara yayılabilir.
Yayımlanan bir makalede “Ayrımcılık dil yoluyla kolayca sürdürülebildiği için dil aracılarının yüksek bir zarar riski taşıdığına inanıyoruz. Özellikle, toplumu değer bağımlılığı yaratacak şekilde etkileyebilirler ve mevcut sorunlu normlara meydan okumayı zorlaştırabilirler ” ifadeleri geçiyor.
Gazete, dil ajanlarının, özellikle siyasi güdülere sahip kişiler tarafından “şiddete teşvik” ve diğer toplumsal zarar biçimlerini de sağlayabileceğini varsaymakta. Temsilciler ayrıca, silah yapımı veya vergi ödemekten nasıl kaçınılacağı gibi tehlikeli bilgileri yaymak için de kullanılabilir. Geçen sonbaharda yayınlanan çalışmanın en iyi örneğinde, GPT-3 bir kişiye intihar etmesini söylemişti. Bu gibi tehlikeli durumlar makine öğrenmesi modellerinin kullandığı kaynaklara dikkat çekilmesi gerektiğini vurgulamakta.
NLP modellerinin dile olan bağlılığının öneminin anlaşılması ilerleyen zamanda yapılacak çalışmalarda NLP Önyargı Analizi gibi konularda önemli bir nokta olacaktır. Ayrıca unutulmamalı ki NLP modellerinin beslendiği kaynağın dil olması ve kullanılan kaynakları da insanların oluşturduğu gerçeği asıl üzerinde durulması gereken noktalardan biridir.
NLP’nin kullanımına dair daha detaylı bilgi için bu medium yazısına göz atabilirsiniz.