Google ve Oxford’dan araştırmacılar, uzun süredir tartışılan konu hakkında fikir birliğine vardılar. Yapay zeka insanlığın sonunu gerçekten de getirebilir! Detaylar yazımızda.
Yapay zekanın güçlenmesi ve hayatımıza her geçen gün daha da fazla dahil olmasıyla birlikte kafamızdaki sorular da giderek çoğalıyor. “Yapay zeka gerçekten insanlığın sonunu getirebilecek mi?”, “Yapay zekalı sistemler bir gün kontrolümüzden çıkacak mı?” gibi sorular tabi ki sadece bizlerin aklından geçmiyor. Araştırmacılar ve bilim insanları da bu konular hakkında sürekli düşünerek geleceğimizi şekillendirmeye çalışıyor.
İşte bu amaçla, Google‘ın Deepmind isimli yapay zeka şirketi ve Oxford araştırmacıları, yaptıkları çalışmalar sonucunda yapay zeka hakkında ortak bir karara vardılar. Araştırmacıların incelediği durumlara göre, yapay zekanın insanlığa tehdit oluşturmasının mümkün olabileceği açıklandı.
Michael Cohen, makalenin baş yazarı, makale hakkında yaptığı açıklamalarda “Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel” sözlerini kullanarak, yapay zeka hakkında beklentilerini dile getirmiş oldu.
“Pekiştirmeli öğrenme” ya da “ödül/ceza” yöntemi olarak bilinen, gelişim sürecindeki çocukların eğitiminde de uygulanan bazı metotlar, yapay zekaya uyarlandı. Yapay zekalı bir sistem bir çeşit “oyun”da, karşılaştığı etkenlere ve uyaranlara tepki vererek doğru cevabı seçmeye çalışıyor. Doğru cevabı seçtiği taktirde ise bir ödül kazanıyor. Tabi bu durum yapay zekanın belirlenen senaryolarda maksimum “ödül”ü elde etmeye çalışmasına sebep oluyor.
Zaman içerisinde yapay zeka her zaman daha da çok ödül kazanmak isteyeceğinden, bu yolda kendince yeni metotlar uydurmayı da tercih edebilir. Bu yeni metotlar zamanla hilelere evrilebilir ve hatta bir noktada yapay zeka insanlığın kendisine engel olduğuna karar verip buna göre hareket etmeye başlayabilir. Yani maksimum ödüle ulaşmaktan geçen yol “insanları yok et!” emri de olabilir.
Gelecekte böyle felaketlerin önüne geçebilmek adına yapay zekaların çok akıllıca tasarlanmaları ve kullanabilecekleri metotların itina ile sınırlandırılması gerekiyor. Tabi ki “insan ırkını yok etmek” çok ekstrem bir örnek ve büyük ihtimalle yakın gelecekte böyle bir felaketle karşılaşmayacağız. Peki ya yargıda görev alacak yapay zekalar suçsuzları hapse atmanın daha fazla “ödül” getireceğine karar verirse? Ya araçlardaki yapay zekalar trafik kazalarının çoğundan belli bir grup sürücünün sorumlu olduğuna karar verip onları daha az önemsemeye başlarsa? İşte böyle durumlar için bilim insanları yapay zeka hakkında sürekli düşünce deneyleri yapıyor ve sağlıklı sistemler elde etmeye çalışıyor.