1. Yapay zeka hakkında eğitim ve farkındalık ile başlayın.
Yapay zekanın neler yapabileceği ve zorlukları hakkında insanlarla net bir şekilde iletişim kurun. Yapay zekayı yanlış nedenlerle kullanmak mümkündür, bu nedenle kuruluşların yapay zekayı kullanmak için doğru amaçları ve önceden tanımlanmış etik sınırlar içinde nasıl kalacaklarını bulması gerekir. Kuruluştaki herkesin yapay zekanın ne olduğunu, nasıl kullanılabileceğini ve etik zorluklarının neler olduğunu anlaması gerekiyor.
2. Şeffaf olun.
Her kuruluşun, yapay zekayı nasıl kullandıkları konusunda açık ve dürüst olması gerekir.
Royal Bank of Scotland, müşterilerine sağladıkları bazı hizmetleri geliştirmek için yapay zekayı kullanmak istedi. Girişimlerine başladıklarında, hangi verileri topladıkları, bu verilerin nasıl kullanıldığı ve müşterilerin bundan ne gibi faydalar elde ettiği konusunda müşterilerine karşı şeffaf ve açıktı (ve olmaya devam ediyor).
Sorunun büyük kısmı, Facebook’un yapay zekayı nasıl kullandıkları ve müşterilerinin verilerini nasıl toplayıp kullandıkları konusunda şeffaf olmaması gibi durumlardı. Net bir yapay zeka iletişim politikası, birçok sorunu daha ortaya çıkmadan çözebilirdi. Müşterilerin birlikte çalıştıkları şirketlere güvenmeleri gerekir ve bu da yapay zekanın şirketin genel stratejisine nasıl uyduğu ve müşterileri nasıl etkilediği konusunda tam şeffaflık gerektirir.
3. Önyargı kontrolü.
Kuruluşların mümkün olduğunca kullandıkları verilerin önyargılı olmadığından emin olmaları gerekir. Örneğin Google, ImageNet adında büyük bir yüz görüntüleri veritabanı oluşturdu. Veri kümeleri beyaz olmayan yüzlerden çok daha fazla beyaz yüz içeriyordu, bu yüzden yapay zekaları bu verileri kullanmak için eğittiklerinde beyaz yüzlerde beyaz olmayan yüzlerden daha iyi çalıştılar. Daha iyi veri kümeleri ve daha iyi algoritmalar oluşturmak, yalnızca yapay zekayı etik olarak kullanmak için bir fırsat değil, aynı zamanda dünyadaki bazı ırk ve cinsiyet önyargılarını daha büyük ölçekte ele almaya çalışmanın bir yoludur.
4. Açıklanabilir hale getirin.
Derin öğrenme gibi modern yapay zeka araçlarını kullandığımızda, insanların algoritmalarındaki karar verme süreçlerini gerçekten anlamadıkları “kara kutular” olabilirler.
Şirketler onlara veri sağlıyor, yapay zekalar bu verilerden öğreniyor ve sonra bir karar veriyorlar. Ancak, kimin sağlık hizmeti alıp kimin almayacağını veya kimin şartlı tahliyeye gitmesine izin verilmesi gerektiğini ve kimin almaması gerektiğini belirlemek için derin öğrenme algoritmaları kullanırsanız, bunlar bireysel yaşamlar için büyük etkileri olan çok büyük kararlardır. Yapay zekanın nasıl karar verdiğini tam olarak anlaması ve bu sistemleri açıklayabilmesi kuruluşlar için giderek daha önemli hale geliyor. Son zamanlarda açıklanabilir yapay zekaların geliştirilmesine yönelik birçok çalışma yapıldı. Artık en karmaşık derin öğrenme sistemlerini bile daha iyi açıklamanın yollarına sahibiz, bu nedenle algoritmalarınızda sürekli bir karışıklık veya gizem havası bulundurmak için hiçbir mazeret yok.
5. Kapsayıcı hale getirin.
Şu anda yapay zeka üzerinde çalışan çok fazla erkek, beyaz insan var. Geleceğin yapay zeka sistemlerini inşa eden insanların dünyamız kadar çeşitli olduğundan emin olmamız gerekiyor. Oluşturduğunuz yapay zekanın bir bütün olarak toplumumuzu gerçekten temsil ettiğinden emin olmak için daha fazla kadın ve renkli insan (POC) getirme konusunda bazı ilerlemeler var, ancak bunun çok daha ileri gitmesi gerekiyor.
6. Kurallara uyun.
Tabii ki, yapay zeka kullanımı söz konusu olduğunda, düzenlemelere bağlı kalmalıyız. Avrupa’da ve ABD’nin bazı bölgelerinde yapay zekanın artan düzenlemesini görüyoruz. Bununla birlikte, organizasyonların kendi kendini düzenlemesine dayanan hala birçok düzenlemeye tabi olmayan kısım var. Google ve Microsoft gibi şirketler, yapay zekayı iyilik için kullanmaya odaklanıyor ve Google’ın kendi tanımladığı yapay zeka ilkeleri var.