Site icon Düşünbil Portal

Yapay Zekâda Yanlılık

Paylaş

Yapay zekâda yanlılık derin öğrenme sürecinin birçok aşamasında ortaya çıkabiliyor; bilgisayar bilimindeki mevcut uygulamalar ise nedenini henüz saptayabilecek düzeyde değil.

Son birkaç ay içerisinde, yapay zekâ uygulamalarının büyük çoğunluğunun derin öğrenme olarak adlandırılan algoritma kategorilerinde nasıl temellendiğini ve bu derin öğrenme algoritmasının verilerdeki örüntüleri nasıl keşfedebildiğini belgelendirdik. İşe alım, güvenlik, satış ve ceza hukukunda zaten bulunabilen adaletsizliğin bu teknoloji sayesinde nasıl kalıcı bir hale getirilebileceğini inceleyerek, insan hayatı üzerindeki etkilerine de değinmiş olduk.

Bu yanlılığı gidermeyi istiyorsak eğer yalnızca varlığından haberdar olmakla yetinmemeli, çıkış noktasında işleyeduran mekaniği iyice anlamalıyız.

Yapay Zekâda Yanlılık Nasıl Ortaya Çıkıyor?

Yapay zekâda yanlılığı ele alırken genellikle kestirmeden giderek ön-yüklenen eğitme verilerini suçlar ve açıklamamızı kısa tutarız. Fakat durumun hakikatinde bizleri, çok daha fazla ayrıntı beklemektedir; zira bu yanlılık, derin öğrenme sürecinin birçok aşamasında olduğu kadar, eğitme verilerinin (1) toplanmasından çok daha önce de belirebiliyor. Şimdi incelememizin amacı doğrultusunda, derin öğrenme sürecinin üç temel aşamasını tartışalım.

Sorun lirleme aşaması. Bilgisayar bilimcilerin bir derin öğrenme modelini henüz oluştururken yaptıkları ilk şey, elde edeceği verileri önceden belirlemektir. Örneğin bir kredi kartı şirketi, bir müşterisinin kredi itibarını bu sistemi kullanarak öngörmek istiyor diyelim; fakat “kredi itibarı” modele bir anda yüklenemeyecek, epey belirsiz bir kavramdır. Şirket, müşterisinin kredi itibarını bu sistemle hesaplanabilir kılmak istiyorsa eğer, öncelikle kendi kâr marjını mı, yoksa geri ödenecek borç sayısını mı artırmak istediğine karar vermelidir. Böylece kredi itibarı kavramı, bu bağlamlar ışığında belirlenebilir olacaktır. Cornell Üniversitesi’nde asistan profesör olarak çalışane yapay öğrenmede alet üzerine uzmanlaşan Solon Barocas ise modellerin bu alanda, “tarafsızlık veya ayrımsama özellikleri haricinde, çeşitli ticarî sebeplerle vardıkları kanılar” yüzünden bir sorun oluşturabileceklerini söyler. Şayet bu algoritmalar, yüksek faizli kredi dağıtımını kâr artışı için etkili bir yöntem şeklinde keşfedecek olursa, gidişat ancak yağmacılıkla sonlanacaktır – şirketin amacıu değilse bile.

Veri derleme aşaması. Eğitme verilerinden kaynaklanan yanlılık şu iki ana nedenden dolayı ortaya çıkar: Toplanan verilerin gerçekleri temsil etmemesi, ya da yüklenen verilerin hâlihazırda önyargı barındırıyor olması. Bir derin öğrenme algoritmasına koyu tenlilerden aha çok açık tenlilerin yüz fotoğraflarının yüklenmesi ve yüz tanıma sisteminin böylece koyu tenli yüzleri algılamada kötü sonuçlar sunması ilk nedenden kaynaklanır. İşe alımlardaki yardımcı programının kadın adayları saf dışı bıraktığını fark eden Amazon’un durumu ise ikinci nedene örnek teşkil eder; zira bu program, erkeklerin kadınlardan daha çok tercih edildiği geçmiş zamanların verileriyle eğitilmişti.

Veri düzenleme aşaması. Nihayetinde algoritmaya, seçmesi istenilen niteliklerin öylendiği ve yanlılığın oluştuğu şamaya geldik. (Bu aşama Sorun elirleme aşamasıyla karıştırılmamalıdır. Burada bir modeli aynı niteliklerle eğiterek birbirinden farklı amaçlar ya da farklı niteliklerle eğitip tek bir amaç için kullanabilirsiniz.) Bahsettiğimiz bu “nitelikler”, söz konusu bir kredi itibarı modeli olduğunda müşterinin yaşı, geliri veya ödediği borç sayısı, Amazon’un işe alım programı olduğunda ise adayın cinsiyeti, eğitim seviyesi ve çalışma deneyimi olacaktır. İşte, çoğunun derin öğrenme “sanatı” dediği şey de budur: Modelinizin dikkate alacağı veya es geçeceği nitelikleri seçerek, doğru tahminde bulunma olasılığını etkili bir şekilde arttırmak. Fakat bunun modelde oluşan yanlılıktaki etkisini ölçmek, doğru tahminler üzerindeki etkisini açıklamak kadar kolay değildir.

Yanlılığı Onarmak Neden Güç?

Anlattıklarımızdan, bu sistemlerde görülen yanlılığı azaltmanın birtakım zorluklar içerdiğini fark etmişsinizdir. Şimdiki bölümde dikkatinizi en temel dört zorluğa çekeceğiz.

Bilinemeyen bilinmezler. Bir model henüz oluşturulma aşamasındayken, ileride bir yanlılık gösterip göstermeyeceği öngörülemezdir. Nitekim verileriniz ve seçeneklerinizin akıştaki etkisinin ne olacağını önceden tahmin edemezsiniz. Zaten çalışma tamamlandıktan sonra geriye dönüp yanlılığın nereden geldiğini saptayarak çözüm bulmak da kolay değildir. Örneğin Amazon’daki mühendisler yaşanan sorunu fark ettiklerinde sistemi, “kadınların” gibi cinsiyet belirten kelimeleri dikkate almayacağı bir şekilde yeniden programlarlar. Fakat kısa zaman sonra, gözden geçirilmiş bu sistemin de erkeklerle dolaylı bir şekilde daha ilişkili olan “infaz edilmiş” ve “yakalanmış” gibi fiil kalıplarını kullanmaya başladığını ve seçimlerini yine bunlara göre yaptığını keşfederler.

Kusurlu uygulamalar. Derin öğrenmedeki çoğu mevcut uygulama sistem hafızasındaki yanlılığı teşhis edebilecek şekilde tasarlanmamıştır. Bu derin öğrenme modelleri devreye alınmadan önce performans testlerine tabi tutulurlar ve bu testler sayesinde yanlılığı saptamak için muhteşem bir fırsat yaratılmış olur. Ancak testler şöyle çalışır: Bilgisayar bilimciler, eğitme başlamadan önce, daha evvel eğitme için kullanılan verilerle, doğrulama için kullanılan verileri rastgele bir şekilde gruplara ayırırlar. Ancak bu, performans testi ile modeli eğitmede kullandığınız verilerin benzer yanlılıklar barındırmasına yol açar. Böylece model, verilerdeki çarpık ve önyargılı sonuçları saptamakta başarısız olur.

Sosyal bağlam eksikliği. Yine benzer şekilde, bilgisayar bilimcilerin modellere sosyal sorunları dikkate almaları için verdiği eğitimler de yeterli değildir. Toplum ve Veri Araştırmaları Enstitüsü’nde doktora sonrası eğitimi gören Andrew Selbst bir gazetede bununla ilgili olarak, “taşınabilirlik tuzağı” dediği bir kavrama değinir. Ona göre: “Kurulumu Utah’da tamamlanan bir sistemi Kentucky’ye getirip, üzerinde hemen hiçbir işlem yapmadan uygulamaya geçiremezsiniz, zira her topluluğun adalet anlayışı farklıdır. Bir sistemi hem ceza hükümlerindeki ‘adalet’ hem de işe alımlardaki ‘adalet’ kavramı için modelleyemezsiniz, zira bu durumlarda adalet kavramını birbirinden tamamıyla farklı iki anlama bürürüz.” Ayrıca bilgisayar biliminde, birbirinden farklı durum ve amaçlarda kullanılabilecek bir sistem dizayn etmek de iyi bir yöntem olarak görülür. Selbst bunun hakkında da “Fakat bu sistem, çoğu sosyal durumu dikkate alamayacaktır” eleştirisinde bulunur.

Adaletin tanımları. Yanlılık yokluğunun ancak nasıl olması gerektiği de belirli değildir. Bu yalnızca bilgisayar bilimiyle alakalı olmayan; felsefeyi, sosyal bilimleri ve hukuku da uzun süredir meşgul eden bir sorudur. Fakat bilgisayar bilimini diğerlerinden ayıran şey, adalet kavramının bu alanda matematiksel terimlerle tanımlanıyor olmasıdır –tıpkı ir öngörü sisteminin yalancı pozitiflik ve negatiflik oranlarının dengelenmesindeki gibi. Ancak araştırmacıların keşfettiğine göre adaletin, matematiksel açıdan birbirini dışlayan birçok tanımı vardır. Örneğin adaleti, yüksek-risk değerlendirme puanlarının siyah ve beyaz kişilere eşit sayıda verilmesi mi sağlar; yoksa bu puanları ırklara bakmaksızın dağıtıyor olmak mı? Görüldüğü üzere, bu iki tanımı aynı anda ölçüt almanız imkânsızdır; birinde karar kılmaktan başka seçeneğiniz yoktur. Genelde vereceğiniz bu kararın zamanla değişiklik gösterebileceği düşünülse de bilgisayar bilimi çalışma alanları bunun belirli bir netliğe kavuşması gerektiğini savunmakta. Selbst ise bu konuyla ilgili olarak şöyle diyor: “Böylesi netleştirmelerle, toplumun çıkarsayabileceğinden farklı bir sorunu çözmüş olursunuz.”

Gelecekte Bizi Ne Bekliyor?

Yıldırım hızında tamamlamış olduğumuz Yapay Zekâda Yanlılık Turu’ndan başı dönenler; şu an ben de sizlerle aynı durumdayım. Fakat şanslıyız ki oldukça yetenekli bir yapay zekâ araştırma ekibi, sorunun çözümünü amaya dur durak bilmeden devam ediyor. Ekip, eğitme verilerindeki gizli yanlılıkları saptayan veya azaltan algoritmalara ya da veri çeşidi ne olursa olsun model tarafından öğrenilmiş yanlılıkları eksilten algoritmalara ulaşabilmenin, şirketlerin daha adil yargılarda bulunmasını sağlayacak bir yöntem geliştirebilmenin ve adaletin tanım farklılıklarının üstesinden gelebilecek çalışmaların üzerine yoğunlaşıyor.

Son olarak Selbst’e kulak verelim: “Algoritmik sistemlerde beliren ayrımcılığı ‘onarmak’ kolay bir iş değildir. Toplumda görülen türlü ayrımcılıklar gibi bu durum da ancak zamanın akışı içerisinde çözülebilir”.

Dipnot:

(1) Algoritmaya bir şeyler öğretmek amacıyla sunulan gözlemler dizisi. (ç.n.)

©® Düşünbil (2021)

 Yazar: Karen Hao
Çeviren: Hüseyin İstanbullu
Çeviri Editörü: Onur Demir
Kaynak: technologyreview.com


Paylaş
Exit mobile version