Yapay zeka ve saldırganlık hakkındaki gönderimi yazdığım sırada garip bir düşünce aklıma geldi. Yapay zeka etiğini tartıştığımızda genellikle yapay zeka sistemleri yaratmayı (programlama, geliştirme ve kullanma) tartışıyoruz. Ancak buna bakmanın başka bir yolu daha var. Bilişim hangi etiğe tabidir? Etik karar alma bilişimsel olabilir mi?

Asimov’un Robotik Yasaları’nın ilk prensiplerini temel alan yapay zekalar hakkında yazdığımda tam anlamıyla ciddi değildim. Bunun mümkün olduğundan cidden şüphe duyuyorum. Özellikle yapay zekaların insanlar ve diğer şeyler arasındaki farkı öğrenebileceği konusunda şüpheliyim: köpekler, taşlar ya da insanların dijital ortamda oluşturulmuş resimleri gibi. Overwatch oyununda bir insanı vurmak ile bir insanın resmini vurmak arasında büyük fark var. Sadece küçük örüntüleri gören zavallı bir yapay zeka bu farkı nasıl söyleyebilir?

Haydi, yapay zekanın farkı söyleyebildiğini, sınırsız hesaplama gücü ve hafızası olduğunu kabul ettiğimiz bir düşünce deneyi yapalım. Asimov tam da veri ve istatistiği, nitekim ‘’büyük veri’’yi de, baz alarak gelecek yüzyıllarda insan hareketlerini tahmin etme hakkında yazıyordu. Ve bildiği tüm bilgisayarlar bizimkilere kıyasla son derece küçüktü. Bu nedenle bugün hayal edebildiğimizden daha fazla bilişimsel güce sahip bilgisayarlarla, “etiği” hesaplayabilen bir yapay zeka hayal etmek mümkün müdür?

Jeremy Bentham, faydacılık olarak bilinen ahlak felsefesini şöyle özetliyor: “En büyük sayıda insan için en büyük mutluluğu, ahlaki değerlerin ve kanunun tesis edilmesidir.” Bu, kulağa optimizasyon problemi gibi geliyor: Bir fayda fonksiyonu düşünün, Maslow’un İhtiyaçlar Hiyerarşisi’nin hesaplanabilir versiyonu gibi şey. Bunu dünyadaki bütün insanlara uygulayın, sonuçları nasıl birleştireceğinizi bulun ve optimize edin: maksimum toplam faydayı bulmak için gradyan iniş metodunu kullanın. Birçok sorun bu süreçte çözüme ihtiyaç duyacaktır: Öncelikle fayda fonksiyonu nedir? Doğrusuna sahip olduğunuzu nereden biliyorsunuz? Fayda fonksiyonu her insan için aynı mıdır? Sonuçları nasıl birleştirirsiniz? Basitçe toplanabilir midir? Ayrıca faydacılığın kendisiyle ilgili sorunlar var; öjeniği, etnik temizliği ve tüm nefret türlerini meşrulaştırmak için kullanıldı: “Dünya ….. sız gerçekten daha iyi bir yer olurdu”. Bu resmen yanlış fayda fonksiyonu seçmek olarak görülebilir. Ancak sorun bu kadar basit değil; özellikle kişiden kişiye çeşitlilik gösterebiliyorsa, doğru fayda fonksiyonuna sahip olduğunuzu nereden biliyorsunuz? Yani faydacılık teoride hesaplanabilir olabilir, ancak uygun fayda fonksiyonlarını seçmek her türden ön yargı ve taraf tutmaya bağlı olabilecektir.

Immanual Kant’ın etik görüşü de hesaplanabilir olabilir. “Öyle davran ki davranışın temelindeki ilke, tüm insanlar için geçerli olan evrensel ilke olsun” ana düşüncesi, bir optimizasyon problemi olarak yeniden ifade edilmiş olabilir. Eğer her gün dondurma yemek istersem, ilk önce, eğer herkes her gün dondurma yeseydi dünyanın katlanılabilir bir yer olup olmayacağını düşünmem gerekir. Muhtemelen katlanılabilir bir yer olurdu. (Ancak bu bizi muhtemelen süt tedariki konusunda sınırlı sıkıntılı durumlara sokabilirdi.)

Eğer endüstriyel atığımı komşularımın çimlerine dökmek istersem, herkes böyle yaparsa, dünyanın kabul edilebilir bir yer olup olmayacağını düşünmem gerekir. Muhtemelen kabul edilebilir bir yer olmazdı. Hesaplama anlamında bu faydacılıktan o kadar da farklı değil: kuralımı herkese uygulamam, sonuçları toplamam ve kabul edilebilir olup olmadıklarına karar vermem gerek. Bir maksimum bulmak yerine minimumdan kaçınıyoruz ve hesaplama anlamında bu neredeyse aynı şey. Kant, minimumdan kaçınmaktan daha fazlası üzerinde duruyor olurdu, ama bu konuyu boşvereceğim.

Kant, aynı zamanda bütün rasyonel aktörlerin aynı sonuca ulaşacağı üzerinde dururdu – ki bu da kulağa bir hesaplama sorunu gibi gelmesine neden oluyor. Eğer iki program aynı veri üzerinde aynı algoritmayı kullanırsa, aynı sonuçları alması gerekir. Zor olan ise yine fayda fonksiyonunu bulmakta olacaktır. Dondurma yemenin, kanalizasyon suyu dökmenin hem olumlu hem de olumsuz küresel sonuçları nelerdir? Faydacı birinin fayda fonksiyonu gibi, bu fayda fonksiyonu da hem insani hem istatistiki açıdan ön yargılara ve taraf tutmaya açık olabilecektir.

Aristoteles’in etiğinde de farklı bir optimizasyon problemi görüyorsunuz. Aristoteles’in prensiplerinden biri “iyinin her zaman iki aşırı uç arasında olduğu”dur. Adaletsizliğe şahit olduğunuzda öfkeli olmalısınız, ancak kontrolü kaybedecek kadar öfkeli değil. Aynı ölçüde hiç öfkeye sahip olmamak, adaletsizliği önemsememek de etik dışıdır. Bu nedenle etik eylem, kabul edilemez iki aşırı uç arasındaki uygun çalışma noktasını bulma, yani dinamik bir denge sorunudur. Bu dengeyi sürdürmek bana daha çok bir kontrol teorisi gibi geliyor. Aristoteles bunu söylemese de bu bir geribesleme döngüsü. Öğreniliyor, deneyimlerle geliyor, aynı zamanda insanların uygulamada daha iyi olabileceği bir şey. Ancak Aristoteles’in şaşırtıcı bir şekilde hangi etik davranışın temel alındığı konusunda, erdemler hakkında söyleyecek çok az şeyi var. Aristoteles, bunların ne anlama geldiğini zaten anlayan birisiyle konuştuğunu varsayıyor ve iyi bir hayat yaşama konusunda daha iyi olmak istiyor.

Bu, bilişimsel anlamda yardımcı olmuyor. İnsanlar, doğru bir şekilde davranmanın onları öyle davranmamanın edemediği kadar tatmin ettiğini gözlemleyebilir ve bu tatmini nasıl iyi bir hayat süreceklerini öğrenmelerine yardım edebilecek bir işaret olarak kullanabilirler. Tatmin ve zevkin bir algoritmaya ne ifade edeceği belli değil ve neyi optimize ettiğimizi bilmiyorsak büyük ihtimalle başaramayız. Bir algoritma için, bu temel doğruluk, erdem ya da vazife anlayışı sistem tarafından türetilen bir şey değil, sistemin dışından bir girdidir.

Belki dördüncü bir yaklaşım vardır. Kendimizi bilişimsel etik felsefesi tarihi tarafından belirlenen şartlara uydurarak sınırlıyor muyuz? Belki tüm dünyaya dev bir optimizasyon problemi olarak muamele edebiliriz, eylemleri ve sonuçlarını gözlemleyerek kendi yöntemiyle öğrenen, toplam doğruyu maksimize etmeye çalışan etik bir yazılım platformu oluşturabiliriz. Ancak bu hala bir kısır döngü: Neyi optimize ediyoruz? Fayda fonksiyonu nedir? Gülümsemeleri ve jestleri gözlemliyoruz ve bunları olumlu veya olumsuz çıktılar olarak mı yorumluyoruz? Peki ya uzun vadeli sonuçlarına ne demeli? Bu durumda ne türden bir zaman dilimine bakıyoruz? Uzun vadeli faydaları kısa süreli bedele değişmeye ne derece istekliyiz? “En büyük sayıda insan için en büyük mutluluğu” çözümlüyoruz ve bu özünde faydacıdır; bu yüzden aynı problem ile karşılaşmamız şaşırtıcı değil. İyi sonuçları kötü sonuçlardan ayırt etmek için yapay zeka kullanabiliyor olsak bile, hala bu çıktıları nasıl değerlendireceğimizi söyleyen bir tür fonksiyona ihtiyacımız var. Eğer mevcut bir “iyi”nin 10 yıl sonra kötü sonuçları olursa önemser miyiz? Ya 100 yıl olursa ne olur? Ya da 1.000 yıl? Bu yapay zekanın bizim yerimize alabileceği bir karar değil.

Optimizasyonu tümden elimine ederek bir adım ileri gidebiliriz. Bu yaklaşım, sorunumuzu bir Nash dengesi [bkz. Oyun Teorisi] bulmaya çeviriyor: herkesin tercih fonksiyonunu keşfediyorsun ve kişisel tercih fonksiyonlarını tüm muhtemel eylem akışları altında değerlendiriyorsun. Sonra her bir birey için eylem seçiyorsun; böylece (oyundaki) hiçbir birey, başka bir oyuncuyu eylemini değiştirmesine ikna etmedikçe daha iyisini yapamıyor. Sorun şu ki Nash dengesi gerçekten ideal değil. Kooperasyon diye bir şey yok; diğer oyunculara gidip “birlikte çalışırsak hepimiz daha iyi oluruz” diye bir şey söyleyemiyorsun. Nash dengesi, matematiksel şartlara indirgenmiş “ortak malların trajedisi”ni temsil ediyor.

Bilişimsel etiğin optimizasyon problemi olarak görülmesi şaşırtıcı değil. İsterseniz insan ya da bir yapay zeka olun, “etik” iyiyi bulmak, hayatınızı yaşamanın en iyi yoluna karar vermekle ilgili. Buna başkasının iyiliği için kendi çıkarınızdan ödün verme olasılığı da dahil. Eğer “iyi bir hayat yaşamak” zor bir optimizasyon problemi değilse, başka nedir bilmiyorum. Ancak Aristoteles’in vazife ve erdem düşünceleri, 10 Emir ya da Asimov’un yasaları gibi a priori (önsel) düşüncelere dayalı etiğin nasıl hesaplanabilir olabildiğini anlamıyorum. İster taş tabletlerle, ister öğrenilmiş ve insan deneyiminin bir çok jenerasyonuyla aktarılmış olsun, bunların hepsi sistemin dış girdileridir. Bir yapay zekanın insana zarar vermemesi gerektiği fikrini elde edebileceğinden şüpheliyim. Eğer yapay zekalardan herhangi birinin yasalarına göre davranmalarını istiyorsak, sistem içinde tasarlanmalılar; buna kendi kodlarını yazabilme kabiliyetine sahip sistemler de dahil.

Ya da belki de değil. Eğer bizim etik anlayışımız bin yılı aşmış bir ortak deneyimden ve gözetimli öğrenmeden geliyorsa, yapay zekalar da aynısı mı yapabilir mi? İnsan öğrenimi neredeyse her zaman gözetimlidir; biz kendi başımıza diğer insanlara karşı nasıl davranacağımızı öğrenmiyoruz. Ve geleneklerimiz o kadar eskiden kalma ki, her ne kadar sistemde türemiş olsalar bile sistemin dışından empoze edilmiş olabileceği kolayca görünüyor.

A priori yasası kavramı tam da Kant ve faydacıların kaçınmaya çalıştığı şeydi: “Etik”, dünya üzerinde empoze edilmek yerine “dünyadan” yararlanarak geliştirilebilir mi? Ancak sorduğum bilişimsel sorunlara bakarken benzer bir problem görüyorum. Faydacıların da Kantçıların da bir tür fayda fonksiyonuna ihtiyaçları var. Ve bu fonksiyonlar ya dışarıdan empoze ediliyor ya da bir nevi futüristik derin öğrenimden türüyor. Birinci durumda, kaçınmaya çalışmayı denediğimiz harici yasalardan başka bir şey değil, ancak muhtemelen çok daha karmaşıklar. İkinci durumda ise, fonksiyonların kendisi makine öğrenmesinin sonucu olduğunda, hem istatistiki hem de insani anlamda hala taraf tutmaya eğilimlidir. Cathy O’Neil’in söylediği gibi, insanlar taraflılıklarını onaylamak için ihtiyaç duydukları veri setleri oluşturacak. Veri setlerini oluşturanları kimler denetliyor?

Bunu çok da ciddiye almayın; Kimsenin Nikomakhos’a Etiği’ni ya da Pratik Aklın Eleştirisi’ni deşifre etmeye çalışmasını önermiyorum. Bilişimsel etik kuşkucusuyum, ama kuşkucu olmak kolay. Eğer etik bilişim sorununu çözmek istiyorsanız misafirim olun. Ama çözdüğünüzden gerçekten emin olun ve bir soykırım değerindeki insani ön yargıları gizlice içeri sokmayın.


Yazar: Mike Loukides

Çeviren: Tual Şekercigil
Kaynak: O’REILLY

Düşünbil Portal’da yayımlanan, Düşünbil yazar ve çevirmenlerine ait herhangi bir yazı, çeviri, makale ve haber izin alınmadan basılı olarak ya da internet ortamında kullanılamaz, çoğaltılamaz, yayınlanamaz. İzinsiz kullananlar hakkında hukuki yollara başvurulacaktır.