Asilomar Yapay Zeka İlkeleri

Yapay zeka ile ilgili konularda az biraz ilgilenen herkes, Asimov Kanunları ile ilgili muhakkak bir şeyler duymuş, bu konuda yazarların atıf yaptığına ve belki de 1940küsurda yazılan bir edebi eserin bir bölümünde değinilen bu kurallara haddiden fazla önem atfedildiği hissine bile kapılmıştır. Bu konuyla alakalı olarak 2017 yılında Future of Life Institute tarafından Asilomar Conference on Beneficial AI ismiyle ABD’nin California eyaletinde düzenlenen kongreye birçok ünlü biliminsanı (Hawking, Musk, Norvig, Russell, Kurzweil vs) katılarak görüşlerini sunmuştur. Bu kongrenin neticesinde Asimov Kanunları’na bir upgrade getirelim denilmiş ve 23 maddelik yeni bir Yapay Zeka İlkeleri meydana getirilmiştir. Enstitü’nün internet sitesinde (https://futureoflife.org/ai-principles/) İngilizce, Almanca, Çince, Korece, Japonca ve Rusça olan bu ilkeleri Türkçe’ye çevirmenin faydalı olacağı kanaatiyle yayınlamak istedim. İyi okumalar!

Araştırma ile İlgili Hususlar

1)      Araştırma Hedefi: Yapay zeka araştırmalarının amacı, Yönetilemeyen Zeka değil, Faydalı Zeka’yı yaratmak olmalıdır.

2)      Araştırma Fonu: Yapay zeka yatırımlarına, bilgisayar bilimi, ekonomi, hukuk, etik ve sosyal bilimlerdeki girift sorular da dahil olmak üzere yapay zekanın faydalı kullanımını sağlamaya yönelik araştırmalar için fon sağlanmalıdır. Örneğin,

·         Gelecekteki yapay zeka sistemlerini, arızalanmadan veya saldırıya uğramadan istediğimizi yapmaları için nasıl oldukça dayanıklı hale getirebiliriz?

·         İnsanların kaynaklarını ve amaçlarını korurken, otomasyon yoluyla refahımızı nasıl artırabiliriz?

·         Yasal sistemlerimizi daha adil ve verimli olacak, yapay zekaya ayak uyduracak ve yapay zeka ile ilişkili riskleri yönetecek şekilde nasıl güncelleyebiliriz?

·         Yapay zeka, hangi değerler bütünü ile uyumlu hale getirilmelidir ve hangi yasal ve etik statüye sahip olmalıdır?

3)      Bilim-Politika İlişkisi: Yapay zeka araştırmacıları ve karar vericiler arasında yapıcı ve sağlıklı bir alışveriş olmalıdır.

4)      Araştırma Kültürü: Yapay zeka araştırmacıları ve yapay zeka geliştiricileri arasında bir işbirliği, güven ve şeffaflık kültürü teşvik edilmelidir.

5)      Yarıştan Kaçınma: Yapay zeka sistemlerini geliştiren ekipler, güvenlik standartlarında üstünkörülükten kaçınmak için aktif işbirliğinde olmalıdır.

Ahlak ve Değerler

6)      Güvenlik: Yapay zeka sistemleri, operasyonel ömürleri boyunca güvenli ve emniyetli olmalı ve akla yatkın ve uygulanabilir olduğu durumlarda gerçekliği kanıtlanabilir olmalıdır.

7)      Başarısızlık Şeffaflığı: Eğer bir yapay zeka sistemi bir zarara yol açarsa, nedenini belirlemek mümkün olmalıdır.

8)      Yargısal Şeffaflık: Otonom bir sistemin adli karar alma sürecine dahil olması halinde, yetkili bir insan otoritesi tarafından denetlenebilecek tatmin edici bir izahat imkanı sağlamalıdır.

9)      Mesuliyet: Gelişmiş yapay zeka sistemlerinin tasarımcıları ve yaratıcıları, bunların kullanımının, suistimallerinin ve eylemlerinin ahlaki sonuçlarının, bu çıkarımları şekillendirme sorumluluğu ve imkanı olan paydaşlarıdır.

10)  Değer Uyumluluğu: Yüksek otonomluğa sahip yapay zekalı sistemler, eylemleri süresince hedeflerinin ve davranışlarının insani değeler ile aynı hizada olmasını sağlayacak biçimde tasarlanmalıdır.

11)  İnsani Değerler: Yapay zekalı sistemler, insan onuru, insan hak ve özgürlükleri ve kültürel çeşitlilik idealleri ile uyumlu olacak şekilde tasarlanmalı ve çalıştırılmalıdır.

12)  Kişisel Mahremiyet: Yapay zekalı sistemlere verileri analiz etme ve kullanma gücüne sahip olduğunda, bu verilerin sahibi insanlar, bu verilere erişme, bu verileri kontrol etme ve yönetme hakkına sahip olmalıdır.

13)  Özgürlük ve Mahremiyet: Yapay zekanın kişisel verilere uygulanması, insanların gerçek ve algılanan özgürlüğünü makul olmayacak ölçüde kısıtlamamalıdır.

14)  Paylaşılan Fayda: Yapay zeka teknolojikeri, mümkün olduğunca çok sayıda kişiye yarar sağlamalı ve güçlendirmelidir.

15)  Paylaşılan Refah: Yapay zeka tarafından yaratılan ekonomik refah, tüm insanlığın yararına olacak biçimde geniş bir şekilde paylaşılmalıdır.

16)   İnsan Kontrolü: İnsanlar, insan tarafından seçilen hedeflere ulaşmak için kararları yapay zekalara devredip devretmeme / ne surette devretme noktasında seçimler yapmalıdır.

17)  Tahrip Etmeme: Son derece gelişmiş yapay zeka sistemlerinin kontrolü ile verilen güç, toplumun sağlığının bağlı olduğu sosyal ve kamusal süreçleri yıkmak yerine, bunlara saygı duymalı ve bunları geliştirmelidir.

18)  Yapay Zeka Silahlanma Yarışı: Ölümcül otonom silahlarda bir silahlanma yarışından kaçınılmalıdır.

Uzun Vadeli Hususlar

19)  Yetenek İhtiyadı: Herhangi bir fikir birliği olmadığından, gelecekteki yapay zeka yeteneklerine ilişkin üst sınırlarla ilgili güçlü varsayımlardan kaçınmamız gerekmektedir.

20)  Önem: Gelişmiş yapay zeka, dünyadaki yaşam tarihinde derin bir değişikliği temsil edebilir ve uygun özen ve kaynaklar ile planlanıp yönetilmesi gerekmektedir.

21)  Riskler: Yapay zekalı sistemlerin meydana getirdiği riskler, bilhassa yıkıcı ve varoluşsal riskler, beklenen etkileri ile orantılı planlama ve azaltım çabalarına tabi olmalıdır.

22)  Tekrarlamalı Kendini Geliştirme: Kalite veya niceliğin hızla artmasına yol açabilecek şekilde kendini yinelemeli olarak iyileştirmek veya kopyalamak için tasarlanmış yapay zeka sistemleri, sıkı güvenlik ve kontrol önlemlerine tabi olmalıdır.

23)  Kamusal Yarar: Süper zeka, yalnızca yaygın olarak paylaşılan etik ideallerin hizmetinde ve tek bir devlet veya kuruluştan ziyade tüm insanlığın yararına geliştirilmelidir.

14.10.2020

Müslüm Fincan

Yorumlar