Yapay Zeka Kıyametinden Kaçınmak İçin 23 İlke

Gelecekteki robot amirler, not alın.

Bu, pek çok bilim kurgu kitabının veya filminin konusudur; robotlar bir gün bizi devirecek kadar akıllı hale gelebilirler mi? Dünyanın en seçkin zeka uzmanlarından oluşan bir grup, denemek ve bunun olmayacağından emin olmak için birlikte çalıştı.

Gelecekte YZ üzerine yapılacak araştırmaları yönlendirmek için, o zamandan beri içlerinde Stephen Hawking ile SpaceX CEO’su Elon Musk’ın da bulunduğu yüzlerce uzmanın daha desteklediği 23 ilke dizisi oluşturdular.

Düşünüldükleri Kaliforniya sahilinden sonra Asilomar YZ İlkeleri olarak adlandırılan prensipler, araştırma konularını, etik ve değerleri, ve bilim insanlarının hükümetler ile nasıl çalışması gerektiğinden, ölümcül silahların nasıl idare edilmesi gerektiğine kadar herşeyi içinde bulunduran daha uzun vadeli konuları kapsıyor.

O noktada, 18. ilke şöyle söylüyor: “Ölümcül ve özerk silahlar konusunda bir silahlanma yarışından kaçınılmalıdır.” Tam listeyi aşağıdan okuyabilirsiniz.

İlkelerin tasarlandığı Faydalı YZ 2017 konferansını düzenleyenler, şöyle yazıyor: “Bu ilkelerin, gayretli tartışma malzemelerini ve ayrıca YZ’nin gücünün önümüzdeki yıllarda herkesin yaşamını geliştirmek için nasıl kullanılacağı konusunda istek uyandıran hedefleri sağlayacağını umuyoruz.”

Bir ilkenin dahil edilmesi için, 100’den fazla konferans katılımcısının en az yüzde 90’ının üzerinde anlaşmaya varması lazımdı. Etkinlikteki uzmanlar arasında akademisyenler, mühendisler ve Google eş kurucusu Larry Page’in de bulunduğu teknoloji şirketi temsilcileri vardı.

Belki de en etkili ilke, ‘Kamu Yararı’ isimli 23. Prensipti: “Süperzeka, sadece geniş oranda paylaşılan ahlakî fikirlerin hizmetinde, ve sadece bir devlet veya kurumdan ziyade, tüm insanlığın faydası için geliştirilmelidir.”

Listedeki diğer ilkeler, kendi kendine gelişmesine izin verilen herhangi bir YZ’nin katı bir şekilde gözlenmesi, ve teknolojideki gelişmelerin, “açık olarak paylaşılması” ve “tüm insanlığa faydalı olması” gerektiğini öne sürüyor.
Konferansa katılan Kaliforniya Politeknik Üniversitesi’nden Patrick Lin, Gizmodo’dan George Dvorsky’ye şöyle söylüyor: “YZ’nin sadece insanların verdiği kararları otomatikleştirdiğini düşünmek, elektriğin sadece mum ışıklarının yerini aldığını düşünmek gibidir,”

“Faydaların yanısıra devasa bozma ve zarar verme potansiyeli göz önüne alındığında, araştırmayı iyi bir yöne doğru yöneltmeye yardımcı olmak amacıyla, çoğunlukla verim ve kâr üzerine sabitlenen bir pazar ekonomisine izin vermenin aksine, erken aşamada bazı ölçütleri belirlemek ve YZ’yi şekillendirmek mantıklıdır.”

Bu arada, ilkeler ayrıca, toplumumuzun YZ’nin gelişimine ayak uydurduğundan emin olmak amacıyla, bilim insanlarını hükümetler ve kanun yapıcılar ile yakın şekilde çalışmaya davet ediyor.

Bunların tümü, bizce kulağa çok iyi geliyor; robotların dinliyor olduğunu ümit edelim.

İlkeler ayrıca belli ifadeler hakkında (insanlığa neyin faydalı olduğu ve neyin olmadığı gibi) belirli miktardaki bir fikir birliğine dayanıyor, fakat listenin ardındaki uzmanlar için bu, YZ araştırmasının bu erken aşamasında bir şeyi kayıt altına alma meselesi.

Yapay zeka yapılarının artık bizi pokerde yenmesi ve deri kanserlerini tespit edecek kadar akıllı hale gelmesiyle, araştırmacıların üzerinde çalışabileceği uygun ilke ve sınırlara ihtiyaç olduğu kuşkusuz.

Ve ondan sonra, süper akıllı robotların aramızda yaşadıkları zaman hangi haklara sahip olduklarına karar vermemiz gerekiyor.

Şimdilik, ilkeler, bizlere gelecek için bazı yardımcı göstergeler sağlamalı.

Konferansa katılan Santa Cruz Kaliforniya Üniversitesi’nden Anthony Aguirre, Gizmodo’ya şöyle söylüyor: “Mevcut olan hiçbir YZ sistemi, hilekâr ve tehlikeli olmayacak ve insanların bunu bilmesi önemli. Aynı zamanda, eğer mevcut YZ’lerin en akıllı insanlar kadar veya onlardan daha yetenekli olduğu bir zamanı göz önüne getirirsek, dünyanın temelinden değişmeyeceğine inanmak, tamamen saflık olur,”

“Bu yüzden, YZ’nin fırsatlarını ve tehlikelerini ne kadar ciddiye aldığımız, onun ne kadar yetenekli olduğuyla orantılı olmak zorunda, ve (gelişmelere sık sık eşlik eden basın, endüstri veya araştırma aldatmacaları olmadan) yapılacak olan net değerlendirmeler ile tahminler, iyi bir başlangıç noktası olur.”

İlkeler, Yaşamın Geleceği Enstitüsü tarafından yayınlandı.

Onların internet sitesinde bunların tam halini görebilir ve desteğinizi ekleyebilirsiniz.

Araştırma konuları

1. Araştırma Hedefi: YZ araştırmasının hedefi, yönlendirilmeyen zeka oluşturmak değil, faydalı zeka oluşturmak olmalıdır.

2. Araştırma Sermayesi: YZ’ye yapılan yatırımlara, onun faydalı kullanımını temin etmeye yönelik olan araştırma sermayesi eşlik etmelidir ve içinde bilgisayar bilimi, ekonomi, kanun, etik ve sosyal çalışmalardaki zorlu sorular bulunmalıdır. Bu sorular şöyle örneklendirilebilir:

  • Gelecekteki YZ yapılarını, bozulmadan veya saldırıya uğramadan istediklerimizi yapmaları için nasıl yüksek oranda sağlam yapabiliriz?
  • İnsanların imkanlarını ve gayelerini korurken, otomasyon üzerinden refahımızı nasıl geliştirebiliriz?
  • Yasal yapılarımızı YZ’ye ayak uydurmak ve YZ ile ilişkili tehlikeleri yönetmek amacıyla nasıl daha adil ve daha verimli olacak şekilde güncelleyebiliriz?
  • YZ, hangi değerlerle aynı eksene konulmalıdır ve ne gibi yasal ve ahlakî konumlara sahip olmalıdır?

3. Bilim-Siyaset Bağlantısı: YZ araştırmacıları ile kanun yapıcılar arasında yapıcı ve sağlıklı alışveriş bulunmalıdır.

4. Araştırma Kültürü: İşbirliği, güven ve şeffaflık kültürü, YZ araştırmacıları ve geliştirmecileri arasında teşvik edilmelidir.

5. Yarıştan Kaçınmak: YZ yapılarını geliştiren takımlar, güvenlik ölçütlerinde işin kolayına kaçmaktan kaçınmak amacıyla etkin bir şekilde işbirliği yapmalıdırlar.

Etik ve değerler

6. Güvenlik: YZ yapıları, işlevsel ömürleri boyunca güvenli ve emniyetli, ve ayrıca uygulanabilir oldukları yerde onaylanabilir olmalıdırlar.

7. Başarısızlık Şeffaflığı: Eğer bir YZ sistemi hasara sebep olursa, sebebini öğrenmek mümkün olmalıdır.

8. Hukuki Şeffaflık: Özerk bir sistem, adlî karar vermeye dahil olursa, ehil bir insan yetkili tarafından denetlenebilen, tatmin edici bir yorumlama sağlamalıdır.

9. Sorumluluk: Gelişmiş YZ yapılarının tasarımcıları ve kurucuları, kullanımlarının, hatalı kullanımlarının ve eylemlerinin ahlakî sonuçları konusunda paydaştırlar ve bu sonuçları şekillendirme sorumluluğu ve fırsatları vardır.

10. Değer Uyuşumu: Yüksek oranda özerk YZ yapıları, amaçları ve davranışları, işlevleri boyunca insan değerleri ile uyuşacak şekilde tasarlanmalıdırlar.

11. İnsan Değerleri: YZ yapıları, insan şerefi, hakları, özgürlükleri ve kültürel çeşitlilik idealleri ile bağdaşacak şekilde tasarlanmalı ve işletilmelidir.

12. Kişisel Mahremiyet: İnsanlar, YZ yapılarının veriyi çözümleme ve kullanma gücü göz önüne alındığında, oluşturdukları veriye erişme, onu yönetme ve idare etme haklarına sahip olmalıdırlar.

13. Özgürlük ve Mahremiyet: YZ’nin kişisel veriye uygulanması, insanların gerçek veya algılanan özgürlüğünü anlamsız bir şekilde kısmamalıdır.

14. Ortak Fayda: YZ teknolojileri, mümkün olduğu kadar fazla insana fayda ve yetki sağlamalıdır.

15. Ortak Refah: YZ tarafından oluşturulan ekonomik refah, tüm insanlığa fayda sağlayacak şekilde geniş ölçüde paylaşılmalıdır.

16. İnsan Kontrolü: İnsanlar, insanların seçtiği hedefleri yerine getirmek için, YZ yapılarının karar verip veremeyeceğini ve nasıl vereceğini seçmelidirler.

17. Çökertmeme: Yüksek oranda gelişmiş YZ yapılarının kontrolü tarafından sunulan güç, toplum sağlığının bağlı olduğu sosyal ve kentsel süreçleri çökertmek yerine, onları gözetmeli ve geliştirmelidir.

18. YZ Silahlanma Yarışı: Ölümcül özerk silahlarda yapılacak bir silahlanma yarışından kaçınılmalıdır.

Daha uzun vadeli konular

19. Güç Uyarısı: Fikir birliği olmamakla birlikte, gelecekteki YZ kapasitelerinin üst sınırları konusunda keskin zanlardan kaçınmalıyız.

20. Önem: Gelişmiş YZ, Dünya üzerindeki yaşamın tarihinde derin bir değişimi temsil edebilir, ve orantılı dikkat ve kaynaklar ile planlanmalı ve yönetilmelidir.

21. Tehlikeler: Özellikle felaketsel veya varoluşsal tehlikeler olmak üzere YZ yapılarının oluşturduğu tehlikeler, beklenen etkileri ile orantılı planlama ve hafifletme gayretlerine tabi olmalıdır.

22. Yinelemeli Öz Düzeltim: YZ sistemleri, katı güvenlik ve denetim tedbirlerine tabi olması gereken, hızlı şekilde artan nitelik veya niceliğe yol açabilecek bir şekilde, özyinelemeli olarak kendini düzeltmek veya kopyalamak için tasarlanmalıdır.

23. Kamu Yararı: Süperzeka, sadece geniş şekilde paylaşılan etik ideallerin hizmetinde, ve bir devlet veya kurum yerine tüm insanlığın faydası için geliştirilmelidir.

ScienceAlert

Bunları da okumak isteyebilirsiniz...

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir