PAUL SALMON, PETER HANCOCK & TONY CARDEN
Yapay zeka satranç oynayabiliyor, araba kullanabiliyor ve tıbbi konuları teşhis edebiliyor. Bunun örnekleri arasında Google DeepMind’ın AlphaGo‘su, Tesla’nın kendi kendini süren taşıtları ve IBM’in Watson’u yer alıyor.
Bu tür yapay zekaya, Yapay Dar Zeka ismi veriliyor; bunlar belirli bir görevi gerçekleştirebilen, insan olmayan sistemler. Bu tür ile her gün karşılaşıyoruz ve kullanımı da giderek artıyor.
Fakat şimdiye kadar pek çok etkileyici kabiliyet gösterilmiş olsa da, aynı zamanda sorunlar da görmeye başlıyoruz. En kötü vaka, Mart ayında bir yayaya çarpan sürücüsüz bir test arabasını içeriyor. Yaya öldü ve kazanın soruşturması hâlâ devam ediyor.
Sonraki nesil YZ
Bir sonraki YZ nesliyle birlikte tehlikeler, neredeyse kesin biçimde çok daha yüksek olacak.
Yapay Genel Zeka (AGI), gelişmiş hesaplama gücüne ve insan seviyesinde zekaya sahip olacak. AGI sistemleri öğrenebilecek, problemleri çözebilecek, uyum sağlayabilecek ve kendilerini geliştirebilecekler.
Hatta, tasarlandıkları şeylerinde ötesinde dahi görev yapabilecekler.
Daha da önemlisi, kendilerini meydana getiren insanlardan çok daha gelişmiş hale geldikçe, gelişim oranları üstel olabilir. AGI’nin başlangıcı, hızlı bir şekilde Yapay Süper Zeka’ya (ASI) yol açabilir.
Tam anlamıyla işlev sergileyen AGI sistemleri henüz mevcut olmasa da, 2029 ile bu yüzyılın sonu arasındaki bir zamanda bizimle olacakları tahmin ediliyor.
Er ya da geç gelecek olmalarına neredeyse kesin gözüyle bakılıyor. Geldikleri zaman onları kontrol edemeyeceğimize yönelik büyük ve doğal bir endişe mevcut.
AGI ile ilgili tehlikeler
AGI sistemlerinin, insanlığı dönüştürebileceğine şüphe yok.
Daha güçlü olan uygulamaların bazıları arasında; hastalıkları tedavi etmek, iklim değişikliği ve gıda güvenliği gibi karmaşık küresel sorunları çözmek ve dünya çapında yaşanacak bir teknoloji patlamasının fitilini ateşlemek yer alıyor.
Fakat uygun denetimlerin yerine getirilememesi, felâketvarî sonuçlara yol açabilir.
Hollywood filmlerinde gördüğümüz şeylere rağmen, varoluşsal tehditler için katil robotlar gerekmeyebilir.
MIT’de profesör olan Max Tegmark, Yaşam 3.0: Yapay Zeka Çağında Robot Olmak ismini taşıyan ve 2017 yılında yayınlanan kitabında, sorunun bir kötü niyet sorunu değil; bir zeka sorunu olacağını yazıyor.
Burada, insan-makine sistemleri bilimi (İnsan Etmenleri ve Ergonomiği şeklinde biliniyor) önem kazanacak.
Tehlikeler, süper zeki sistemlerin; her şeyi daha verimli şekilde yapmanın yollarını bulmasıyla, hedeflere ulaşmak için kendi taktiklerini hazırlamasıyla ve hatta kendi hedeflerini geliştirmesiyle ortaya çıkacak.
Şu örnekleri hayal edin:
- HIV’i önlemekle görevlendirilen bir AGI sistemi, bu sorunu, hastalığı taşıyan herkesi öldürerek halletmeye karar veriyor veya kanseri tedavi etmekle görevlendirilen biri de, kansere karşı genetik yatkınlığı olan herkesi öldürmeye karar veriyor
- Özerk bir askerî AGI insansız hava aracı, bir düşman hedefinin yok edilmesini garantiye almanın tek yolunun, bir topluluğun tamamını ortadan kaldırmak olduğuna karar veriyor
- Çevreyi koruyan bir AGI, iklim değişikliğini yavaşlatmanın veya tersine çevirmenin tek yolunun, teknolojileri ve onlara sebep olan insanları ortadan kaldırmak olduğuna karar veriyor
Bu senaryolar, insanların endişelerini esas emirleri olarak görmeyen ve birbirleriyle savaşan bambaşka AGI’leri akla getiriyor.
İnsanların sonunda gereksiz hale geldiği ve insan ırkının daha sonra yok olduğu senaryolar da dahil olmak üzere, distopik içerikli çeşitli gelecek senaryoları ileri sürülmüş durumda.
Diğerleri ise, bu kadar aşırı olmayan fakat yine de kayda değer sorunlar içeren senaryolar ortaya attılar. Bunların sadece birkaçından bahsedecek olursak; aralarında, AGI’nin terör saldırıları veya siber saldırılar için kötü amaçla kullanımı, insan emeğine olan ihtiyacın ortadan kalkması ve insanları kitlesel şekilde gözetleme bulunuyor.
Bu yüzden, tehlikeleri en aza indirmek ve en fazla faydayı elde etmek amacıyla, AGI’yı tasarlama ve yönetme bakımından; merkezinde insanın olduğu en güvenli yolların araştırılması gerekiyor.
AGI nasıl kontrol edilir
AGI’yi kontrol etmek, insanları kontrol altında tutmaya hizmet eden türden kontrol öğeleri uygulamaya benzemiyor ve bu iş bu kadar kolay değil.
İnsan davranışı üzerindeki pek çok kontrol öğesi; bizim bilincimize, duygularımıza ve ahlakî değerlerimizin uygulanışına bağlı. AGI’ler zarara sebep olurken, bu niteliklerin hiçbirine ihtiyaç duymayacaklardır. Mevcut kontrol biçimleri yeterli değil.
Muhtemelen, derhal geliştirilmesi ve test edilmesi gereken üç adet kontrol dizisi mevcut:
- AGI sistem tasarımcılarının ve geliştiricilerinin, güvenli AGI sistemleri oluşturmasını garantiye almak için gereken kontrol öğeleri
- “Sağduyu”, ahlâk, işletme usülleri, karar kuralları vb. gibi AGI’lerin içine ilave edilmesi gereken kontrol öğeleri
- AGI’nin çalışacağı daha geniş sistemlere eklenmesi gereken; kurallar, uygulama esasları, standart işletim usülleri, gözetleme sistemleri ve altyapı gibi şeyler.
İnsan Etmenleri ve Ergonomiği, bu gibi kontrol öğelerini AGI sistemleri gelmeden çok önce belirlemek, tasarlamak ve test etmekte kullanılabilecek yöntemler sunuyor.
Örneğin, belirli bir sistemde mevcut olan kontrol öğelerini modellemek ve bu sayede AGI sistemlerinin, bu kontrol yapısı içerisindeki muhtemel davranışlarını modellemek ve güvenlik tehlikelerini belirlemek mümkün.
Bu durum, yeni kontrol öğelerinin nerede gerekli olduğunu belirlememize, onları tasarlamamıza ve sonuç olarak tehlikelerin ortadan kalkıp kalkmadığını görmek için yeniden modelleme yapmamıza olanak sağlayacak.
Buna ilaveten; algı ve karar verme modellerimiz, AGI’lerin uygun şekilde davrandığını ve insancıl değerlere sahip olduklarını temin etmek için kullanılabilir.
Şimdi hareket geçin, sonra değil
Şu an bu tür araştırmalar devam ediyor fakat hiç yeterli durumda değiller ve yeterli miktarda bilim dalı da dahil edilmiyor.
Yüksek profilli teknoloji girişimcisi Elon Musk bile, gelişmiş YZ’nin insanlara karşı sergilediği “varoluşsal kriz” konusunda insanları uyardı ve çok geç olmadan YZ’nin düzenlenmesi gerektiğini söyledi.
Önümüzdeki on yıl civarı, önemli bir dönemi temsil ediyor. Topluma ve insanlığa geniş kapsamlı yararlar sunabilecek, güvenli ve verimli AGI sistemleri oluşturma şansımız var.
Aynı zamanda, her zaman yaptığımız gibi davranırsak ve hızla gerçekleşen teknolojik gelişmeleri yakalamaya çalışırsak; bu durum insan ırkının yok olmasına katkı sağlayabilir. Top bizim tarafımızda olsa da, fazla uzun kalmayacak.
Paul Salmon, Sunshine Coast Üniversitesi‘nde İnsan Etmenleri Profesörü; Peter Hancock, Central Florida Üniversitesi‘nde Psikoloji, İnşaat ve Çevre Mühendisliği ile Endüstri Mühendisliği ve Yönetim Sistemleri Profesörü; Tony Carden, Sunshine Coast Üniversitesi‘nde Araştırmacı.
The Conversation