Çok geç olmadan.
Elon Musk ve yapay zeka konusunda 100’ün üzerindeki lider ve uzman bir araya gelerek, BM’ye katil robot teknolojisine kesin bir yasak getirmesi için baskı yapıyor.
Musk, Google Deepmind’dan Mustafa Süleyman ve diğer 114 yapay zeka ve robotik uzmanının imzaladığı açık mektupta, BM’ye tüm ölümcül özerk silah sistemlerinin geliştirilmesini yasaklayarak “üçüncü savaş devrimini” önlemesi için baskı yapılıyor.
Yapay zeka üzerindeki dünyanın en büyük toplantısı olan ve bu hafta Avustralya’nın Melbourne kentinde gerçekleşmesi planlanan IJCAI 2017‘ye denk gelecek şekilde yayınlanan bu açık mektupta, bağımsız makinelerin kendi hedeflerini seçebileceği ve bunlarla çatışmaya girebileceği, bu hedeflerin arasında düşman savaşçıların yanısıra masum insanların da bulunabileceği yakın bir gelecek hakkında uyarı yapılıyor.
Konsorsiyum şöyle yazıyor: “Bir kez geliştirildikleri zaman, silahlı çatışmaların hiç olmadığı kadar geniş bir ölçekte ve insanların algılayamacağı kadar hızlı zaman ölçeklerinde yaşanmasına olanak sağlayacaklar. Bunlar, terör silahları, acımasız insanların ve teröristlerin masum nüfuslara karşı kullandığı silahlar ve istenmeyen şekillerde davranması için korsanların ele geçirdiği silahlar olabilirler.”
Musk ve kendi dünya görüşünden olan insanların bir araya gelip, özerk silahların insanlığa karşı oluşturduğu tehdide dikkat çektiği ilk örnek bu değil.
SpaceX ve Tesla’nın başkanı, ahlâki yapay zeka araştırmasını ilerletmeye adanmış ve kâr amacı gütmeyen bir kuruluş olan OpenAI’nin de ardında yer alıyor.
Fakat yapay zeka uzmanlarının dile getirdiği endişelere rağmen, özerk silahlara karşı etkili bir yasak geliştirme konusunda devam eden gecikmeler, özellikle yapay zeka sistemlerinin yüksek hızlarda geliştiği göz önüne alındığında, bazı insanların bu tehlikelerin yasaların ötesinde olabileceğinden kuşkulanmasına yol açtı.
“Harekete geçmek için fazla zamanımız yok,” diye yazıyor açık mektupta. “Bu Pandora’nın kutusu bir kez açıldığında, onu kapatmak zor olacak.”
Kampanyaya katılanlar “üçüncü devrimden” bahsederken, katil robotların, içinde yaşadığımız dünyayı tamamen geliştirmemiş icatlar olan barut ve nükleer silahların tarihsel gelişimlerinin bir tür teknolojik halefi olduklarını kastediyorlar.
Yeni mektup, uzmanların bu noktaya değinmek için IJCAI’yı koz olarak kullandığı ilk örnek olmasa da, yaklaşık 26 ülkeden yapay zeka temsilcilerinin ve robotik şirketlerinin konu üzerinde ortaklaşa bir duruş sergiledikleri ve içinde Stephen Hawking, Noam Chomsky ile Apple eş kurucusu Steve Wozniak’in bulunduğu bağımsız araştırmacılar kervanının da katıldığı ilk olay olma özelliğini taşıyor.
Clearpath Robotik şirketinin kurucusu Ryan Gariepy şöyle söylüyor: “Bu mektubu imzalayan önemli şirketlerin ve bireylerin sayısı, bunun sadece varsayımsal bir senaryo değil, aksine, acil eylem gerektiren çok gerçek ve çok acil bir mesele olduğu konusundaki uyarımızı pekiştiriyor.”
“Hâlâ bilim kurgu alanında kalan diğer muhtemel yapay zeka görünümlerinin aksine, özerk silah yapılarının şu an gelişimlerinin zirvesinde olduğu gerçeğini gözden kaçırmamalıyız.”
Bu son konunun üzerinde durulması gerekiyor. Özerk silah yapılarının nihâi kâbusu, bu sayfanın en başındaki gibi T-800’ler ile dolu olan bir gelecek olabilse de, gerçek şu ki, yapay zekaya dayalı öldürme makineleri şu an mevcut.
Özerk veya yarı özerk yetenekler, giderek artan bir şekilde Samsung SGR-A1 nöbet silahı, BAE Systems Taranis insansız hava aracı ve DARPA’nın Sea Hunter denizaltısı gibi silahlara yerleştiriliyor.
Diğer bir ifadeyle, yarının katil robotlarının teknolojik tohumları, şimdiden kara, deniz ve havada varlıklarını sürdürüyorlar; ve bu ölümcül makineleri (ve onları üretmeye can atan sanayiyi) düzenleyen etkili kanunlar henüz yazılmadı.
Yani, şimdi bunu yapmanın tam zamanı.
IJCAI 2017’nin düzenleyicilerinden biri olan UNSW’den yapay zeka araştırmacısı Toby Walsh şöyle söyllüyor: “Neredeyse her teknoloji iyi ve kötü yönde kullanılabilir ve yapay zeka da bunlardan farklı değil. Yapay zeka, bugün toplumun karşı karşıya kaldığı baskılayıcı sorunların pek çoğunu halletmeye yardımcı olabilir… ancak aynı teknoloji, savaşı sanayileştirmek için özerk silahlarda da kullanılabilir. Bu geleceklerden hangisini istediğimizi seçerek, kararımızı bugün vermemiz lazım.”
ScienceAlert