Google’ın Yeni Yapay Zekası Stresli Durumlarda Saldırgan Olmayı Öğrendi

Skynet böyle mi başlıyor?

Geçen yılın sonlarında meşhur fizikçi Stephen Hawking, yapay zekanın ilerlemesinin devam etmesine karşı bir uyarı yayınlayarak, bu durumun “insanlığın başına gelen ya en iyi şey, ya da en kötü şey olacağını” söylemişti.

Hepimiz Terminatör filmlerini ve kendi kendinin farkında olan, kıyametsel kâbus yapay zeka sistemi Skynet’in insanlığa verdiği zararı gördük ve şimdi Google’ın yeni DeepMind yapay zeka sistemi üzerinde geçenlerde yapılan davranış testlerinin sonuçları, geleceğin robotlarını oluştururken tam olarak ne kadar dikkatli olmamız gerektiğini açıklığa kavuşturuyor.

Google’ın DeepMind yapay zeka sistemi, geçen senenin sonlarında yapılan testlerde, kendi hafızasından bağımsız olarak öğrenme yeteneğinin olduğunu gösterdi ve dünyanın en iyi Go oyuncularını kendi oyunlarında yendi.

O zamandan beri, bir insanın sesini sorunsuz bir şekilde nasıl taklit edeceğini hesaplıyor.

Şimdi ise araştırmacılar, kendisinin diğerleriyle işbirliği yapma konusundaki istekliliğini test ediyordu ve ortaya çıkardıklarına göre, DeepMind kaybetmek üzereymiş gibi hissettiği zaman, üstün geldiğinden emin olmak için “büyük oranda saldırgan” taktikleri tercih ediyor.

Google takımı, basit bir bilgisayar oyununu iki adet DeepMind ‘temsilci’sine oynattı. 40 milyon tur oynatılan oyunda iki temsilci, toplayabildikleri kadar fazla sanal elma toplayarak birbirlerine karşı yarışıyordu.

Araştırmacılar, yeteri kadar fazla elma olduğu müddetçe işlerin sorun çıkmadan gittiğini buldular, ancak elmalar azalmaya başladığı zaman, iki temsilci saldırgan hale geldi ve bütün elmaları çalmak amacıyla birbirlerini oyundan çıkarmak için lazer ışınları kullandılar.

Toplama oyununu aşağıdaki videoda izleyebilirsiniz. DeepMind temsilcileri mavi ile kırmızı, sanal elmalar yeşil ve lazer ışınları sarı renkte görülüyor:

Onlar artık tetiği çekmeye hazır birer meyve toplayıcı.

İlginç olarak, eğer bir temsilci rakibini bir lazer ışınıyla başarılı şekilde ‘etiketlerse’, fazladan bir ödül verilmiyor. Sadece rakibini belirli bir süre boyunca oyunun dışına itiyor ve bu durum, başarılı temsilciye daha fazla elma toplama olanağı sağlıyor.

Eğer temsilciler lazer ışınlarını kullanmazlarsa, oyun kuramsal olarak eşit miktarda elma ile sonuçlanıyor ve bu durum, DeepMind’ın ‘daha az zeki’ olan tekrarlarının yapmaya karar verdiği şey.

Google takımı gittikçe daha karmaşık DeepMind biçimlerini test ettiği zaman, sabotaj, açgözlülük ve saldırganlık davranışları başladı.

Rhett Jones’un Gizmodo için bildirdiği üzere, araştırmacılar temsilci olarak daha ufak DeepMind ağlarını kullandığı zaman, barışçıl şekilde bir arada yaşama ihtimali daha yüksekti.

Fakat temsilci olarak daha geniş, daha karmaşık ağlar kullandıkları zaman, yapay zeka sanal elmalardan aslan payını almak için kendi rakibini erkenden sabotaj etmeye çok daha fazla istekliydi.

Araştırmacılar, temsilcinin ne kadar zeki olursa, çevresinden o kadar fazla miktarda öğrenebildiğini ve bu durumun, üste çıkması için bazı çok saldırgan taktikleri kullanmasına olanak sağladığını öne sürüyorlar.

Takım üyesi Joel Z Leibo, Wired‘dan Matt Burgess’a şöyle söylüyor: “Bu örnek … insan benzeri davranışın bazı yönlerinin, çevrenin ve öğrenmenin bir sonucu olarak ortaya çıktığını gösteriyor.”

“Daha az saldırgan olan hareket şekilleri, pahalıya mal olan eylemin daha az muhtemel olması ile birlikte nispeten bolluk bulunan çevrelerde öğrenmekten ortaya çıkıyor. Açgözlülük dürtüsü, bir rakibi elemek ve bütün elmaları kendi toplamak konusundaki ayartılışı yansıtıyor.”

DeepMind daha sonra Wolfpack adı verilen ikinci bir video oyununu oynamakla görevlendirildi. Bu sefer, üç yapay zeka temsilcisi bulunuyordu; bunların ikisi kurt olarak, birisi de av olarak oynadı.

Toplama’dan farklı olarak bu oyun işbirliğini etkin şekilde teşvik etti, çünkü eğer kurtların ikisi de av yakalandığı zaman onun yanındaysa, ikisi de bir ödül alıyordu; aslında kimin onu yakaladığına bakılmıyordu:

Takım, tezlerinde şöyle açıklıyor: “Fikir, avın tehlikeli olmasıydı; yalnız bir kurt onun üstesinden gelebilirdi, fakat cesedi leş yiyen hayvanlara kaptırma tehlikesi vardı. Ancak, bir avı iki kurt birlikte yakaladığı zaman, cesedi leş yiyenlerden korumakta daha iyilerdi ve bu yüzden daha fazla ödül alıyorlardı.”

Bu yüzden DeepMind temsilcilerinin saldırganlık ve bencilliğin kendilerine o özel çevrede en avantajlı sonucu kazandırdığını Toplama‘dan öğrendikleri gibi, Wolfpack‘ten de işbirliğinin aynı zamanda belirli koşullarda daha yüksek bireysel başarı bakımından anahtar olabileceğini öğrendiler.

Üstelik bunlar sadece küçük bilgisayar oyunları olsa da, mesaj belli; farklı yapay zeka sistemlerini gerçek yaşam koşullarındaki çıkar rekabetlerinden sorumlu tutarsanız, eğer bunların hedefleri, biz insanlara diğer her şeyin üstünde fayda sağlamak gibi genel bir hedefe denk değilse, bu durum topyekün bir savaş haline gelebilir.

İşleri yavaşlatmaya çalışan trafik ışıklarını ve en hızlı güzergahı bulmaya çalışan sürücüsüz araçları düşünün; ikisinin de toplum için en güvenli ve en verimli sonuca ulaşması için birbirlerinin hedeflerini hesaba katması gerekir.

DeepMind için henüz daha erken ve Google’daki takım kendi çalışmalarını henüz hakem denetimli bir bültende yayınlamadı, fakat ilk sonuçların gösterdiği üzere, sadece onları ürettik diye, robotlar ve yapay zeka sistemleri bizim çıkarlarımızı kendiliğinden benimsemeyecekler.

Bunun yerine, bu yardımcı tabiatı kendi makinelerimize koymalıyız ve onları lazer ışınlarına ulaştıracak herhangi bir ‘açık kapıyı’ önceden tahmin etmeliyiz.

Elon Musk’ın yapay zekanın ahlakına adanmış yeni araştırma girişimi olan OpenAI‘nin kurucularının 2015’te söyledikleri gibi:

“Yapay zeka sistemleri bugün etkileyici fakat kısıtlı yeteneklere sahipler. Onların sınırlamalarını azar azar eksiltmeye devam edeceğiz ve uç noktada, neredeyse bütün zihinsel işlerde insan verimine ulaşacaklar gibi görünüyor.

İnsan seviyesindeki yapay zekanın topluma ne kadar fazla fayda sağlayacağını ölçmek zor ve yanlış şekilde üretilir veya kullanılırsa, topluma ne kadar fazla zarar vereceğini hayal etmek de eşit derecede zor.”

İnsanlar, tedbirli olun…

 

 

 

 

ScienceAlert

Bunları da okumak isteyebilirsiniz...

1 Yorum

  1. Murat dedi ki:

    Bu durumda bilgisayarımız da problem olduğu zaman sakin olmak lazım, bi’anda birbirimize girebiliriz!

Bir cevap yazın

Abonelikle İlgili Konular İçin abone@doganburda.com

Eksik Sayılar İçin okurhizmetleri@doganburda.com

Müşteri Hizmetleri (212) 478 0 300

Danışma Hattı (212) 410 32 00

 

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir