Uzmanlardan İkinci Mektup: Yapay Zeka İnsanlığı Yok Edebilir

0
Tasvir: matejmo/iStock

Yapay zeka araştırmacıları, ahlakbilimciler, mühendisler ve şirket yöneticilerinden oluşan 350’den fazla uzman, yapay zekanın insanlığa karşı sergileyebileceği varoluşsal tehditlere karşı 22 kelime, tek cümleden oluşan bir bildirinin altına imza attı. Yapay Zeka Güvenliği Merkezi adını taşıyan ve kâr amacı gütmeyen bir kuruluşun bir araya getirdiği bu konsorsiyumda, “Yapay Zekanın Babası” Geoffrey Hinton, OpenAI CEO’su Sam Altman ve Microsof Baş Teknoloji Sorumlusu Kevin Scott da yer alıyor. Uzmanlar, “Salgınlar ve nükleer savaş gibi toplumsal ölçekli diğer tehlikeler ile birlikte, yapay zekanın sergilediği yok olma tehlikesinin azaltılması da küresel bir öncelik haline gelmeli” diyor.

22 kelimelik mektup ve altına atılan imzalar, bu yılın başlarında OpenAI’nin GPT-4 teknolojisinden daha güçlü bir yapay zeka geliştirilmesine yönelik araştırmalara altı ay “ara verilmesi” çağrısı yapan ve yine önde gelen uzmanların imzasını taşıyan mektubu hatırlatıyor.

Dün The New York Times gazetesine konuşan Yapay Zeka Güvenliği Merkezi yönetici müdürü Dan Hendrycks, yazılan bu açık mektupla beraber endüstrideki bazı liderlerin gerçekleri ilk defa açıkladığını belirtiyor. “Yapay zeka camiasında bile çok yaygın bir yanlış anlaşılma mevcut; insanlığın sonunun geleceğini düşünenlerin bir elin parmaklarını geçmediği zannediliyor” diyor Hendrycks. “Fakat gerçekte pek çok kişi, böyle şeylere dair endişelerini gizli şekilde dile getiriyor.”

Ancak bu tür aleni açıklamaların arkasındaki motivasyonlara şüpheyle yaklaşanlar ve korkuların yersiz olduğunu düşünenler de var.

Yapay zekanın etik şekilde geliştirilmesini destekleyen Dağıtık Yapay Zeka Araştırma Enstitüsünde (DAIR) araştırma mühendisi olan Dylan Baker, “Bunlara kanmayın” diyor. “Panik adı altında kendi kendini destekleyen bir coşku yaratıyorlar.” PopSci’ye konuşan Baker, varsayıma dayalı varoluşsal tehditlerle dönük gündemin, halkın ve düzenleyici kuruluşların dikkatini “yapay zekanın günümüzdeki somut zararlarından” başka yere çektiğini iddia ediyor. Bu tür zararların içerisinde “algoritmik zararların artması, işgücünün sömürülmesinden ve çalınan veriden kâr sağlamak ve kaynak tüketimiyle iklimsel çöküşü körüklemek” gibi şeyler de bulunuyor.

DAIR’in ilk olarak Mart ayındaki açık mektuba verdiği ve dün tekrar tazelediği yanıtta grup, “Sözde yapay zekanın meydana getirdiği zararlar gerçek olduğu kadar, otomatik sistemler kullanan insan ve şirketlerin faaliyetleri sonucu ortaya çıkıyorlar” diyor. “Düzenleyici kurumlar şeffaflığa, hesap verilebilirliğe ve istismarcı işgücü uygulamalarını önlemeye odaklanmalı.”

Ancak Hendrycks, sadece mevcut zararlara öncelik vermek ne kadar sorumsuz bir davranışsa, bunların görmezden gelinmesinin de o kadar sorumsuzca olacağını belirtiyor. Hendrycks günümüzde olanları, atom bilimcilerin dünyayı geliştirdikleri teknolojiye karşı uyardığı zamana benzetiyor ve J. Robert Oppenheimer’ın “Dünyanın bir daha aynı yer olmayacağını biliyorduk” dediğini hatırlatıyor.

Medya ve teknoloji uzmanı Douglas Rushkoff, dün yazdığı köşe yazısında “Aslında ‘Bizi durdurun!’ diyorlar” diyor. “Meydana getirilen tantana, husumet, pazarlama ve paranoya” sayesinde yapay zekanın basında daha çok yer bulduğunu ve bu durumun, şirketler endüstrideki yerlerini sağlamlaştırmaya çalıştığı sırada teknolojinin çok ciddi sorunlarını gizlediğini belirtiyor. “Bir tür blöf şekli” diye yazıyor. “Teşekkürler ama ben almayacağım.”

Rushkoff, PopSci’ye gönderdiği ayrı bir epostada düşüncelerini şöyle özetliyor: “Yaptıkları duyuru kadar kısa bir alıntı yapmam gerekirse, sadece şunu söylerdim: Kötü niyetli değiller. Çoğu öyle.”

 

Yazar: Andrew Paul/Popular Science. Çeviren: Ozan Zaloğlu.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz