Yapay Zeka, İnsan Davranışlarını Tehlikeli Derecede İyi Biçimde Taklit Ediyor

Yapay zeka sistemleri yaratıcı hale gelmeye başladığında, muhteşem şeyler oluşturabilirler; tabi korkunç şeyler de. Örneğin; internet kullanıcılarının, Johann Sebastian Bach benzeri armoniler oluşturan bir programa notalar girerek, sanal bir Johann Sebastian Bach ile beraber müzik bestelemesine imkan sağlayan bir yapay zeka programını ele alalım.

Google’ın işlettiği bu uygulama, onunla oynamanın eğlenceli ve çığır açıcı türden olması sebebiyle büyük övgü topladı. Ayrıca eleştirilerin de odağı oldu ve yapay zekanın tehlikelerine yönelik bazı endişelere yol açtı.

Yeni yeni ortaya çıkan teknolojilerin, insanların hayatlarını nasıl etkilediğine dair yapılan çalışmalar; söz konusu sorunların, genel olarak algoritmaların gerçekten de müzik veya sanat üretip üretemeyeceğine yönelik büyük endişelerin ötesine gittiğini gösteriyor.

Bazı rahatsızlıklar küçük görünüyor fakat aslında öyle değiller; tıpkı Google’ın yapay zekasının, temel müzik besteleme kurallarına uymadığına yönelik yapılan gözlemler gibi.

Doğrusu, bilgisayarlara gerçek insanların davranışlarını taklit ettirme çabaları kafa karıştırıcı ve muhtemelen de zararlı olabilir.

Kişileştirme teknolojileri

Google’ın programı, Bach’in müzikal çalışmalarından 306 tanesinin notalarını çözümledi ve bu armoniyi sağlayan melodi ile notalar arasındaki ilişkileri buldu.

Bach, katı beste kurallarını takip ettiğinden; program da bu kuralları etkin bir şekilde öğreniyor ve kullanıcılar kendi notalarını sunduğunda, bunları uygulayabiliyordu.

Bach uygulaması yeni bir şey fakat altında yatan teknoloji yeni değil. Kalıpları tanımak ve olasılıksal kararlar vermek üzere eğitilen algoritmalar, uzun bir süredir mevcuttu.

Bu algoritmalardan bazıları o kadar karmaşık ki, insanlar bunların nasıl karar verdiğini veya belli bir sonucu nasıl ürettiğini her zaman anlamıyorlar.

Yapay zeka sistemleri mükemmel değil; bunların pek çoğu, nüfusun tamamını temsil etmeyen veya insanların önyargılarından etkilenen verilere dayanıyor. Bir yapay zeka sistemi bir hata yaptığında veya bir soruna sebep olduğunda, kimin yasal yönden sorumlu olacağı pek belli değil.

Ancak yapay zeka teknolojileri artık, bireylerin yazma ve konuşma şekillerine; hatta yüz ifadelerine yaklaşabilecek ölçüde gelişmiş hale geliyor.

Bu her zaman kötü bir şey demek değil: Epey basit olan bir yapay zeka, Stephen Hawking’in en çok kullandığı kelimeleri tahmin ederek, kendisine diğer insanlar ile daha verimli şekilde iletişim kurma kabiliyeti sağlamıştı.

İnsan seslerini taklit eden daha karmaşık programlar, engeli bulunan insanlara yardımcı olabiliyorlar; fakat aynı zamanda, dinleyen kişileri kandırmak için de kullanılabilirler.

Örneğin, bir ses taklit programı olan Lyrebird‘in yapımcıları; Barack Obama, Donald Trump ve Hillary Clinton arasında yapılan sanal bir sohbetin canlandırmasını yayınladı. Kulağa gerçek gibi gelebilir, ancak bahsi edilen takas hiçbir zaman gerçekleşmedi.

İyiden kötüye

Bu yılın Şubat ayında, kâr amacı gütmeyen bir kuruluş olan OpenAI, insanların yazdığı metinlerden neredeyse ayırt edilemeyecek şekilde metin oluşturan bir program meydana getirdi. Program; John F. Kennedy‘nin, Yüzüklerin Efendisi‘ndeki J.R.R. Tolkien’in veya ABD İç Savaşı hakkında ev ödevi yapan bir öğrenci tarzında konuşma “yazabiliyor”.

OpenAI’nin yazılımı tarafından oluşturulan metin o kadar inandırıcı ki, şirket bu yazılımı yayınlamamayı tercih etti.

Benzer teknolojiler de fotoğraf ve videoları taklit edebiliyor.

Örneğin 2018 yılının başlarında, oyuncu ve film yapımcısı Jordan Peele, eski ABD Başkanı Barack Obama’nın aslında hiç söylemediği şeyleri söylediğini gösteren bir video oluşturdu ve halkı, bu teknolojilerin sunduğu tehlikeler konusunda uyardı.

2019 yılının başında, ABD Milletvekili Alexandria Ocasio-Cortez’in sahte ve çıplak bir fotoğrafı internette dolaşıyordu. Genelde “derin sahteler” şeklinde adlandırılan sahte videoların, seçim kampanyalarında giderek artan bir şekilde kullanılması bekleniyor.

ABD Meclisi üyeleri, 2020 seçimi öncesinde bu meseleyi incelemeye başladılar. ABD Savunma Bakanlığı, halka, üzerinde oynama yapılmış video ve sesleri nasıl tespit edeceğini öğretiyor.

Reuters gibi haber kurumları, gazetecilerin derin sahteleri ayırt etmeleri için onları eğitmeye başlıyor.

Fakat çok daha büyük bir sorun mevcut: Yapay zeka teknolojisi daha gelişmiş hale geldikçe, kullanıcılar sahte içeriği ayırt edecek kadar hızlı bir şekilde öğrenemeyebilir.

Örneğin halk, derin sahtelerin giderek daha fazla farkında vardıkça, çok daha gelişmiş kandırmacalar için halihazırda kullanılan yapay zekalar var. Artık, sahte yüzler ve sahte parmak izleri oluşturabilen, bütün bir insanın sahtesini yapmak için gereken bilgiyi etkili şekilde oluşturan programlar var; en azından şirket veya hükümet kayıtlarında.

Makineler öğrenmeye devam ediyor

Şu anda bu teknolojilerde, insanlara dijital yalanları tespit etme şansı verecek kadar muhtemel hatalar bulunuyor. Google’ın Bach bestecisi, bir uzmanın tespit edebileceği bazı hatalar yapıyor.

Örneğin programı denediğinizde, program; Bach’ın titizlikle kaçınmış olduğu bir müzik entervali olan düz beşli kusurlarını girmeye izin veriyor.

Uygulama ayrıca, yanlış anahtardaki melodilerin armonisini yaparak, kontrpuan müzik kurallarını çiğniyor. Benzer şekilde, OpenAI’nin metin oluşturma programı da, ara sıra “su altında alevler meydana geliyor” gibi anlamsız cümleler yazıyor.

Geliştiriciler oluşturdukları şey üzerinde çalıştıkça, bu hatalar daha nadir hale gelecek. Yapay zeka teknolojileri, etkin bir şekilde evrim geçirip öğrenecekler. Geliştirilmiş verim, sosyal açıdan pek çok fayda getirme potansiyeline sahip; bunların arasında daha iyi sağlık hizmeti var, çünkü yapay zeka programları, tıp uygulamalarının demokratikleşmesine yardımcı olacak.

Yapay zeka sistemlerinin bu olumlu başarılarını ortaya çıkarmak amacıyla araştırmacılara ve şirketlere keşfetme özgürlüğü sağlamak; hile ve diğer sosyal sorunları meydana getirmeye yönelik daha ileri yöntemlerin geliştirilmesi tehlikesini yaratıyor.

Yapay zeka araştırmalarını ciddi biçimde sınırlamak, bu gelişimi frenleyebilir. Ancak, faydalı teknolojilere büyüme imkanı sağlamak; beraberinde büyük bedeller getiriyor. Ayrıca, ister “Bach benzeri” kusurlu müzikler bestelemek için, ister milyonları aldatmak için olsun; kötüye kullanma olasılığı, muhtemelen insanların ummadığı biçimlerde artmaya devam edecek.

 

 

 

 

Ana Santos Rutschman, The Conversation

Bunları da okumak isteyebilirsiniz...

Bir cevap yazın

Abonelikle İlgili Konular İçin abone@doganburda.com

Eksik Sayılar İçin okurhizmetleri@doganburda.com

Müşteri Hizmetleri (212) 478 0 300

Danışma Hattı (212) 410 32 00

 

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir