Yapay Zekaya Güvenebilir miyiz?

0
İllüstrasyon: Sam Freeman

Derin öğrenme, konuşma tanıma yazılımlarından tutun da ev kredisi başvurularının  değerlendirilmesine kadar birçok yerde kullanılıyor. Tek sorun, nasıl işlediğini aslında bilmeyişimiz.

Derin öğrenme her şeyi yapıyor. Yüz tanıma, dil çevirisi, oyun oynama. Bu, yapay zekâ (YZ) alanını tepeden tırnağa değiştiren bir yaklaşım ve son on yılda YZ’ye damgasını vurdu.

İyi ama derin öğrenme nasıl çalışıyor? Sürücüsüz otomobiller gibi güvenliğin kritik olduğu  uygulamalarda işe yarayacağına güvenebilir miyiz? Genellikle bilgisayar algoritmalarının olabildiğince şeffaf olmasını isteriz ama derin öğrenmede durum çok farklı.

Derin öğrenme, aslında yapay sinir ağı (ANN) olarak bilinen eski bir bilgisayar öğrenme  yönteminin akıllıca yeniden tasarlanmış hâli. Bilgisayarların başlangıcına kadar giden yapay  sinir ağları, beynimizdeki nöron ağını simüle eden programlar. Bunlar fazlaca basitleştirilmiş ve tam olarak gerçek nöronlar gibi çalışmıyor, yine de bilgisayarların bir şeyler öğrenmesine izin veriyor.

Gizli Derinlikler

Sinir ağları üzerindeki araştırmalar 1950’lerde başladı ve sinir ağlarının makine  öğrenimindeki bazı diğer yaklaşımlar kadar başarılı olmadığı çok geçmeden anlaşıldı. (Makine öğrenimi, YZ’nin bilgisayarların verilerden öğrenerek sınıflandırma ve tahmin  yapmasına yönelik dalı.) Dolayısıyla da bu alanda başlayan araştırmalar 1990’ların başında  azalırken, onun yerine akıllı istatistiğe dayalı öğrenim yöntemleri ağırlık kazanmaya
başladı.

Fakat tüm bunlar 20 yıl kadar önce değişiverdi. Toronto Üniversitesinde çalışan ve  Google’da Brain Team Toronto’yu yöneten İngiliz öncü Geoff Hinton ve İsviçre’deki IDSIA Dalle Molle YZ Enstitüsünden Jürgen Schmidhuber, çok daha fazla katman içeren sinir  ağlarını eğitmenin yepyeni ve daha verimli yollarını tanıttılar. Artık ağlar yüzlerce “gizli”  katman (bunlar doğrudan algılayıcılara bağlı olan giriş nöronlarıyla, sonucu sunan çıkış  nöronları arasındaki nöron sıraları) içerebiliyordu. Nöronları birbirine bağlamanın yeni yolları da eklenince ortaya çok etkili bir sonuç çıkıyordu. Bu büyük devrim tam da büyük verinin,  bulut bilgi işlemin ve hızlı işlemcilerin çağına denk gelmişti. Böylece 2006’da devasa “derin” ağlar oluşturmak, onları uçsuz bucaksız veri hacimleriyle eğitmek ve çok sayıda hızlı bilgisayarı eşgüdüm içinde çalıştırmak mümkün oldu.

Bu “derin öğrenme” YZ’deki en son devrimin başlangıcıydı. Hâlâ beynin işleyişine dair basitleştirilmiş bir modeli esas alsa da artık ağlar, yazılımsal olarak simüle edilen binlerce ya da milyonlarca nöronun oluşturduğu ağlara bel bağlıyordu. Yeterince bilgisayar ve veri sağlanırsa ağların bu verilerden yola çıkarak uyum sağlaması ve öğrenmesi mümkün oluyor, böylece ortaya küçük bir yazılımsal beyin çıkıyordu.

Eğer yüzleri tanımak üzere eğitildiyse bu küçük beyin, bir kameraya yerleştirilebiliyor ve  fotoğraf çektiğinizde yüzleri bularak net kalmasını sağlıyor. Eğer konuşma tanımak üzere  eğitildiyse küçük beyin, telefonunuza yerleştiriliyor ve ne dediğinizi anlıyor.

Son on yılda, derin öğrenme bazı şaşırtıcı gelişmelerin önünü açtı. Derin öğrenme sayesinde artık Siri, Cortana ve Alexa var. Bu sayede yüz tanıma ve görüntülerin içeriğinin  otomatikman etiketlenmesi mümkün oluyor. Ama her şey güllük gülistanlık değil. Bu devasa sinir ağları biyolojik beyinlerin becerilerini akla getiren gerçekten etkileyici özelliklere sahip olsa da gerçek bir beynin bir özelliğini daha paylaşıyor. Bu da şeffaf olmaması.

Google’ın Deep- Mind’ının ürettiği şaşırtıcı görüntüler, halkın makine öğreniminin farkında olmasını sağladı. GETTY IMAGES

Bilinmeyene Yolculuk

Biyolojik beyinde hâlâ bilginin nasıl depolandığına ya da kararların nasıl verildiğine ilişkin  şaşırtıcı derecede az şey biliyoruz. Bu işlerin nöronlarla alakalı olduğunu bilsek de bir grup nöronu gösterip “İşte çikolatanın tadını burası hatırlıyor” ya da “Yeni bir diş fırçası alma kararı işte burada verildi” diyemiyoruz.

Aynı biçimde, devasa bir yapay sinir ağında da bilginin nerede depolandığını ya da  yararların nasıl alındığını bilemiyoruz. Bunlar bizim için adeta birer kara kutu. İçlerini  göremiyoruz ve bu hiç iyi bir şey değil. Örneğin güvenliğin kritik olduğu teknolojilerin daima çalışacağını kanıtlamamız gerekir. Örneğin otomatik giden trenler var ve onları idare eden  yazılımın güvenilirliği matematiksel olarak kanıtlandığı için kendimizi onlara teslim  edebiliyoruz.

Günümüzde birçok otomobil üreticisi özerk araçlar üzerinde çalışıyor ve hepsi değilse bile birçoğu derin öğrenmeyi algılayıcı verilerini yorumlamak ve yoldaki tehlikeleri tanımak için  kullanıyor. İyi ama sürücüsüz araçlara güvenebilir miyiz? Sonuçta yarı özerk sürüş sistemleriyle donatılmış araçların ölümlü trafik kazalarına yol açtığını şimdiden biliyoruz.

New York’ta, Mount Sinai’deki Icahn Tıp Fakültesi’nde araştırmacıların kısa süre önce yaptığı bir araştırma, hasta kayıtlarını analiz etmek için derin öğrenmeden faydalanıyor. 2016’da bu derin ağ 75.000 hasta kaydını ve 78 hastalığı inceledikten sonra ileri seviye diyabet, şizofreni ve çeşitli kanser vakalarını yüksek isabet oranıyla tahmin edebildi. Bu değerli  çalışma yaşam kurtarabilir. Ama bir doktor, hastasına onun şizofreniye yakalanma  ihtimalinin yüksek olduğunu çünkü bunu bir derin ağın söylediğini nasıl anlatabilir? Bir  doktor, ortada hiçbir açıklama yokken, önleyici tedavi uygulamak için bir tahmine güvenebilir mi?

Avrupa Birliği bu konuda o kadar endişeli ki daha şimdiden Genel Veri Koruma  Düzenlemesi’ni (GDPR) yürürlüğe soktu. Bu, makine öğrenimiyle ilgili haklarımızı da  düzenliyor. Mayıs 2018 itibariyle Avrupa Birliği yasasının 22. maddesi, herkesin “tümüyle otomatik işleme dayalı kararlara taraf olmama” ve bir bilgisayar tarafından verilen her türlü kararda “nasıl bir mantık uygulandığına ilişkin anlamlı bilgi edinme” hakkı bulunduğunu  ifade ediyor.

Bunlar sağduyulu önlemler ama işin aslı, derin öğrenmeyle uyumlu değil. Eğer ev kredisi başvurunuz bir derin öğrenme algoritması tarafından reddedilirse yasal olarak açıklama isteme hakkınız var. Ama bunu kanıtlamak imkânsız olabilir.

Google DeepMind’ın en son çalışmaları, bilişsel psikoloji yöntemleri kullanılarak bazı  açıklamaların yapılabileceğini akla getiriyor. Yani sinir ağları üzerinde deneyler yaparak (tıpkı beyinlerimizi anlamak için insanlar üzerinde yaptığımız testler gibi) onların neye tepki
verdiğini anlamak mümkün olabilir. Fakat kredi başvurunuz reddedildiyse ve tek açıklaması
“ağ bazen eğlence aktivitelerine yaptığınız harcamaları kılı kırk yararcasına inceliyor” olursa pek sevinmeyebilirsiniz.

Risk Farkındalığı

Derin ağlardaki şeffaflık eksikliği, diğer makine öğrenimi yaklaşımlarında yok. Birçok uygulama için alternatif YZ tekniklerini kullanmak ve insanlar tarafından okunabilir, eksiksiz açıklamalar almak olanaklı. Diğer yöntemlerin bir diğer avantajı da daha iyi bir formal (matematiksel) altyapıya sahip olmaları. Yani elde edilebilecek sonuçların güvenilirliğini çok daha net anlayabiliyoruz ve bu da söz konusu yöntemlere ne kadar güvenebileceğimizi kestirmemizi sağlıyor. Fakat bu diğer yöntemler derin öğrenme değil ve o yüzden o kadar da “havalı” bulunmuyor.

Derin öğrenme, sürücüsüz otolarda engel tanıma sistemleri lçin kullanılıyor. GETTY IMAGES

İnsan sürücüler o kadar çok ölüme yol açıyor ki kendi kendine giden otomobilleri şu ankinden daha güvenli yapmak aşılmaz bir problem olmamalı. Yine de derin öğrenmeyi belli uygulamalar için kullanmanın riskini haklı çıkaramıyoruz zira bunun nasıl çalıştığını, ne yapacağını en azından iş işten geçmeden anlayamıyoruz. Yollarımız, araçlarımız, binalar ve şehirler sürekli değişiyor. Eğer özerk otomobillerimizdeki derin öğrenme beyinlerinin nasıl çalıştığını bilemezsek, test edilmedikleri şeylerle karşılaştıklarında çalışacaklarından nasıl emin olabiliriz? Avrupa’da bunun yanıtı YZ algoritmaları için yeni düzenlemeler. Fakat sağduyumuzun da sesini dinlemeliyiz. Yapay zekâ tek bir teknoloji değil. Bir milyon farklı uygulamaya yönelik belki de bin farklı yaklaşım. Derin öğrenme şimdilerin modası olabilir ama tıpkı tüm diğer teknolojiler gibi önce test edilmesi ve her bir uygulama için güvenle
çalıştığının kanıtlanması gerekiyor. Yaşamımızı ancak bundan sonra ona emanet edebiliriz.

Dr. Peter Bentley – College London Üniversitesi Bilgisayar Bilimleri Bölümü’nde onursal profesör ve öğretim üyesi/Popular Science – Eylül 2019.

 

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz