Yapay Zeka, Diz Röntgeninden Bira İçip İçmediğinizin Belli Olabileceğini Düşündü

0
Bazı yapay zeka modelleri, örüntülerde aslında hiçbir anlama gelmeyen anlamlar buluyor. Görüntü: Deposit Photos

‘Saptadıkları örüntülerin hepsi anlamlı veya güvenilir değil.’

Bazı yapay zeka modelleri, şu eski “Bağlantı olması nedensellik olduğu anlamına gelmez” ilkesini öğrenmekte güçlük yaşıyor. Bu durum yapay zeka araçlarından vazgeçme sebebi olmasa da kısa süre önce yürütülen bir çalışma, bu teknolojinin güvenilir versiyonlarının bile hâlâ tuhaf olaylara yatkın olduğunu hatırlatıyor programcılara: Diz röntgenlerinden birinin bira içtiğini veya kızartılmış fasulye yediğini kanıtlayabileceğini iddia etmek gibi.

Yapay zeka modelleri, (ara sıra yanıltıcı) metin yanıtları ve (bir derece) gerçekçi videolar oluşturmaktan çok daha fazlasını yapıyor. Gerçekten iyi yapılmış araçlar halihazırda tıbbi araştırmacıların veri seti hazinelerini ayrıştırıp yeni buluşlar keşfetmesine, hava durumu kalıplarını doğru şekilde tahmin etmeye ve çevre koruma çalışmalarını değerlendirmeye yardımcı oluyor. Fakat Scientific Reports bülteninde yayımlanan bir çalışmaya göre algoritmik “kısayol öğrenme”, hem yüksek ölçüde doğru hem de yanlış yönlenmiş sonuçlar üretme problemi sergilemeye devam ediyor.

Dartmouth Health isimli bir sağlık kuruluşunda çalışan araştırmacılar, geçenlerde tıbbi YZ modellerini ABD Ulusal Sağlık Enstitüleri’ne bağlı Kireçlenme Girişimi tarafından sağlanan 25.000’i aşkın diz röntgeniyle eğitmiş. Sonrasında ise aslında geriye doğru çalışmış ve bu derin öğrenme algoritmalarından anlamsız özellikleri (hangi diz sahiplerinin net biçimde bira içtikleri veya kızarmış fasulye yedikleri gibi) haber veren ortak durumları bulmasını istemişler. Çalışmanın yazarlarının açıklamasına göre apaçık absürt bir durum ortaya çıkmış.

“Modeller, dizlerimizde fasulyelerle ya da birayla alakalı gizli bir gerçeği açığa çıkarmıyor” yazıyor araştırmacılar.

Araştırma takımı ayrıca bu tahminlerin “salt şansın” bir sonucu olmadığını da açıklıyor. Altta yatan sorun, derin öğrenme modellerinin kolay tespit edilebilen (ama halen alakasız veya yanıltıcı olan) kalıplar yoluyla bağlantılar bulduğu algoritmik kestirmecilik şeklinde bilinen bir şey.

“Kestirmecilik, şaşırtıcı derecede doğru ve bütün yüzeysel geçerliliklerden yoksun tahmin modelleri oluşturmayı sıradan hale getiriyor” şeklinde uyarıyor araştırmacılar.

Örneğin algoritmaların tespit ettiği değişkenler arasında, röntgen makinesi modellerindeki ya da cihazın coğrafi konumlarındaki farklılıklar gibi alakasız unsurlar yer alıyor.

Dartmouth Health’te yardımcı ortopedi profesörü olarak çalışan ortopedi cerrahı ve makalenin kıdemli yazarı Peter Schilling, “Bu modeller insanların göremediği kalıpları görebiliyor fakat saptadıkları kalıpların hepsi anlamlı veya güvenilir olmuyor” şeklinde ekliyor Aralık ayında yapılan bir açıklamada. “Bu risklerin farkına varıp, yanlış yönlendiren sonuçları önlemek ve bilimsel bütünlüğü sağlamak büyük önem taşıyor.”

Devam eden başka bir problem ise YZ kestirim öğrenmesini düzeltmenin kolay bir yolu yok gibi durması. Söz konusu sapmaları ele alma girişimleri de sadece “çok az başarılı” olmaz.

Makine öğrenme bilimci ve makale eş yazarı Brandon Hill, “Bu ırk veya cinsiyet kaynaklı sapmalardan daha öteye gidiyor” diyor. “Algoritmanın bir röntgenin hangi yıl çekildiğini bile tahmin edebileceğini keşfettik. Tehlikeli bir şey bu; söz konusu unsurlardan birini öğrenmesini engellerseniz, bunun yerine daha önce görmezden geldiği bir şeyden öğrenir.”

Hill’e göre bu problemler, insan uzmanların yapay zeka modelleri tarafından yapılan “ciddi anlamda şüpheli bazı iddialara” güvenmesine yol açabilir. Schilling, Hill ve meslektaşlarına göre bu durum, tahminsel derin öğrenme programlarının kullanım alanları bulunsa da; tıbbi araştırma gibi durumlarda kullanıldıkları zaman ıspat yükünün çok daha dikkat istemesi anlamına geliyor. Hill, yapay zeka ile çalışmayı dünya dışı bir yaşam formuyla uğraşırken aynı zamanda ona insani nitelikler vermeye çalışmaya benzetiyor.

“Modelin dünyayı bizimle aynı ‘gördüğü’ varsayımına kapılmak inanılmaz derecede kolay” diyor. “Nihayetinde görmüyor. Kendisine verilen işi çözmenin bir yolunu öğrenmiş ama bunu bir insan gibi yapmayabiliyor. Bizim genel olarak anladığımız şekilde bir mantığı veya muhakemesi bulunmuyor.”

Yazar: Andrew Paul/Popular Science. Çeviren: Ozan Zaloğlu.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz