Derin öğrenimli yapay sinir ağları şeklinde bilinen yapay zeka sistemleri, insanların sağlığı ve güvenliği için hayati önem taşıyan kararlarda (otonom sürüş veya tıbbi teşhislerde olduğu gibi) bilgi sağlamak üzere giderek artan bir şekilde kullanılıyor. Bu ağlar, karar verme sürecine yardımcı olmak üzere büyük, karmaşık veri dizilerinde yer alan kalıpları tanımada iyi verim gösteriyor. Peki hata yapıp yapmadıklarını nasıl bileceğiz? Alexander Amini ve MIT ile Harvard Üniversitesi’nde çalışan meslektaşları, cevabı bulmak istemiş.
Bir yapay sinir ağının verileri hesaplaması ve hem bir tahmin, hem de mevcut verilerin kalitesine dayanarak modelin güvenilirlik seviyesini sunması amacıyla hızlı bir yöntem geliştirmişler. Derin öğrenme günümüzde gerçek dünyada da uygulandığından, bu gelişme insanların hayatını kurtarabilir. Bir ağın güvenilirlik seviyesi, otonom bir taşıtın yolun açık olduğunu düşünüp kavşaktan geçmeye karar vermesi ile yolun muhtemelen açık olduğunu düşünüp, tedbir amaçlı durması arasındaki farkı meydana getirebilir.
Yapay ağlara yönelik belirsizlik tahminlerinde kullanılan mevcut yöntemler, genelde hesaplama yönünden masraflı ve anlık kararlar için de nispeten yavaş olabiliyor. Fakat Amini’nin “derin kanıtsal geri çekilme” adı verilen bu yaklaşımı, süreci hızlandırıyor ve daha güvenli sonuçlara yol açabiliyor. MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı’nda (CSAIL) çalışan Profesör Daniela Rus’un grubunda doktora öğrencisi olan Amini, “Yüksek verimli modellere ihtiyacımız olduğu kadar, bu modellere ne zaman güvenemeyeceğimizi de anlamamız gerekiyor” diyor.
“Bu hem önemli, hem de geniş şekilde uygulanabilir bir fikir. Öğrenilen modellere dayalı ürünlerin belirlenmesinde kullanılabilir. Öğrenilen bir modelin belirsizliğini değerlendirerek, bu modelden ne kadar hata bekleyeceğimizi ve hangi eksik verilerin modeli geliştireceğini de öğrenebiliriz” diyor Rus.
Daniel Ackerman/Massachusetts Teknoloji Enstitüsü. Ç: O.