Yapay Zekaları, İnsanlara Karşı Eşit Davranmaya Zorlayabilir Miyiz? Araştırmacılar Bu Konuda Yeni Bir Yol Buldu

0

YAZAR: PETER DOCKRILL

Görünüşe göre yapay zekanın öğrenemeyeceği şey yok gibi görünüyor. Evren’i canlandırabiliyor, sadece tek elle Rubik Küp çözmeyi öğrenebiliyor ve hatta geçmişimizde saklanan gizemli ataları bile buluyor.

Tüm bu gelişmelerin, bizim iyiliğimiz için olması gerekiyor. Fakat ya öyle olmazlarsa? Geçtiğimiz zamanlarda, insanların yaşamlarını şimdiden etkileyen algoritmik sistemlerin endişe verici seviyelerde önyargı sergiledikleri; suçu ırksal çizgilerde tahmin etmek ve cinsiyete dayalı kredi limitlerine karar vermek gibi şeyler yaptıkları görüldü.

Bilim insanları, arka plandaki bu koşullara karşı, gelişmiş düşünme sistemlerinin eşit ve hatta güvenli olmasını nasıl sağlayabilir?

Massachusetts Amherst Üniversitesi’ndeki araştırmacıların önderliğinde yapılan yeni çalışmada, bu konuya bir cevap sunulmuş gibi görünüyor ve araştırma takımının, zeki makinelerdeki “istenmeyen davranış” olarak adlandırdığı şeye karşı bir çerçeve tanımlanıyor.

Makine öğrenimi araştırmacısı Philip Thomas, “Birisi bir makine öğrenim algoritması uyguladığı zaman, onun davranışını denetim altına almak zor oluyor” diyor.

“Makine öğrenim algoritmaları, yaşamlarımızı giderek daha fazla etkiler hale geldiğinden; eşitliği temin etmeyi ve zararı önlemeyi kolaylaştırmak, daha da önem kazanıyor.”

Yapay zeka araştırmacılarının, yeni türden makine öğrenim (ML) algoritmaları geliştirmesine yardımcı olabilecek bu çerçeve, yapay zekalara doğuştan gelen bir ahlak veya eşitlik anlayışı aşılamıyor. Bunun yerine; ML araştırmacıları çekirdek algoritmaları tasarlarken, istenmeyen davranışları belirlemeyi ve düzenlemeyi kolaylaştırıyor.

Bu yeni sistemin merkezinde, takımın ‘Seldoncu’ algoritmalar olarak adlandırdığı şeyler bulunuyor. Bu isim, Isaac Asimov’un Vakıf ismini taşıyan meşhur bilim kurgu romanı dizisinin ana karakterine ithafen verilmiş. Bu algoritmalar, yalnızca etik uygulamayı sağlama amacı taşımıyor; bunlarla birlikte, tıbbi sistemlerdeki karmaşık güvenlik özellikleri gibi her türden davranış denetim altına alınabiliyor.

“Eğer diyabet tedavisi için Seldoncu bir algoritma kullanırsam; bu istenmeyen davranışın, tehlikeli ölçüde düşük şekeri veya hipoglisemi anlamına geldiğini belirtebilirim” diyor Thomas.

“Makineye şöyle diyebilirim: ‘Sen insülin pompasındaki kontrolcüyü geliştirmeye çalışırken, hipoglisemi sıklığını artıracak değişimler yapma.’ Çoğu algoritma, davranış üzerinde bu türden bir sınırlama koyma imkanı sunmuyor; ilk tasarımlarda böyle bir şey yoktu.”

Takım, araştırmalarının parçası olarak, otomatik bir insülin pompasını kontrol etmek amacıyla tam da böyle Seldoncu bir algoritma geliştirmiş ve kişinin kanındaki glukoz okumalarına dayalı şekilde, dozları güvenli biçimde tahmin etmek üzere özel bir yöntem belirlemiş.

Bir başka deneyse ise; öğrencilerin GNO’larını tahmin etmek için bir algoritma geliştirmiş; fakat bu sırada da yaygın biçimde kullanılan bağlanım algoritmalarında bulunan cinsiyet önyargılarından kaçınmışlar.

Araştırmacılar, bu deneylerin yalnızca, Seldoncu algoritmaların yapabileceklerini kanıtlayan şeyler olduğunu ve çalışmanın temel odağının, çerçevenin kendisi olduğunu vurguluyorlar. Ayrıca araştırmacıların söylediğine göre diğer bilim insanları, gelecekte yapay zeka sistemleri yapmak üzere bu çerçeveyi bir rehber şeklinde kullanabilirler.

“Bu alanda devasa bir gelişim potansiyeli olduğuna inanıyoruz” diyor Thomas.

“Basit bileşenlerden meydana gelen bu algoritmalarla bile etkileyici sonuçlar elde ettik. Umuyoruz ki; makine öğrenimi üzerinde çalışan araştırmacılar, çerçevemizi kullanarak yeni ve daha ileri algoritmalar geliştirmeye devam edecekler. Bu algoritmalar, makine öğreniminin çok tehlikeli olarak düşünüldüğü uygulamalarda bilinçli şekilde kullanılabilir.”

Bulgular, Science bülteninde sunuldu.

 

 

 

 

ScienceAlert

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz