Microsof’un Yeni Video Doğrulayıcısı, Sahte Videoların Ayıklanmasına Yardımcı Olabilir

0
Araç, sağdaki görüntünün sahte olduğuna inanıyor ve kendinden yüzde 100 emin. Microsoft

Birleşik Devletler 2020 başkanlık seçimlerine yaklaşırken, büyük teknoloji şirketleri yapay zekayla değiştirilmiş videoların tespiti için yeni araçlar üzerinde çalışıyor.

Deepfakes (yapay zeka ile oluşturulan sahte videolar) eğlenceli olabilir. Jim Carrey’i, Cinnet filmindeki Jack Nicholson’un rolüne sokan ve bunu da mükemmel biçimde yapan bu videolar, insanları sonu gelmez biçimde eğlendiriyor. Fakat önümüzdeki ABD seçimleri yaklaştıkça, analizciler deepfake videolarının olası seçmenlere ulaşıp dezenformasyon oluşturmasını bekliyorlar.

Microsoft, bu hafta Video Doğrulayıcı adını verdiği yeni bir yazılımı duyurdu. Yazılım videoları otomatik şekilde çözümleyerek, görüntülerin algoritmayla kurcalanıp kurcalanmadığını belirliyor.

Yazılım, videoları gerçek zamanda çözümlüyor ve kare kare inceliyor. Bir yönden, aşina olduğumuz adli fotoğrafi yöntemlerine benzer çalışıyor. Kenarlarda, renk bilgisinin eksik olduğu hafif renk değişimleri veya ufak piksel kümeleri (bkz. yapay doku) şeklinde kendini belli edebilen uyumsuzluklar olup olmadığına bakıyor. Bunları kendi gözlerinizle güç bela fark ediyorsunuz; özellikle düzinelerce kare, her saniye hızla geçip giderken.

Yazılım çözümlemesini gerçekleştirirken, bir görüntünün meşruiyetinden ne kadar emin olduğunu belirtmek amacıyla ya bir yüzde, ya da bir güven puanı gösteriyor. Tekil bir karenin sahtesini yapmak, bu noktada çağdaş yapay zeka yöntemlerini kullanarak nispeten kolay bir durum. Fakat hareket, işin işine ilave bir zorluk seviyesi katıyor ve yazılım genelde ipuçlarını buradan topluyor.

Araştırmaların gösterdiğine göre hatalar genelde özneler yandan görünürken, 45 dereceden fazla ve hızla dönerken ya da başka bir nesne hızla kişinin suratının önünden geçtiği zaman gerçekleşiyor. Bunlar gerçek dünyada nispeten yaygın biçimde meydana gelse de; seçim sezonu esnasında ana hedefler olan aday konuşmaları veya video aramaları sırasında nadiren gerçekleşiyorlar.

Stan Horaczek/Popular Science. Ç: O.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz