Menu

MIT’nın yeni PhotoGuard’ı, fotoğraflarınızı istenmeyen AI düzenlemelerine karşı koruyor

MIT’nın yeni “PhotoGuard” tekniği, fotoğraflarınızı yapay zeka ile manipüle etmek isteyenlere karşı eşsiz bir savunma sağlıyor.

admin 7 ayönce 0

Dall-E ve Stable Difusion yalnızca başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobe gibilerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra yeni görseller oluşturma gücü de kazanıyor. Lakin yapay zeka takviyeli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin müsaadesiz olarak değiştirilmesi yahut direkt çalınması üzere tanıdık tuzakları da beraberinde getiriyor. Filigran teknikleri, çalıntı risklerini hafifletmeye yardımcı olabiliyorken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, müsaadesiz değiştirmeleri önlemeye yardımcı olabilir.

PhotoGuard nasıl çalışıyor?

PhotoGuard, bir manzaradaki seçili pikselleri, yapay zekanın imgenin ne olduğunu manaya yeteneğini bozacak halde değiştirerek çalışıyor. Araştırma grubunun isimlendirdiği biçimiyle bu “düzensizlikler” insan gözüyle görülemez lakin makineler tarafından basitçe okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” hücum tekniği, algoritmik modelin, bir imajdaki her pikselin pozisyonunu ve rengini tanımlayan karmaşık süreci olan maksat imgenin kapalı temsilini maksat alıyor ve esasen yapay zekanın neye baktığını anlamasını engelliyor.

Daha gelişmiş ve hesaplama açısından ağır olan “difüzyon” taarruz yolu ise, bir imgeyi yapay zekanın gözünde farklı bir imaj olarak kamufle ediyor. Bu sistem, bir maksat manzarayı tanımlıyor ve amacına benzeyecek biçimde manzaradaki düzensizlikleri optimize ediyor. Bir yapay zekanın bu sağlam imajlar üzerinde yapmaya çalıştığı rastgele bir düzenleme, geçersiz “hedef” imgelere uygulanarak gerçekçi olmayan bir imaj oluşmasına neden oluyor.

MIT doktora öğrencisi ve çalışmanın baş müellifi Hadi Salman, Engadget ile yaptığı görüşmede “Kodlayıcı saldırısı, modelin giriş manzarasının (düzenlenecek) öbür bir manzara (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor” diyor ve devam ediyor: “Difüzyon saldırısı ise, difüzyon modelini birtakım maksat imgelere (gri yahut rastgele bir imaj de olabilir) yönelik düzenlemeler yapmaya zorlar.

Salman yaptığı açıklamada, “Model geliştiricileri, toplumsal medya platformları ve siyaset yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz imaj manipülasyonuna karşı güçlü bir savunma sunuyor. Bu acil husus üzerinde çalışmak bugün büyük kıymet taşıyor” diyor ve kelamlarını “bu tahlile katkıda bulunmaktan memnuniyet duysam da, bu muhafazayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı muhtemel tehditlere karşı sağlam tedbirler tasarlamaya yatırım yapması gerekiyor” diyerek tamamlıyor.

Oyun Haberleri

0 Kullanıcı Oyu ( 0 out of 0 )

Değerlendirme

Etiketler
– Advertisement – LoL RP Oyuneks
Yazar

– Advertisement –
LoL RP Oyuneks