DOLAR 31,3677 0.42%
EURO 34,0595 0.51%
ALTIN 2.101,432,38
BITCOIN %
İstanbul
11°

PARÇALI BULUTLU

02:00

İMSAK'A KALAN SÜRE

MIT’nin ‘PhotoGuard’ özelliği, görüntülerinizi kötü niyetli AI düzenlemelerinden korur
  • Eğirdir Haber
  • Teknoloji
  • MIT’nin ‘PhotoGuard’ özelliği, görüntülerinizi kötü niyetli AI düzenlemelerinden korur

MIT’nin ‘PhotoGuard’ özelliği, görüntülerinizi kötü niyetli AI düzenlemelerinden korur

ABONE OL
Temmuz 24, 2023 21:30
MIT’nin ‘PhotoGuard’ özelliği, görüntülerinizi kötü niyetli AI düzenlemelerinden korur
0

BEĞENDİM

ABONE OL

Dall-E ve Stable Difusion sadece başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobe gibilerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra onları oluşturma gücü kazanıyor. Ancak yapay zeka destekli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin izinsiz olarak değiştirilmesi veya doğrudan çalınması gibi tanıdık tuzakları beraberinde getiriyor. Filigran teknikleri, ikincisini hafifletmeye yardımcı olabilirken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, ilkini önlemeye yardımcı olabilir.

PhotoGuard, bir görüntüdeki seçili pikselleri, yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde değiştirerek çalışır. Araştırma ekibinin atıfta bulunduğu şekliyle bu “tedirginlikler” insan gözüyle görülemez ancak makineler tarafından kolayca okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” saldırı yöntemi, algoritmik modelin hedef görüntünün gizli temsilini hedefler – bir görüntüdeki her pikselin konumunu ve rengini tanımlayan karmaşık matematik – esasen yapay zekanın neye baktığını anlamasını engeller.

Daha gelişmiş ve hesaplama açısından yoğun olan “difüzyon” saldırı yöntemi, bir görüntüyü yapay zekanın gözünde farklı bir görüntü olarak kamufle eder. Bir hedef görüntü tanımlayacak ve hedefine benzeyecek şekilde görüntüsündeki pertürbasyonları optimize edecektir. Bir yapay zekanın bu “bağışıklı” görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, sahte “hedef” görüntülere uygulanarak gerçekçi olmayan bir görüntü oluşmasına neden olur.

MIT doktora öğrencisi ve makalenin baş yazarı Hadi Salman, Engadget’e “”Kodlayıcı saldırısı, modelin giriş görüntüsünün (düzenlenecek) başka bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor” dedi. “Oysa difüzyon saldırısı, difüzyon modelini bazı hedef görüntülere (bu aynı zamanda gri veya rastgele bir görüntü de olabilir) yönelik düzenlemeler yapmaya zorlar.”

“Model geliştiricileri, sosyal medya platformları ve politika yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunuyor. Salman yaptığı açıklamada, bu acil konu üzerinde çalışmak bugün büyük önem taşıyor” dedi. “Bu çözüme katkıda bulunmaktan memnuniyet duysam da, bu korumayı pratik hale getirmek için çok çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı olası tehditlere karşı sağlam bağışıklamalar tasarlamaya yatırım yapması gerekiyor.”

Bu yazı yorumlara kapatılmıştır.

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.