Zodyak Işareti Için Tazminat
İbladlık C Ünlüleri

Zodyak İşareti Ile Uyumluluğu Bulun

Mark Zuckerberg ve Alex Jones'un derin bir sahtekarlığını yaratmaya çalıştık ve başarısız olduk. İşte olanlar.

Doğrulama

Hiç olmamış bir şeyi birisi yapmış veya söylemiş gibi göstermek göründüğünden daha zordur.

Poynter, Infowars sunucusu ve sık sık komplo teorisyeni Alex Jones'un, aslında Facebook CEO'su Mark Zuckerberg tarafından yapılan açıklamalarda bulunduğu 'derin sahte' bir videoyu oluşturmaya çalışırken geçtiğimiz haftalarda bunu öğrendi. Deepfake'ler, Reddit kullanıcısının adını taşıyan Yöntemi bulan kişiler, esas olarak bir videodan çok sayıda karenin çıkarılması ve üst üste bindirilmesiyle oluşturulur.

Amaç: Biri yapmadığı bir şeyi yapıyor veya söylüyormuş gibi görünmesini sağlayın. Ve Poynter'ın bu teknolojinin aslında kullanımının ne kadar kolay olduğunu görmek için yapmaya çalıştığı şey buydu.

kullanma Sahte Uygulama Kullanıcıların kendi deepfakelerini oluşturmalarına olanak tanıyan ücretsiz bir çevrimiçi araç olan Zuckerberg'in Jones'un temelsiz komplo teorilerini dile getirdiği ilkel bir video oluşturmaya çalıştık. Aşağıda, Poynter'in yarı zamanlı web geliştiricisi Warren Fridy'nin yardımıyla oluşturulan video bulunmaktadır.

Açıkçası bu, bir şeyin iyi bir versiyonu değil amatör porno , insanlar yan web sitelerinde ve hatta siyasi partiler bu konuda endişe verici derecede yetkin hale geldiler. Zuckerberg'in yüzü gerçekten de Jones'un üzerine bindirilmiş olsa da, FakeApp yüzünün tamamını dahil ederek onu, fark edilebilir gözleri olmayan bir tür bulanık iblis gibi görünmesini sağladı. Sonra sesin transpoze olmadığı gerçeği var.

Kısacası: Günlük işlerimizi sürdürmeliyiz.

Şaka bir yana, geçerli bir derin sahte videodan bile uzak bir şey bulmamız haftalarımızı aldı. Ve bunun nedeni - kıyamet günü medyasında deepfake teknolojisinin sık sık yer almasına rağmen - aslında çok zor bir tane oluşturmak için.

'Deepfake oldukça fazla manuel çaba gerektiriyor' dedi. Matthias Niessner , laboratuvarı olan Münih Teknik Üniversitesi'nde profesör araştırmalar deepfakes, Poynter'a gönderilen bir e-postada. “Photoshop'a benzer bir şekilde görebiliyordunuz. Sadece biraz fazla abartılmış.'

Bugün Roma'daki Küresel Gerçek Kontrol Zirvesi'ndeki bir panelde tartışılan deepfake'lerin yükselişi, ürkütücü bir internet meselesi olmaktan çıkıp demokrasiye yönelik gerçek bir tehdide dönüştü. Yuvarlanan kaya . Vox yazdı manipüle edilmiş videoların anılarımızı değiştirebileceğini, The Verge dedi Deepfake porno videoları oluşturmak yakında çok kolay olacak ve Kablolu bile kaplı kendisini formatla mücadele etmeye adayan bir blockchain girişimi.

Aynı zamanda, bazıları bildirdi genel derin sahtekarlıkların çoktan bittiği ve hepimizin endişelenmesi gereken şeyin 'derin video portreleri' olduğu.

Bu arada, bir aydan uzun süren bir denemeden sonra, marjinal olarak bile gerçekçi görünen bir şey üretmeyi zar zor başardık. Elbette, bu (haklı olarak) kendi makine öğrenimi modelleriyle ilgili cehaletimize bağlanabilir — diğer gazeteciler daha başarılı oldular - ancak buradaki önemli nokta, önemli ölçüde değiştirilmiş video oluşturmanın henüz Facebook'ta sahte bir haber hikayesi yayınlamak kadar kolay olmadığıdır (ve muhtemelen o kadar karlı değil).

“Derin öğrenme konusunda herhangi bir deneyimi olmayan kişilerin, çevrimiçi olarak sunulan deepfake uygulamasını kullanarak ikna edici bir derin sahte video oluşturabileceğini düşünmüyorum” dedi. Annalisa Verdoliva , Napoli Üniversitesi Federico II'de yardımcı doçent olarak Poynter'a bir e-posta gönderdi. “Uzman insanlar için bile oldukça zor.”

Verdoliva, bir araştırma ekibiyle kendi derin sahte videosunu oluşturmaya çalıştı ve derin sahtekarlığı oluşturan modeli doğru bir şekilde eğitmek için görüntülerde yeterli çeşitlilik elde edemedikleri için başarısız olduğunu söyledi. Bu, Poynter gibi sahtekarlar için de önemli bir zorluk.

İşte attığımız adımlar:

  1. FakeApp'i indirdik ve bir Windows uzak masaüstüne kurduk (Poynter neredeyse yalnızca FakeApp'in uyumlu olmadığı Mac'leri kullanır.)
  2. İki video klip indirdik — Zuckerberg'den biri 2016 ABD seçimlerine Rus müdahalesinin soruşturulmasından bahseden ve Jones'tan bir başkası “derin devlet”ten ve Başkan Donald Trump'ın siyasi gündeminden bahsediyor. Bu, FakeApp'e aralarından seçim yapabileceği çok sayıda yüz resmi verir.
  3. FakeApp'e güç veren 'yapay zekanın', her videodaki yüzleri bulup kırparak, Jones ve Zuckerberg'i karıştırarak birincisi ikincisi gibi konuşuyormuş gibi görünmesini sağlayacak bir makine öğrenimi modeli oluşturmasına izin verdik. Bu bütün bir hafta sonu ya da yaklaşık üç gün sürdü.
  4. Sonunda FakeApp videoyu oluşturdu. Fridy, modeli daha doğru hale getirmek için Zuckerberg'in yüzünün daha fazla fotoğrafıyla daha uzun süre eğitebileceğini, ancak bunun daha uzun süreceğini söyledi.

Şimdi eğlenceli kısım için. FakeApp kullanırken karşılaştığımız sorunlardan bazıları şunlardır:

  1. FakeApp'i Apple'ın macOS'unda çalıştıramazsınız - bizim için yalnızca Windows'ta çalıştı.
  2. sahip olmalısın NVIDIA tabanlı grafik kartı , esasen tüm görüntüleri işlemenize ve birlikte dönüştürmenize izin veren bir donanım parçasıdır.
  3. Bilgisayarınızda çok fazla belleğe sahip olmanız gerekir - yaklaşık 10 GB ya da öylesine.
  4. FakeApp'in makine öğrenimi modelini oluşturmasına olanak tanıyan bir yazılım kitaplığı olan TensorFlow'un farklı sürümleriyle uyumluluk sorunlarıyla karşılaştık.
  5. Deepfake'e eklemek için orijinal videodan sesi çıkardık, ancak FakeApp bununla hiçbir şey yapmadı.

Fridy, 'FakeApp kulağa hoş geliyor, ancak denemek için kendi başınıza oturduğunuzda yüzde 100 çalışmıyor' dedi. 'Kutunun dışında bir araç değil.'

Sahte Uygulama bildirildi 100.000'den fazla kez indirildi. Deepfake'lerin yaratılmasına adanmış 4chan ve Reddit kanallarının tamamı var. Ancak şimdilik, teknoloji en iyi ihtimalle ilkel - onu nasıl doğru kullanacağını bilenler için bile.

Sahte Uygulama

(FakeApp'ten ekran görüntüleri)

Fridy dedi ki teknoloji Adobe After Effects ve lir kuşu , birlikte Yüz2Yüz ve piksel2 piksel , derin sahte bir video oluşturmak için muhtemelen daha iyi bahisler olurdu. S.pa, bir Belçika siyasi partisi Derin bir Trump sahtekarlığı yarattı geçen ay After Effects kullanıldı.

Araç komplikasyonlarına rağmen, derin sahte videolar hala endişe verici - sadece yakın gelecekte değil ve birkaç uyarıyla.

Verdoliva, 'Bu teknolojinin henüz başındayız ve yakında gelişeceğini ve herkes için kullanımı kolay hale geleceğini düşünüyorum.' Dedi. 'Şu anda çözünürlük hala çok düşük, ancak bu yakın gelecekte bir sorun olacak çünkü yüksek kaliteli sentetik yüzlerin üretilmesinde çarpıcı bir ilerleme kaydedildi.'

Aynı zamanda, derin sahtekarlıkların etkisini ve potansiyelini yanlış anlamak ve abartmak kısa vadede daha büyük bir tehdit oluşturabilir.

Niessner, 'Şu anda en büyük endişem, bu yaklaşımların çoğunun yanlış anlaşılmasıdır' dedi. “Film endüstrisi son 30 yıldır oldukça gerçekçi 'sahte' görüntüler yapıyor. Ancak şimdi yapay zekayı moda bir kelime olarak eklemek, o kadar iyi çalışmasa da, birdenbire bir sorun haline geldi.”

Deepfake videolar bugün Global Fact 5'teki bir panelde tartışılacak. Canlı güncellemeler için @factchecknet ve #GlobalFactV'i takip edin.