Medyatava Yazmadıysa, doğru değildir!
  • Adana
  • Adıyaman
  • Afyon
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkari
  • Hatay
  • Isparta
  • Mersin
  • İstanbul
  • İzmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • K.Maraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
Dolar 42,4888
Euro 49,5253
Altın 5.746,32
Bist 10.919
Foto Galeri Video Galeri
Anasayfa Gündem Dünya Ekonomi Spor Magazin Kültür Sanat Yaşam Yazarlar
  1. Medyatava
  2. Teknoloji
  3. Deepfake videolar için korkutan açıklama

Deepfake videolar için korkutan açıklama

Deep Fusion Yapay Zeka Başkanı Darkin, yapay zekanın sinema ve medya sektöründe büyük bir dönüşüm yarattığını ancak korkutucu boyutu olduğunu belirtti. İşte ayrıntılar...

Kaynak: A.A
22 Mayıs 2025 17:59 Güncelleme: 22 Mayıs 2025 18:01
Deepfake videolar için korkutan açıklama - Resim : 1

Berlin'de düzenlenen GITEX Europe 2025 teknoloji fuarında konuşan İngiltere merkezli Deep Fusion şirketinin Yaratıcı Yapay Zeka Başkanı Darkin, yapay zekanın geldiği noktayı gözler önüne serdi. 20 yıldır sinema sektöründe görsel efektler üzerinde çalışan Darkin, artık sadece özel efektlerin değil, gerçekliğin de yapay olarak üretilebildiğini vurguladı.

Darkin, özellikle deepfake teknolojisinin yalnızca kötü amaçlarla değil, sinema ve medya alanında da etkili şekilde kullanılabileceğini söyledi.

Örneğin, bir dublörün yüzünü orijinal aktörle değiştirmenin etik bir deepfake örneği olduğunu belirtti. Ayrıca vefat etmiş kişilerle yapılmış röportaj kayıtlarının canlandırılarak video haline getirilmesinin de bu teknolojiyle mümkün olduğunu dile getirdi.

1 / 3
Deepfake videolar için korkutan açıklama - Resim : 2

Ancak asıl dikkat çeken kısım, yapay zekanın ulaştığı korkutucu boyuttu. Darkin, "Artık videolarda gördüğünüz şeylerin gerçekten yaşanıp yaşanmadığını ayırt etmek neredeyse imkansız hale geliyor. Bu çok tehlikeli bir eşik" sözleriyle uyardı.

Deepfake içeriklerin mutlaka etiketlenmesi gerektiğini, aksi halde sahte videoların toplumda ciddi güven krizlerine yol açabileceğini söyledi.

2 / 3
Deepfake videolar için korkutan açıklama - Resim : 3

Darkin, sahteciliğin yalnızca basılı materyallerde değil, artık yüksek çözünürlüklü videolarda da kolayca yapılabildiğine dikkat çekerek, "İnsanlar izledikleri içerikleri sorgulamalı. Şu anda deepfake'i anlamanın yolları var, ama bir noktadan sonra bu yöntemler de işe yaramayacak" dedi.

Yapay zekanın Hollywood kalitesinde filmleri evde üretmeyi mümkün kıldığını belirten Darkin, "Senaryoyu yapay zekaya yazdırıp, karakterleri oluşturabilecek, seslerini seçebilecek, hatta geçmişte yaşamış oyuncuları bile canlandırabileceksiniz. Tüm bunları oturma odanızda yapmanız mümkün olacak" diyerek sinema üretiminin demokratikleşeceğini, ancak bununla birlikte yeni etik ve güvenlik tartışmalarının da büyüyeceğini kaydetti.


3 / 3
Sıradaki Galeri İçin Sürükleyin
Medyatava Yazmadıysa, doğru değildir!
KÜNYE KULLANIM ŞARTLARI GİZLİLİK İLKELERİ ÇEREZ POLİTİKASI İLETİŞİM
©2013 - 2025 Medyatava.com Her hakkı saklıdır
Yazılım & Tasarım: Bilgin Pro

Bu site deneyimlerinizi kişiselleştirmek amacıyla KVKK ve GDPR uyarınca çerez(cookie) kullanmaktadır. Bu konu hakkında detaylı bilgi almak için tıklayın.
Sitemizi kullanarak, çerezleri kullanmamızı kabul edersiniz.

  • Medyatava

  • Anasayfa
  • Son Dakika
  • Foto Galeri
  • Video Galeri
  • Gündem
  • Dünya
  • Ekonomi
  • Spor
  • Magazin
  • Kültür Sanat
  • Yaşam
  • Teknoloji
  • Eğitim
  • Sağlık
  • Koronavirüs
  • Medya
  • Yazarlar
  • Editörün Seçtikleri
  • © 2025 Medyatava. Tüm hakları saklıdır. İçeriklerin izinsiz kopyalanması yasaktır.