Günün Haberleri Giriş Sayfam Yap Favorilere Ekle Künye İletişim Son Dakika Ekle RSS
 
 
     
 
 
  • Dolar
    5,8358
  • Euro
    6,5079
  • Altın
    277,8360
  • Bist-100
    110.509,3000
 

ANKARA

0/9 °C
GÜNDEM SİYASET DÜNYA EKONOMİ KÜLTÜR & SANAT MAGAZİN SPOR TÜMÜ
  Misrata kenti seferberlik ilan etti  
 
  Yangınların bilançosu artıyor  
 
  Beşir idam cezası alabilir  
 
  Endonezya'da 5 büyüklüğünde deprem  
 
  KDV ve tapu harcı indiriminde son 15 gün  
 
  Esnaf ve tüccar için e-fatura uyarısı  
'Korkutan teknoloji' Deepfake
 Korkutan teknoloji  Deepfake
 
Mona Lisa'nın "konuşturulduğu" yapa zeka temelli "Deepfake" teknolojisinin, yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.
 
12 Temmuz 2019 Cuma - 10:48

Mona Lisa'nın "konuşturulduğu" yapa zeka temelli "Deepfake" teknolojisinin, sinema sektöründe işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.

Son günlerde adı sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.

Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.

Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine olanak sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.

"Algı yönetimi amacıyla kullanılabilir"

"Deepfake" teknolojisi hakkında değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Başkanı Rahmi Aktepe, söz konusu teknolojinin, videoların manipüle edilmesinde ve sahte videolar üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, "Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı yönetimi amacıyla kullanılabilir." dedi.

Aktepe, bazı ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, "ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır." ifadelerini kullandı.

İnsanların hayatını kolaylaştırmak, iş süreçlerinin iyileştirmek amacıyla geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne gibi zararlar verebileceğine “Deepfake” teknolojisinin iyi bir örnek olduğunu savunan Aktepe, "Söz konusu teknik, görüntü işleme ve sinema sektörüne yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından kötü amaçlar için, yani etik dışı olarak yaygın bir şekilde kullanılmaktadır." değerlendirmesinde bulundu.

Aktepe, kişilere özgün görüntü ve ses işleyebilme özelliği sayesinde söz konusu teknolojinin sinema ve televizyon sektöründe maliyet etkin olarak kullanılmaya başlandığına ancak etik dışı kullanıma yönelik bazı riskleri de barındırdığına da dikkati çekti.

"Deepfake"in siber zorbalık amacıyla kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber saldırılarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, "Söz konusu teknolojinin toplumlarda algı yönetimi ile kaos yaratılması ve toplumsal olayların tetiklenmesi amacıyla da kullanılabileceğini değerlendiriyoruz." ifadelerini kullandı.

"Hayata döndürülen" ünlüler

Samsung'un Moskova'daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip sahte video elde etme teknolojisi geliştirildiği duyurulmuştu.

"Deepfake" teknolojisiyle Mona Lisa'nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein gibi ünlü isimlerin de fotoğraflarını video haline getirerek YouTube'da yayınlamıştı.
AA


Bu haber 99 defa okunmuştur.

Arkadaşına Gönder   Yazdır   Önceki sayfa   Sayfa başına git  
 
 
S-400 teslimatı başladı
 
Irak'ın kuzeyinde 6 terörist etkisiz hale getirildi
 
 
FACEBOOK YORUM Yorumlarınızı Facebook hesabınız üzerinden yapın hemen onaylansın...
YORUMLAR     Onay bekleyen yorum yok.
 

Küfür, hakaret içeren; dil, din, ırk ayrımı yapan; yasalara aykırı ifade ve beyanda bulunan ve tamamı büyük harflerle yazılan yorumlar yayınlanmayacaktır.
 
 
 
   
 
Bu haber henüz yorumlanmamış...

 
DİĞER HABERLER
 
Resmi Gazete mobilde
Cumhurbaşkanlığı Hukuk ve Mevzuat Genel Müdürlüğü tarafından hazırlanan ...
Türksat'tan araçlara kesintisiz internet
Türksat AŞ tarafından geliştirilen antenle hareket halindeki kara taşıtlarına ...
Bakanlıktan uyarı
Ulaştırma ve Altyapı Bakan Yardımcısı Sayan, WhatsApp uygulamasındaki ...
iPhone kullanıcıları dava açabilecek
iPhone kullanıcıları, uygulama ücretleri için Apple'a dava açabilecek.
 
 
Türkiye'den Facebook'a ceza
Kişisel Verileri Koruma Kurulu, Facebook'a 1 milyon 650 bin lira idari ...
Apple'a milyar dolarlık dava
18 yaşındaki öğrenci, üz tanıma yazılımının yanlışlıkla tutuklanmasına ...
Instagram'dan parola saklandı
Facebook, sahibi olduğu Instagram uygulamasına ait milyonlarca kullanıcının ...
Özel kargo adresine ulaştı
Yörüngedeki astronotlara paskalya için gönderilen yiyecekleri taşıyan ...
 
 
Yörüngede uydu yarışı kızışıyor
SpaceX'in Arabsat 6A uydusu ile ilk ticari fırlatmasını yapması üzerine ...
Namluların ömrünü uzatacak
Yerli ve milli silahlar üreten MKEK Silah Fabrikasında, silahların namlu ...
Apple uzlaşma yoluna gitti
ABD'li teknoloji devi Apple ile çip üreticisi Qualcomm, patent anlaşmazlığında ...
İlk kez görüntülendi
Bilim adamları M87 Galaksisi'nin merkezindeki süper masif kara deliğin fotoğrafını yayımladı.
 
 
  FACEBOOK'TA ARENA
  GÜNÜN MANŞETLERİ
Türkiye'den ilk İHA havalandı

Türkiye'den ilk İHA havalandı

  FOTO GALERİ
'Yangınlı' çevre protestosu

"Yangınlı" çevre protestosu

  ÇOK OKUNANLAR
  ÇOK YORUMLANANLAR
  ANKET
     
 
Yargıya güveniyor musunuz?

Evet
Hayır

Sonuçlar Anket arşivi
 
     
 
 
  •Künye
  •İletişim
  •Reklam
  •Sitene EKle
 
 
  •Haber
  •Güncel
  •Gündem
  •Siyaset
  •Dünya
  •Ekonomi
  •Sağlık
  •Kültür & Sanat
  •Magazin
  •Spor
 
 
  •Gündem
  •Sağlık
  •Komedi
  •Ekonomi
  •Yaşam
  •Dünya
  •Bilim ve Teknoloj
  •Kültür Sanat
  •Spor
  •Magazin
 
 
  •Gündem
  •Komedi
  •Bilim ve teknoloji
  •Ekonomi
  •Dünya
  •Yaşam
  •Magazin
  •Kültür sanat
  •Spor
  •Haber