00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
EN ÇOK OKUNAN 5 HABER
07:30
7 dk
HABERLER
11:00
5 dk
HABERLER
12:00
5 dk
HABERLER
13:00
5 dk
HAFTA SONU HALLERI
13:05
114 dk
HABERLER
15:00
5 dk
HABERLER
16:00
5 dk
HABERLER
17:00
5 dk
HABERLER
18:00
6 dk
SESLİ HABER
Moldovalı muhalif siyasetçi: AB, ülkemizi savaş alanına dönüştürmek istiyor
09:03
2 dk
SESLİ HABER
'Her şeyi yiyen' bir kara delik bulundu
09:17
2 dk
EN ÇOK OKUNAN 5 HABER
Türkiye neyi takip etti?
09:30
7 dk
SESLİ HABER
ABD Kongre Üyesi: Hükümetimiz için bir utanç kaynağı
09:48
2 dk
HABERLER
Saat başı başlıkları
11:00
1 dk
SESLİ HABER
Rus uzman: ABD, bu çatışmaya ihtiyaç duyuyor
11:09
3 dk
SESLİ HABER
Eski Fransız istihbaratçısı: Ukrayna saflarında Fransız askerler çarpıştı
11:22
2 dk
SESLİ HABER
Dünyanın en güçlü böceği Hakkari'de ortaya çıktı
11:34
2 dk
SESLİ HABER
İngiliz uzman Ukrayna ordusunu bekleyen tehlikeyi açıkladı
11:45
1 dk
HABERLER
Saat başı başlıkları
12:00
1 dk
SESLİ HABER
Ukrayna ordusunun saldırılarını NATO planlıyor
12:08
2 dk
SESLİ HABER
Navigasyon kullananlar dikkat: Yanlış yola sokup faciaya sebep oldu
12:22
2 dk
SESLİ HABER
Rus askeri uzman: Türkiye, NATO’da ‘üvey evlat’
12:52
4 dk
HABERLER
Saat başı başlıkları
13:00
1 dk
HAFTA SONU HALLERI
Erdal Kaplanseren'le Hafta Sonu Halleri
13:05
115 dk
HABERLER
Saat başı başlıkları
15:00
1 dk
HABERLER
Saat başı başlıkları
16:00
1 dk
GÜNDEM DIŞI
Serhat Sarısözen'le Gündem Dışı
16:01
59 dk
HABERLER
Saat başı başlıkları
17:00
1 dk
GÜNDEM DIŞI
Serhat Sarısözen'le Gündem Dışı
17:01
59 dk
HABERLER
Saat başı başlıkları
18:00
1 dk
SESLİ HABER
Zelenskiy: Batı Rusya’dan korkuyor
18:08
2 dk
SESLİ HABER
Avrasya’da taşımacılık için 280 milyar rublelik proje
18:20
2 dk
SESLİ HABER
Rus uzman İran-İsrail gerilimini değerlendirdi: Bölgeyi savaşın eşiğine getiriyor
18:48
2 dk
SESLİ HABER
Çinli diplomat: ABD, Ukrayna’daki çatışmayı körüklemeyi bırakmalı
19:03
2 dk
SESLİ HABER
Lavrov: UNESCO platformu kötüye kullanılıyor
19:15
2 dk
SESLİ HABER
‘Demokrasi eksikliği’ suçlamalarına yanıt
19:26
2 dk
SESLİ HABER
Dünyanın en iyi 100 stadyumu belli oldu
19:39
1 dk
SESLİ HABER
Rus Büyükelçi, ABD’nin yaptırımlarının amacını açıkladı
19:49
2 dk
SESLİ HABER
Polonya Cumhurbaşkanı Duda'dan 'nükleer silah' açıklaması: 'Hazırız'
20:03
2 dk
SESLİ HABER
Rus uzman: İsrail, ABD’nin Ortadoğu'daki yumruğudur
20:18
3 dk
SESLİ HABER
Eski Fransız istihbaratçı: Ukrayna paralı asker arıyor
20:34
2 dk
SESLİ HABER
Ukrayna’ya ait çok sayıda hava savunma sistemi imha edildi
20:47
1 dk
SESLİ HABER
Rapor açıklandı: Askeri harcamalar tarihin en yüksek seviyesinde
21:04
3 dk
SESLİ HABER
Rus Türkolog: Birçok Rus çocuk Türkçe öğreniyor
21:17
3 dk
SESLİ HABER
‘ABD, Afrika ülkelerinin onlardan bıktığının farkında’
21:31
3 dk
SESLİ HABER
Rusya: Dünya, ABD yüzünden Filistinlileri koruyamadı
21:46
2 dk
SESLİ HABER
Eski Pentagon danışmanından Putin’e övgü: Ortadoğu'daki tüm kartlar elinde
22:04
1 dk
SESLİ HABER
Biden kritik eyaletlerde geriye düştü
22:19
2 dk
SESLİ HABER
‘Batı’nın planı Rus medeniyetini yok etmek’
22:33
2 dk
DünBugün
Geri dön
Adana107.4
Adana107.4
Ankara96.2
Antalya104.8
Bursa101.4
Çanakkale107.2
Diyarbakır89.6
Gaziantep104.3
Hatay106.1
İstanbul97.8
İzmir91.0
Kahramanmaraş92.3
Kayseri105.5
Kocaeli90.2
Konya88.6
Malatya106.0
Manisa101.0
Mardin92.2
Ordu99.6
Sakarya90.2
Samsun107.7
Sivas104.2
Şanlıurfa95.3
Trabzon102.4
Van88.0
GÖRÜŞ

Ölüleri ‘canlandırmaktan’, şantaj videolarına: Deepfake nedir ve hangi tehlikeleri içeriyor?

© AFP 2023 / ALEXANDRA ROBINSONdeepfake - video - görüntü - manipülasyon
deepfake - video - görüntü - manipülasyon - Sputnik Türkiye, 1920, 16.02.2022
Abone ol
Özel
Görüntü ve sesin değiştirilebildiği bir medya türü olan deepfake ile ölmüş kişilerin eski fotoğrafları hareketli hale getirilebiliyor ve ABD’li bir annenin yaptığı gibi kızının rakiplerini eleyebilmek için de kullanılabiliyor. Peki, deepfake ne anlama geliyor ve ne gibi tehlikeleri var. Teknoloji uzmanı Deniz Unay, Sputnik’e anlattı.
Teknolojinin geldiği noktada akıllı telefon uygulamalarıyla yüze çeşitli filtreler eklemek ve hatta daha genç ya da yaşlı görünmek mümkün. Son günlerde Fransız bir film yapımcısının, Türk doktor sandığı 20 yaşındaki hacker Nijeryalı’ya ‘aşık’ olmasıyla gündeme tekrar gelen deepfake teknolojisi ise, bir görüntü ve işitme manipülasyonu yöntemi olarak tanımlanıyor. Mevcut bir görüntü veya videoda yer alan bir kişinin, yapay sinir ağları ile birlikte bir başka kişinin görüntüsü ile değiştirildiği bir medya türü olan deepfake, makine öğrenme tekniklerini kullanarak, mevcut medyanın kaynak medya üzerinde üst üste konulmasıyla elde ediliyor.

Deepfake görüntüleri hangi amaçlarla kullanıldı?

Mevcut durumda, bu teknoloji ile ölmüş kişilerin fotoğrafları 'canlandırılabiliyor'. Ölmüş yakınlarla özlem giderilmesini amaçlayan İsrail merkezli soyağacı oluşturan bir çevrimiçi platform olan Myheritage’ın piyasaya sürdüğü Deep Nostalgia, video canlandırma yoluyla eski fotoğrafları hareketli hale getiriyor, hatta fotoğraflardaki kişileri gülümsetiyor. Herhangi birinin fotoğrafını çıplak hale getiren Deepnude uygulaması da sadece kadın fotoğraflarında ‘çalışması’ üzerine gelen eleştiriler dolayısıyla 2019 yılında kapatıldı.
Bu teknolojiyi kullanarak üretilen içerikler için bir diğer örnek ise eski ABD Başkanı Barack Obama’nın, zamanın başkanı Donald Trump’a küfür içerikli ifade kullandığı video. Bu videoda oyuncu ve yönetmen Jordan Peele’ın dudakları Obama’nın görüntüsünün üzerine eklenmiş durumda ve Obama’nın ağzından çıkan her kelime Peele’a ait. ABD’li bir kadın olan Raffaela Spone da, kızının amigo takımına girebilmesi için, diğer gençlerin içki, sigara içtiğini gösteren ve hatta onları çıplak biçimde tasvir eden video ve fotoğraflar için bu teknolojiyi kullandı.
‘Derin öğrenme’ ve ‘sahte’ kelimelerinin İngilizcesinden türetilmiş bir isme sahip olan bu teknolojiye Türkiye’de 2020 yılında Kemal Sunal’ın ‘başrolünde’ oynadığı bir reklam filmiyle ilk olarak rastlandı. Ancak, bu teknolojinin kullanıldığı alanlar maalesef, sadece eğlenceli videolar değil. Türkiye’de bir kadın üniversite öğrencisinin görüntüleri deepfake uygulaması kullanılarak müstehcen görüntülere eklendi ve kadın öğrenci şantaja uğradı.

Bu videolar nasıl oluşturulur?

Deepfake içerikleri pek çok internet sitesi ve uygulama üzerinden yapılabiliyor. Ancak, TikTok'ta viral olan, aktör Tom Cruise'un deepfake videolarının yaratıcısı Chris Ume’a göre, bu videoları yapmak çok da kolay değil. Ume, yarattığı videolar için aktörün farklı açılardan ve yüz ifadeleri ile 6 binden fazla görüntüsünü topladığını ve sadece deepfake teknolojisini kullanmadığını söyledi. Dijital grafik yazılımlarıyla görüntüyü kare kare düzeltmek için uğraşan Ume’un videoları oluşturması 2 ayından fazlasını aldı.
Derin öğrenme alanında araştırmalar yapan ve şu anda Apple’da makine öğrenimi yöneticisi olan Ian Goodfellow tarafından 2014 yılında icat edilen ‘çekişmeli üretici ağ’ (GAN) teknolojisiyle var olan deepfake’in tehlikeleri ne ve hangi önlemler alınmalı? Teknoloji uzmanı Deniz Unay, Sputnik’e anlattı.

‘Yararları olduğu kadar bu teknolojinin tehlikeli bir silaha dönüşebileceği uygulamalarda yer alıyor’

Temelde makine öğrenimi sınıfı olan GAN’ın, beraberinde tıp alanında kullanılan MR’dan tasarımcıların yeni kıyafetlerini modeller üzerinde sanal ortamda denemelerine kadar birçok yeni uygulamanın da ortaya çıkmasını sağladığını söyleyen Unay, “Yararları olduğu kadar bu teknolojinin tehlikeli bir silaha dönüşebileceği uygulamalarda yer alıyor. Bunlar arasında Deepfake ile oluşturulmuş insan modelleri ile videolar, belgeseller, filmler ve hatta röportajlar bile hazırlanabilir hale gelmiştir. Özellikle son dönemde gelişen uygulamalar normal bir insan tarafından anlaşılması neredeyse imkansız hale gelen görüntülerin ve seslerin ortaya çıkmasını sağlamıştır” dedi ve “Söz konusu teknolojinin yeniden gündeme gelmesinde ise Metaverse kavramına bağlanması mümkündür. İnsanların kendi üç boyutlu görüntülerini tasarlayacakları bu evrende GAN ile çok daha başarılı sonuçların elde edilmesi mümkündür” diye ekledi.

‘Deepfake teknolojisiyle yapılan dolandırıcılık tehlikesi artıyor’

Unay, bu teknolojinin kullanıldığı dolandırıcılık olaylarına da dikkat çekerek “Deepfake üzerinden artan dolandırıcılık faaliyetleri ise günümüzde birçok kişi için tehlike oluşturmaya da devam ediyor. Deepfake yardımıyla oluşturulan sahte görüntüler, özellikle ünlüler, siyasiler veya toplum tarafından tanınan bilinen kişilerin gerçekte var olmayan bir yerde olmasını, söylemedikleri şeyleri söylemeleri ve bunları yaparken de gerçeğinden ayırt edilmemeleri çok ciddi bir tehlikenin ortaya çıkmasına neden olmuştur. Deepfake teknolojisi kullanılarak yapılan dolandırıcılık faaliyetlerinin bazılarına bakıldığında bu uygulamaların gelecekte daha da tehlikeli boyutlara varabileceği düşüncesi iyice yerleşmiş durumda” diye konuştu ve dolandırıcılık örneklerini şu şekilde sıraladı:

Ses taklidiyle para çekmeden, seks şantajına kadar uzanıyor

“2019 yılında İngiltere merkezli bir şirketin CEO’sunun sesi taklit edilerek yapılan bir dolandırıcılık tehlikenin boyutlarını ortaya koymuştur. Sahte ses ile verilen talimatlar ile 243.000 dolar para transferi ile dolandırılan şirket büyük bir şaşkınlık yaşamıştır. 2020 yılında ise benzer bir olay Hong Kong’da yaşanmıştır. Bir banka müdürünün sesi taklit edilerek 35 milyon dolar miktarında dolandırıcılık gerçekleştirildiği haberi Deepfake tehlikesi ile ilgili büyük bir yankı uyandırdı. Hindistan’da ise eski bir bakanın seks şantajı yapılarak 50.000 Hindistan Rupisi dolandırılması olayı dünya gündeminde ilk sıralarda yer almıştı. Bu olayda ise bakan sosyal medya üzerinden sahte bir avatar ile sohbet etmeye başladıktan bir süre sonra soyunmasını istemiş ve bakanın izlediği görüntüler şantajcılar tarafından kaydedilerek dolandırıcılık gerçekleşmiştir.”

‘Toplumsal olaylarda sahte görüntülerin kısa sürede yayılması ve etkileşim alması çok daha geniş kitlelerin manipüle edilmesine neden olmaktadır’

Deepfake’in topluma olan etkisinden de bahseden Unay, seçim zamanlarında da manipüle edilmiş görüntülerin sunulabileceğinin mümkün olduğunu belirtti. Unay “Sahte bir profilin ötesine geçerek gerçek bir kişi gibi davranan bu hesaplar zaman içinde kalabalık kitleleri sokağa dökebilir ve yanlış siyasi yönlendirmeler ve bilgiler ile iç karışıkları bile tetikleyebilir. Seçim dönemlerinde ise Deepfake ile yapılan videolar ve gerçekte asla söylenmemiş şeyleri belirli siyasi kişilerin demeçleri olarak yansıtılabilir. Bu sayede Deepfake teknolojisinin seçimlere etkisi görülebilecektir. Toplumsal olaylarda sahte fotoğraf, resim, ses ve videoların kısa sürede sahte hesaplar aracılığıyla yayılması ve yüksek etkileşim alması çok daha geniş kitlelerin manipüle edilmesine neden olmaktadır. Bu gibi durumlara karşı hükümetlerin de zaman zaman aldıkları önlemler tartışma yaratmaktadır” dedi.
Deepfake teknolojisiyle üretilmiş videoların gerçekliğinin çok zor bir şekilde anlaşılabildiğini söyleyen Unay’ın aktardığına göre, buna karşı herhangi bir önleyici yazılım ya da uygulama bulunmuyor.

Deepfake dolandırıcılığına karşı hangi önlemler alınabilir?

Bu teknoloji ile gerçekleştirilen dolandırıcılık faaliyetlerin korunmanın yollarını anlatan Unay “Özellikle bankacılık işlemlerinde ve uygulamalarında birkaç farklı adımdan oluşan güvenlik sistemlerinin kullanılması son derece önemlidir. Diğer yandan sesli tanıma özelliklerine sahip işlemlerin de kapatılması dolandırıcılıktan korunmanız için oldukça önemlidir. Sosyal medya veya internet üzerinde karşınıza ilk çıkan video, fotoğraf veya sesleri ilk anda doğru kabul etmemek özellikle toplumsal olayların önlenmesinde önemlidir. Bir olay sonrasında sıcağı sıcağına sosyal medyada yayılan birçok bilgi ve görüntünün sahte olduğu çok sık rastlanan bir durumdur. Bu duruma karşı alınacak önlem ise ilgili unsurların teyit edilmesi olacaktır. İnternette güvenliğin artırılmasına yönelik dikkat edilmesi gereken temel yaklaşımların tümü Deepfake dolandırıcılığına karşı kendinize daha güvenli bir alan yaratmanızı sağlayacaktır. Ancak bu teknolojiden tamamen korunmak günümüzde neredeyse imkansızdır. Bu nedenle alınabilecek basit önlemler ile internetteki varlığınızı güvence altına almak ve deepfake tehdidine karşı bilinçlenmek son derece önemlidir” ifadelerini kullandı.
Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала