Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor 

Kaynak: Türkiye Gazetesi
- Güncelleme:
Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor 
Teknoloji Haberleri  / Türkiye Gazetesi

Sosyal medya platformlarında TPAO ve Baykar firması üzerinden yatırım çağrıları yapan, işe alım görüşmelerini sabote eden, hatta maaş alıp proje imzalayan deepfake ataklarına her gün bir yenisi ekleniyor. Şirketler her 5 dakikada bir deepfake saldırısına maruz kalırken devletler sahteciliğe karşı savaş açtı.

ÖMER TEMÜR'ÜN HABERİ - Yapay zekâ teknolojisi ilerledikçe, özellikle sözde “deepfake” videolar söz konusu olduğunda, neyin gerçek neyin gerçek olmadığını yargılamak giderek zorlaşıyor. Bir zamanlar ünlüleri taklit etmek veya politikacıları kötülemek için kullanılan teknoloji artık günlük hayatın bir parçası hâline geldi. 

ABD’deki Los Angelas yangınlarında üretilen videolar sosyal medyada paylaşım rekoru kırarken, sahte görüntülerle sokak eylemlerinde kitleler manipüle edilebiliyor ya da sanal influencer’ların, gerçeğini aratmayan sokak röportajları yüz binlerce izlenme oranına ulaşabiliyor. TPAO ve Baykar firması üzerinden yatırım çağrıları ya da ünlü ekonomistlerin görüntüleri kullanılarak oluşturulan videolarla sosyal medyada her gün hisse tavsiyeleri ile karşılaşmak mümkün. 

Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor  - 1. Resim

Daha çok suç örgütleri tarafından kullanılan deepfake dolandırıcılığı öyle bir boyuta taşındı ki âdeta organize şekilde hareket edilebiliyor. Bunun son kurbanı ise Ankaralı yazılım şirketi oldu. Şirket yapay zekâ destekli sahte bir müşteri tarafından dolandırıldı. Zoom’da görüntülü görüştüler, şirket tescil belgeleri paylaşıldı, sözleşmeler imzalandı, proje teslim edildi. Kodlar gitti, 5 milyon liralık hizmet bedeli ise gelmedi. Dolandırılan firmanın yöneticisi “Bizim geliştirdiğimiz yapay zekâyı bile kandırdılar” dedi.

Deepfake sadece hile yapmakla kalmıyor. Sesli deepfake’lerin giderek daha karmaşık telefon dolandırıcılıkları için kullanılmasına benzer şekilde, suçlular deepfake’leri iş elde etmek ve ardından şirketlerin hassas bilgilerine erişim sağlamak için kullanıyorlar. Geçtiğimiz sonbaharda bir şirket, suçu keşfedilmeden önce tam dört ay maaş alan bir Kuzey Koreli siber suçlu tarafından bu şekilde hack’lendi.
Deepfake ile aşk dolandırıcılığı da hızla artış gösteriyor. ABD’li ünlü oyuncu Brad Pitt gibi davranan bir dolandırıcı tarafından kandırılan bir Fransız kadın 18 ay boyunca dolandırıcıya 830.000 avro transfer etti.  Aynı şekilde Hong Kong’da dolandırıcılar kandırdığı erkeklerden 46 milyon dolar alarak kayıplara karıştı. 

YAPAY ZEKA HUKUKU 

Araştırmalara göre 2024 yılında şirketler her beş dakikada bir deepfake saldırısına maruz kaldı. 2023 yılında 562,8 milyon dolar olan küresel deepfake pazar büyüklüğünün 2032 yılına kadar 6 milyar doları aşması bekleniyor. Ülkeler ise deepfake tehdidine karşı için yeni tedbirleri devreye alıyor. AB ülkelerinde zekâ yasası ile “deepfake” adı verilen, yapay veya değiştirilmiş görsellerin, ses veya video içeriklerinin açıkça belirtilmesi zorunlu olurken, ABD’de 20 eyalet yapay zekâ ile yapılmış aldatıcı paylaşımları suç kapsamına aldı. Türkiye’de de yapay zekâ hukuku için çalışmalar sürüyor. Önümüzdeki aylarda yasalaşması beklenen düzenleme ile sahteciliğin önüne geçilmesi ve kişisel veriler ile mahremiyetin korunması hedefleniyor.

DEEPFAKE NASIL TEHDİT EDEBİLİR?

  • Yüz hareketleri: Doğal olmayan göz kırpma desenleri veya doğal olmayan şekilde statik görünen gözler arayın. Olaylara tepki olarak ince gecikmeler veya uyumsuz ifadeler de bir ipucu olabilir.
  • Aydınlatma ve gölgeler: Konunun yüzündeki aydınlatmanın çevredeki ortamla uyumlu olup olmadığını kontrol edin. Tutarsızlıklar (değişen ışık veya düzensiz gölgeler ve yansımalar gibi) manipülasyon olduğunu gösterebilir.
  • Ses-görüntü senkronizasyonu: Ağız hareketlerinin sesle doğal olarak hizalandığından emin olun. Dudak senkronizasyonu kapalı görünüyorsa veya seste hafif bozulmalar varsa, bu bir düzenleme işareti olabilir.
  • Görsel eserler: Yüzün saçla veya arka planla birleştiği kenarları inceleyin. Olağan dışı bulanıklık, çarpık kenarlar, pikselleşme veya gölgelenme efektleri videonun değiştirildiğini gösterebilir.
  • Deepfake tespit araçlarını ve yazılımlarını kullanın: Deepfake’leri tespit etmek için tasarlanmış özel araçlardan ve AI destekli yazılımlardan yararlanın. Bu araçlar dijital içerikleri anormallikler açısından analiz edebilir ve gerçekliğini doğrulamaya yardımcı olabilir. 
Kaynak: Türkiye Gazetesi

300
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...