Şifremi/Kullanıcı Adımı Unuttum
Bağlan Google+ ile Bağlan Facebook ile Bağlan
Şimdi Ara

Deepfake tekniğiyle taklit ettikleri sesi kullanan hırsızlar, yaklaşık 250 bin dolar çaldı

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir Kullanıcı, 1 Masaüstü Kullanıcı
5
Cevap
0
Favori
1.354
Tıklama
Cevapla
Tüm Forumlar >> Donanım / Hardware >> Anasayfa Haberleri >> Deepfake tekniğiyle taklit ettikleri sesi kullanan hırsızlar, yaklaşık 250 bin dolar çaldı
Sayfaya Git:
Sayfa:
1
Giriş
Mesaj
  • Haber Editörü
    3145 Mesaj

    Daha çok videolarda karşımıza çıkan deepfake tekniği, bu sefer Almanya merkezli bir enerji firmasının dolandırılması için kullanıldı. Almanya’da konuşlu ana şirketin CEO’sunun sesini deepfake yöntemiyle taklit eden hırsızlar,  bu sayede şirketin İngiltere’de bulunan bağlı ortaklığından istedikleri miktardaki paranın transferi için onay aldılar.

    İlk defa karşılaşılan dolandırıcılık yönteminde siber suçlular, taklit ettikleri sesi kullanarak aradıkları İngiliz CEO’yu söz konusu para transferini yapması için ikna etmişler. Wall Street Journal’a göre Macar bir tedarikçiye gönderileceği söylenen 243 bin dolar tutarındaki meblağa onay veren İngiliz CEO, Alman patronuyla konuştuğuna emin olarak bu işlemi yaptığını belirtmiş.

    Alman CEO’nun sesinin kusursuz biçimde taklit edildiği yöntemde patronuyla konuştuğuna emin olan İngiliz CEO, konuştuğu şahsın sahip olduğu şive ve aksanın gerçeğinden ayırt edilemediğini ifade etmiş.

    Yetkililer, verilen onay neticesinde önce Meksika’ya ve ardından diğer ülkelere transfer edilen paradan ise henüz bir haber alınamadığını ve konuyla ilgili ellerinde bir şüpheli listesi bulunmadığını söylüyor.

    Olayın farkına üçüncü aramada vardı 

    Toplamda üç kez telefonla aranan İngiliz CEO, ilk aramada kendisinden 243 bin dolarlık paranın talep edildiğini ve Almanya’daki merkezin ise bir saat içinde masrafları tazmin edeceğini belirttiğini ifade etmiş. İkinci aramada ise söz konusu paranın tazmin edildiği bilgisini alan CEO, üçüncü kez tekrar aranmış. Yapılan son aramda tekrar para göndermesi talep edilen CEO, ilk yaptığı transfere ait geri ödemenin yapılmaması ve son çağrının Avusturya’ya ait bir telefon numarası üzerinden gelmesi neticesinde şüphelenerek iletişimi kesmiş. Tüm bu yaşananlar neticesinde ise dolandırıcılık olayı ortaya çıkmış.

    İngiliz CEO’nun yaptığı telefon görüşmelerinde sorulan sorulara bir chatbot marifetiyle cevap verilip verilmediği ise konunun bir başka boyutunu oluşturuyor. Zira söz konusu dolandırıcılık faaliyetinde bir chatbot kullanılmış olma ihtimali, olayın tamamen otomatikleştirilmiş olabileceği anlamına geliyor. Bu durumda hırsızların çok güçlü bir teknolojik silaha sahip olduğu yorumunu yapmak yanlış olmayacaktır.




    |
    |




  • Yarbay
    2810 Mesaj
    ses taklit etme yazılımı ne zaman çıktı? en son adobe bir yazılım yapmıştı ama demodan öteye gidemedi.
    |
    |
  • Binbaşı
    1457 Mesaj
    Valla sakat işler. Yapay zeka ile artık görüntü, ses taklit edilebiliyor. Özellikle başkan konumundakilerin ekstra güvenlik önlemleri alması şart. Bir ara obama'nın deepfake i vardı. Yani görüntülü arıyorum ayağına bile bir ülkenin başbakanını, başka bir ülke başbakanı gibi arayıp bir çok probleme sebep olabilirler.
    |
    |
  • Binbaşı
    1927 Mesaj
    Belki yazılım ile yapılmamıştır, başka bir insan taklit etmiştir
    |
    |
  • Onbaşı
    30 Mesaj
    Bu daha başlangıç.Deepfake çok kötü şeylere sebep olacak bence.



    < Bu mesaj bu kişi tarafından değiştirildi Wizarrd -- 5 Eylül 2019; 14:5:30 >
    |
    |
    _____________________________
  • Yarbay
    4270 Mesaj
    Yandık...
    Yavrum ben annen....
    Baban ben...
    Canımmm sevgilim....
    |
    |
HızlıCevap
Sayfaya Git:
Sayfa:
1
Reklamlar
haberler
SEO
Mobilya Takımları
üniversite
google reklamları
Bu sayfanın
Mobil sürümü
Mini Sürümü

BR3
0,500
1.2.165

Reklamlar
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.