ABD Federal Ticaret Komisyonu’ndan alınan verilere göre, 2022’de sahtekarlık dolandırıcılıkları Amerika’daki en popüler ikinci raketti ve 36.000’den fazla insanın arkadaş ve aile gibi davranan kişiler tarafından dolandırıldığına dair rapor vardı.
FTC yetkilileri, bu olayların 5100’den fazlasının telefonda gerçekleştiğini ve bunun da 11 milyon ABD dolarının üzerinde zarara yol açtığını söyledi.
Telefon dolandırıcılığına yapay zeka yardımcı oluyor.Kredi:iStock
Yapay zekadaki gelişmeler, korkunç yeni bir katman ekleyerek, kötü aktörlerin yalnızca birkaç cümleden oluşan bir ses örneğiyle bir sesi kopyalamasına izin verdi.
Yapay zeka tarafından desteklenen bir dizi ucuz çevrimiçi araç, bir ses dosyasını bir sesin kopyasına çevirebilir ve bir dolandırıcının ne yazarsa yazsın “konuşmasını” sağlayabilir.
Uzmanlar, federal düzenleyicilerin, kolluk kuvvetlerinin ve mahkemelerin filizlenen dolandırıcılığı dizginlemek için yetersiz donanıma sahip olduğunu söylüyor. Kurbanların çoğunun faili teşhis edecek çok az ipucu vardır ve polisin dünya çapında faaliyet gösteren dolandırıcılardan gelen aramaları ve fonları takip etmesi zordur. Ve mahkemelerin, araçları kullanımlarından sorumlu tutan şirketleri tutması için çok az yasal emsal var.
Berkeley’deki California Üniversitesi’nde dijital adli tıp profesörü olan Hany Farid, “Korkunç” dedi. “Bir bakıma mükemmel bir fırtına. . . [with] kaos yaratmak için ihtiyacınız olan tüm malzemeler.”
Sahtekar dolandırıcılıkların pek çok biçimi olsa da, temelde aynı şekilde çalışırlar: Bir dolandırıcı, güvenilir birinin kimliğine bürünür – bir çocuk, sevgili veya arkadaş – ve zor durumda oldukları için kurbanı kendilerine para göndermeye ikna eder.
Ancak yapay olarak üretilmiş ses teknolojisi, hileyi daha inandırıcı hale getiriyor. Kurbanlar, sevdiklerinin tehlikede olduğunu duyduklarında içgüdüsel bir korkuyla tepki verdiklerini bildiriyor.
Bu, beslediği verilere dayalı olarak metinler, görüntüler veya sesler oluşturan yazılımları destekleyen üretken yapay zekadaki son yükselişin karanlık bir etkisi. Matematik ve bilgi işlem gücündeki ilerlemeler, bu tür yazılımlar için eğitim mekanizmalarını geliştirerek, bir şirketler filosunu garip bir şekilde gerçekçi olan sohbet robotları, görüntü oluşturucular ve ses oluşturucular yayınlamaya teşvik etti.
Farid, AI ses üreten yazılımın bir kişinin sesini benzersiz kılan şeyleri (yaş, cinsiyet ve aksan dahil) analiz ettiğini ve benzer sesleri bulmak ve kalıpları tahmin etmek için geniş bir ses veritabanında arama yaptığını söyledi.
Daha sonra benzer bir genel etki yaratmak için bir kişinin sesinin perdesini, tonunu ve bireysel seslerini yeniden oluşturabilir, diye ekledi. Farid, YouTube, podcast’ler, reklamlar, TikTok, Instagram veya Facebook videoları gibi yerlerden alınan kısa bir ses örneği gerektirdiğini söyledi.
Farid, “İki yıl önce, hatta bir yıl önce, bir kişinin sesini klonlamak için çok fazla sese ihtiyacınız vardı,” dedi. “Şimdi . . . Facebook sayfanız varsa. . . veya bir TikTok kaydettiyseniz ve sesiniz 30 saniye boyunca oradaysa, insanlar sesinizi klonlayabilir.”
2022’de kurulan yapay zeka ses sentezleme girişimi ElevenLabs gibi şirketler, kısa bir ses örneğini bir metinden konuşmaya aracı aracılığıyla sentetik olarak üretilmiş bir sese dönüştürüyor. Siteye göre, ElevenLabs yazılımı ücretsiz veya aylık 5 ABD Doları ile 330 ABD Doları arasında bir maliyete sahip olabilir ve kullanıcıların daha fazla ses üretmesine olanak tanıyan daha yüksek fiyatlar sunar.
ElevenLabs, Emma Watson’ın yanlış bir şekilde Adolf Hitler’in kitaplarından pasajlar okuması gibi ünlülerin asla yapmadıkları şeyleri söyleyen seslerini taklit etmek için kullanılan aracına yönelik eleştirilerin ardından haberlere sıçradı. Kavgam.
ElevenLabs bir yorum isteği döndürmedi, ancak bir Twitter dizisinde şirket, ücretsiz kullanıcıların özel sesler oluşturmasını yasaklamak ve yapay zeka tarafından üretilen sesi algılamak için bir araç başlatmak da dahil olmak üzere kötüye kullanımı engellemek için önlemler aldığını söyledi.
Ancak yaşlı ebeveynleri bir ses dolandırıcılığına binlerce dolar kaybeden Benjamin Perkin gibi kurbanlar için bu tür önlemler artık çok geç.
Ses klonlama kabusu, ebeveynleri sözde bir avukattan oğullarının bir araba kazasında ABD’li bir diplomatı öldürdüğünü söyleyen bir telefon aldığında başladı. Perkin hapisteydi ve yasal masraflar için paraya ihtiyacı vardı.
Avukat, kendilerini sevdiğini, takdir ettiğini ve paraya ihtiyacı olduğunu söyleyen 39 yaşındaki Perkin’i telefona çıkardı. Birkaç saat sonra avukat, Perkin’in ailesini tekrar aradı ve oğullarının o günkü mahkeme tarihinden önce 21.000 Kanada dolarına ihtiyacı olduğunu söyledi.
Yükleniyor
Perkin’in ailesi daha sonra aramanın alışılmadık göründüğünü söyledi, ancak oğullarıyla gerçekten konuştukları hissinden kurtulamadılar.
Ses, “ailemin benimle konuştuklarına gerçekten inanmasına yetecek kadar yakındı” dedi. Panik içinde, nakit almak için birkaç bankaya koştular ve parayı bir bitcoin terminali aracılığıyla avukata gönderdiler.
Gerçek Perkin, o gece ailesini gelişigüzel bir check-in için aradığında, kafaları karışmıştı.
Perkin, YouTube’da kar motosikleti hobisinden bahseden videolar yayınlamasına rağmen, dolandırıcıların sesini nereden aldığı belli değil. Perkin, ailenin Kanada federal yetkililerine bir polis raporu sunduğunu, ancak bunun parayı geri getirmediğini söyledi.
“Para gitti,” dedi. “Sigorta yok. Geri almak yok. Gitti.”
FTC’nin pazarlama uygulamaları bölümünde müdür yardımcısı olan Will Maxson, ses dolandırıcılarını takip etmenin “özellikle zor” olabileceğini çünkü dünyanın herhangi bir yerindeki bir telefonu kullanıyor olabileceklerini ve hangi ajansın yargı yetkisine sahip olduğunu belirlemeyi bile zorlaştırabileceğini söyledi. özel durum.
Maxson sürekli tetikte olmaya çağırdı. Sevdiğiniz biri size paraya ihtiyacı olduğunu söylerse, o aramayı beklemeye alın ve aile üyenizi ayrı ayrı aramayı deneyin, dedi.
Bir aile üyesinin numarasından şüpheli bir arama gelirse, bunun da sahte olabileceğini anlayın. İnsanlara asla hediye kartlarıyla ödeme yapmayın, çünkü bunların izini sürmek zor, diye ekledi ve nakit taleplerine karşı dikkatli olun.
Kimlik Hırsızlığı Kaynak Merkezi’nin genel müdürü Eva Velasquez, kolluk kuvvetlerinin ses klonlama hırsızlarının izini sürmesinin zor olduğunu söyledi.
Tüketici dolandırıcılığını araştırmak için San Diego Bölge Savcılığı’nda 21 yıl geçiren Velasquez, polis departmanlarının dolandırıcılığı izlemeye adanmış bir birimi finanse etmek için yeterli paraya ve personele sahip olmayabileceğini söyledi.
Daha büyük departmanların, çözülebilecek vakalara göre kaynakları önceliklendirmesi gerektiğini söyledi. Sesli dolandırıcılık kurbanları, soruşturmalar için polise verecek fazla bilgiye sahip olmayabilir, bu da yetkililerin, özellikle daha küçük kayıplar söz konusu olduğunda, fazla zaman ayırmasını veya personel gücü ayırmasını zorlaştırır.
“Hakkında bir bilgin yoksa,” dedi. “Nereden başlıyorlar?”
Farid, yaptıkları ürünlerin zarar vermesi durumunda mahkemelerin AI şirketlerini sorumlu tutması gerektiğini söyledi. Yargıtay Yargıcı Neil M. Gorsuch gibi hukukçular Şubat ayında, sosyal ağları davalardan koruyan yasal korumaların yapay zeka tarafından oluşturulan işler için geçerli olmayabileceğini söyledi.
Card için bu deneyim onu daha uyanık hale getirdi. Geçen yıl yerel gazetesi the Regina Lider-Post, insanları bu dolandırıcılıklara karşı uyarmak için. Hiç para kaybetmediği için polise bildirmedi.
Her şeyden önce, utandığını söyledi.
“Pek inandırıcı bir hikaye değildi,” dedi. “Ama bizi ikna etmesi için olduğundan daha iyi olması gerekmiyordu.”
Washington Post
Doğrudan yabancılarımızdan bir not alın muhabirler dünya çapında manşetlere çıkan şeyler hakkında. Haftalık What in the World bültenine buradan kaydolun.
Kaynak : https://www.smh.com.au/world/north-america/it-s-terrifying-loved-ones-pleas-for-help-reveal-as-an-ai-enabled-scam-20230306-p5cpm6.html?ref=rss&utm_medium=rss&utm_source=rss_world