- 15:00“Nvidia” tarihte piyasa değeri 3,6 trilyon doları aşan ilk şirket oldu
- 14:32LG, Fas'ta çevrimiçi mağaza açıyor
- 14:00M-AUTOMOTIV, JAC Motors ile stratejik ortaklık yoluyla Fas'taki otomobil pazarını güçlendiriyor
- 12:00Marakeşh, Dünya Tıbbi Destekli Üreme Teknolojileri Konferansı'nın 22. oturumuna ev sahipliği yapıyor
- 11:00Erdoğan: Ukrayna ihtilafı ne kadar uzun sürerse diplomasinin alanı da o kadar daralır
- 10:00Süper akıllı biyobilgisayarlar yaratmak için beyin hücrelerini yapay zekayla birleştirmek
- 09:30Fas Sahra'sının tanınmasının mimarı, Amerikan Dışişleri Bakanlığı'nın portföyünü elinde tutmak üzere atandı
- 09:01Bir can simidi...Trump'ın zaferi Google'ı parçalanma tehlikesinden kurtarabilir
- 08:30Fas'ta arkeoloji turizminin ulusal kültürel kimliğin geliştirilmesine katkısı
Facebook’ta Bizi Takip Edin
Uyarı: ChatGPT-4o dolandırıcılık ve fon hırsızlığı için kullanılabilir
Yakın zamanda yapılan bir araştırma, OpenAI'nin ChatGPT-4o sesli asistan API'sinin siber suçlular tarafından düşük ila orta düzeyde başarı oranlarıyla mali dolandırıcılık yapmak için kullanılabileceğini gösteriyor.
ChatGPT-4o, OpenAI'nin metin, ses ve görselleri alıp çıkarabilen en yeni yapay zeka modelidir. Kötüye kullanımı sınırlamak için OpenAI, kötü amaçlı içeriği tespit etmeyi ve yetkisiz tekrar oynatmaları önlemeyi amaçlayan çeşitli güvenlik mekanizmalarını entegre etti.
Deepfake ve metin okuma araçları yaygınlaştıkça, ses sahtekarlığı sorunu daha da kötüleşiyor ve kayıpların milyonlarla ifade edildiği tahmin ediliyor.
Illinois Üniversitesi'nden araştırmacılar, kamuya açık modern teknik araçların, dolandırıcılık operasyonlarında kötüye kullanıma karşı yeterli koruma mekanizmalarına sahip olmadığını gösteren bir araştırma makalesi yayınladı.
Araştırmada banka transferleri, hediye kartlarının çalınması, dijital para transferleri ve sosyal medya ve e-posta hesabı verilerinin çalınması dahil olmak üzere birçok dolandırıcılık türü incelendi.
Bu dolandırıcılıklar, web sayfalarında gezinmek, veri girmek, iki faktörlü kimlik doğrulama kodlarını yönetmek ve dolandırıcılık talimatlarını takip etmek için ChatGPT-4o'daki ses tabanlı komut dosyalarını kullanır. GPT-4o modeli genellikle hassas verileri işlemeyi reddediyor ancak araştırmacılar, modeli yanıt vermeye teşvik etmek için basit teknikler kullanarak bazı sınırlamaların üstesinden gelmeyi başardılar.
Dolandırıcılığın etkinliğini kanıtlamak için araştırmacılar, deneylerde kurbanların rollerini simüle ettiler ve banka transferlerinin başarısını doğrulamak için "Bank of America" gibi siteleri kullandılar, ancak modelin ikna etme yeteneğinin kapsamını ölçmediler.
Deneyler, başarı oranlarının %20 ila %60 arasında değiştiğini, her denemenin tarayıcıda art arda 26 adım gerektirdiğini ve karmaşık durumlarda yaklaşık üç dakika sürdüğünü gösterdi. Gmail hesabı veri hırsızlığının başarı oranı %60 iken dijital para transferi ve Instagram veri hırsızlığının başarı oranı %40 oldu.
Maliyetler açısından dolandırıcılığın maliyeti düşüktür; Her başarılı işlemin maliyeti yaklaşık 75 ABD senti iken, daha karmaşık banka transferlerinin maliyeti yalnızca 2,51 dolardır.
OpenAI, BleepingComputer teknik web sitesinde yayınlanan bir yorumda, son modeli olan “o1-preview”in dolandırıcılık girişimlerine karşı yüksek yeteneklere sahip olduğunu, önceki modellere göre güvenliği artırdığını ve ayrıca güvenlik testlerinde %93 gibi yüksek bir puan elde ettiğini belirtti. , önceki modellerdeki %71'e kıyasla.
OpenAI, Illinois Üniversitesi tarafından sunulanlar gibi akademik araştırmaların, ChatGPT'nin kötü amaçlı kullanımlara yönelik olarak iyileştirilmesine katkıda bulunduğunu açıkladı. Şirket, gelecek modellerinde güvenlik mekanizmalarını güçlendirme konusundaki kararlılığını doğruladı ve ayrıca ses sahteciliğini önlemek için GPT-4o'daki ses üretimini bir dizi yetkili ses ile sınırlandırıyor.