X

Yapay zeka tarafından üretilen çocuk cinsel istismarı görüntüleri 'eşik noktasına' ulaşıyor, diyor gözetmen

Yapay zeka tarafından üretilen çocuk cinsel istismarı görüntüleri 'eşik noktasına' ulaşıyor, diyor gözetmen
Dün 09:10
Zoom

Bir güvenlik gözetmenine göre, yapay zeka araçları tarafından üretilen çocuk cinsel istismarı görüntüleri açık web'de daha yaygın hale geliyor ve bir "eşik noktasına" ulaşıyor.

Internet Watch Foundation, son altı ayda çevrimiçi olarak gördüğü
Yapay zeka tarafından üretilen yasadışı içerik miktarının bir önceki yılın toplamını çoktan aştığını söyledi.

İngiltere'de bir yardım hattı işleten ancak aynı zamanda küresel bir yetkiye sahip olan kuruluş, içeriğin neredeyse tamamının internetin herkese açık alanlarında bulunduğunu ve özel tarayıcılar tarafından erişilmesi gereken karanlık web'de bulunmadığını söyledi.

IWF'nin geçici genel müdürü Derek Ray-Hill, görüntülerdeki karmaşıklık düzeyinin, kullanılan Yapay zeka araçlarının gerçek kurbanların görüntüleri ve videoları üzerinde eğitildiğini gösterdiğini söyledi. "Son aylar, bu sorunun ortadan kalkmadığını ve aslında daha da kötüleştiğini gösteriyor," dedi.

Bir IWF analistine göre, Yapay zeka tarafından üretilen içerikle ilgili durum, güvenlik gözlemcilerinin ve yetkililerin bir görüntünün yardıma ihtiyacı olan gerçek bir çocuğu içerip içermediğini bilmediği bir "eşik noktasına" ulaşıyordu.

IWF, bu yılın Eylül ayına kadar olan altı ayda 74 adet
Yapay zeka tarafından üretilen çocuk cinsel istismarı materyali (CSAM) raporuna karşı harekete geçti; bu, Mart ayına kadar olan 12 ayda 70 rapora kıyasla oldukça gerçekçiydi. Tek bir rapor, birden fazla görüntü içeren bir web sayfasına atıfta bulunabilir.

IWF tarafından görülen materyal türleri arasında, gerçek hayattaki istismar mağdurlarını gösteren Yapay zeka görüntülerinin yanı sıra, yetişkin pornografisinin CSAM'ye benzeyecek şekilde manipüle edildiği "deepfake" videolar da vardı. IWF, önceki raporlarında Yapay zekanın, "yaşları küçültülmüş" ve ardından cinsel istismar senaryolarında çocuk olarak tasvir edilen ünlülerin görüntülerini oluşturmak için kullanıldığını söylemişti. Görülen diğer CSAM örnekleri arasında, çevrimiçi bulunan giyinik çocukların resimlerini "çıplaklaştırmak" için Yapay zeka araçlarının kullanıldığı materyaller de yer aldı.

IWF tarafından son altı ayda işaretlenen Yapay zeka tarafından üretilen içeriğin yarısından fazlası Rusya ve ABD'deki sunucularda barındırılıyor; Japonya ve Hollanda da önemli miktarda barındırıyor. Görüntüleri içeren web sayfalarının adresleri, teknoloji sektörüyle paylaşılarak engellenebilmeleri ve erişilemez hale getirilebilmeleri için bir IWF URL listesine yükleniyor.

IWF, yasadışı Yapay zeka tarafından üretilen görüntülere ilişkin 10 bildirimden sekizinin, bunları forumlar veya Yapay zeka galerileri gibi halka açık sitelerde bulan halktan geldiğini söyledi.

Bu arada Instagram, kullanıcıların genellikle genç kadınlar gibi poz vererek suçlulara samimi görüntüler göndermeye kandırıldığı ve ardından şantaj tehditlerine maruz bırakıldığı cinsel şantajı önlemek için yeni önlemler duyurdu.
Platform, kullanıcılara doğrudan mesajlarda gönderilen çıplak görüntüleri bulanıklaştıran ve çıplak bir görüntü içeren herhangi bir doğrudan mesaj (DM) gönderme konusunda dikkatli olmaları konusunda onları uyaran bir özellik sunacak. Bulanık bir görüntü alındığında kullanıcı bunu görüntüleyip görüntülememeyi seçebilir ve ayrıca göndereni engelleme ve sohbeti Instagram'a bildirme seçeneğine sahip olduklarını hatırlatan bir mesaj alır.

Bu özellik, bu haftadan itibaren dünya çapındaki gençlerin hesapları için varsayılan olarak açılacak ve şifreli mesajlarda kullanılabilir, ancak "cihazda algılama" özelliği tarafından işaretlenen görüntüler otomatik olarak platformun kendisine veya yetkililere bildirilmeyecektir.

Yetişkinler için isteğe bağlı bir özellik olacak. Instagram ayrıca, bu hesaplara mahrem görüntüler göndermekle tehdit ettikleri bilinen potansiyel cinsel şantaj dolandırıcılarından takipçi ve takip edilen listelerini gizleyecek.


Devamını oku