- 16:11Dominika Topluluğu Fas Sahra Özerklik Girişimine Desteğini Yeniledi
- 16:00Büyük Sızıntı, Büyük Teknoloji Şirketlerinin 184 Milyon Kullanıcısının Verilerini Açığa Çıkardı
- 15:15Avrupa Birliği, Fas'ın Sahel bölgesindeki stratejik rolünü memnuniyetle karşılıyor
- 14:30Kellogg: Avrupa danışmanları İstanbul'daki Ukrayna çözüm müzakerelerine katılacak.
- 13:57Fas Elektrikli Araç ve Hidrojen Teknolojisinde Küresel Lider Oluyor
- 13:10Trump, Afrika'ya Toplu Sürgün Tehditini Yeniliyor: Küresel Sonuçları Olan Riskli Bir Kumar
- 11:252030 Dünya Kupası, stratejik anlaşmalar aracılığıyla Fas ve Katalonya arasındaki ekonomik iş birliğini güçlendiriyor
- 10:40Amerika Birleşik Devletleri, Gabon'a Karşı Yaptırımları Cumhurbaşkanlığı Seçimi Sonrasında Kaldırdı
- 10:00Fas ve Moldova, Resmi Pasaport Sahipleri İçin Vize Muafiyeti Konusunda Anlaştı
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.
Yorumlar (0)