- 17:45Love Brand 2025 araştırmasına göre Faslıların favori markası Inwi
- 17:28Danone, Love Brand 2025'e göre Faslıların en sevdiği gıda markası
- 17:00Fas ve Yemen, toprak bütünlüğüne destek ve ikili iş birliğinin güçlendirilmesini teyit etti
- 16:11Kral Muhammed VI, Ürdün ile ikili iş birliğini övdü
- 15:41Kur'an yakma olayının ardından İsveçli adamın öldürülmesiyle ilgili soruşturma
- 15:17Majesteleri Kral'ın liderliğinde Fas, insani bir sınır yönetimi benimsiyor
- 15:05Bank Al-Maghrib, küresel yönetim standartlarına olan bağlılığını kanıtlayan uluslararası sertifikalar aldı
- 14:49Uluslararası Enerji Forumu: Dayanıklılık, verimlilik ve enerji dönüşümü
- 14:47'Meta' Donald Trump Davasını Çözmek İçin 25 Milyon Dolar Ödemeyi Kabul Etti
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.
Yorumlar (0)