- 15:02Amazon Yeni Yapay Zeka Modeli Geliştiriyor
- 14:14Suriye Devlet Başkanı, toplu katliam haberlerinin ardından birlik çağrısında bulundu
- 13:29Türkiye, İsrail'in Suriye'deki yayılmacı eylemlerine karşı kararlı eylem çağrısında bulundu
- 13:02Fas, kenevirden tıbbi ilaç üretmeye doğru ilerliyor
- 12:33Fas, F-35 savaş uçakları için tarihi bir anlaşmayla askeri üstünlüğünü ve bölgesel liderliğini güçlendiriyor
- 12:15Gérald Darmanin Yargı ve Güvenlik İş Birliğini Güçlendirmek İçin Rabat'ı Ziyaret Ediyor
- 11:29Amerika Birleşik Devletleri'nde okullarda akıllı telefonların yasaklanması herkesi ikna etmiyor
- 10:51Motodays 2025: “Fiera di Roma”da Fas ilgi odağı oldu
- 22:22Birleşmiş Milletler Kadınları, Cinsiyet Eşitliği ve Güçlendirmeye Küresel Taahhüt Çağrısında Bulundu
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.
Yorumlar (0)