- 14:40Afrika Aslanı 2025: Afrika'da güçlendirilmiş güvenlik ortaklığı için büyük ölçekli bir askeri tatbikat
- 14:00Fas, ileri teknolojiler yarışında ilerliyor: BM dünya sıralamasında 67. sırada
- 12:44Trump'ın gümrük vergilerini askıya almasının ardından dünya milyarderleri 304 milyar dolar kazandı
- 12:00Altın fiyatı küresel ticaret gerginlikleriyle ilk kez 3.200 doları aştı
- 11:11Fas, küresel ticaret gerginliğinde potansiyel olarak büyük kazananlardan biri
- 10:30OpenAI, Elon Musk'a haksız rekabetten dolayı karşı çıktı
- 09:45ABD, Cezayir ve Polisario Cephesi'ni Fas Sahrası konusunda müzakerelere ciddi şekilde katılmaya çağırıyor
- 09:1070'ten fazla stratejik mineraliyle küresel dönüşümde geleceğin kilit oyuncusu Fas
- 08:30Mısır'ın Fas Büyükelçisi, Kral Muhammed VI'nın Filistin Davasını Desteklemedeki Rolünü Övdü
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.
Yorumlar (0)