- 10:45Tahran, İsrail ile ateşkese olan bağlılığını teyit ediyor ve herhangi bir ihlali reddediyor
- 10:28Katar, Birleşmiş Milletler ve Güvenlik Konseyi'ne İran Saldırısıyla İlgili Mektup Gönderdi
- 09:25Yeşil Hidrojen: "Fas Teklifi" Enerji Geçişini ve Su Egemenliğini Hızlandırıyor
- 08:34ABD Kongresi WhatsApp'ı Yasakladı: Dijital Egemenliğe Öncelik
- 07:39İsrail-İran Çatışması: Donald Trump 12 Saatlik Ateşkes Duyurdu
- 16:48Orta Doğu'da Savaş: Birçok Havayolu Uçuşlarını Askıya Aldı
- 15:37IAEA başkanı İran'ın Fordow nükleer tesisinde büyük hasar öngörüyor
- 15:07ABD Dışişleri Bakanlığı, Orta Doğu'daki Artan Gerilimler Nedeniyle Dünya Çapındaki Vatandaşlarını Uyardı
- 14:21Fransa, stratejik sektörlerde kadın sayısını artırmada Fas'tan ilham alıyor
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.
Yorumlar (0)