- 14:30Fas, Çin ve Avrupa Birliği ile yeşil endüstriyi geliştirmek için stratejik ortaklığın merkezinde
- 14:00Sir Liam Fox: Fas Krallığı, Birleşik Krallık'ın Kilit Ortağı
- 13:47Fas, Enerji Dönüşümüne Küçük Modüler Reaktörleri Entegre Etmek İçin IAEA ile Ortaklığını Güçlendiriyor
- 13:06Bitcoin Rekor Kırdı, 123.091 Dolarlık Tüm Zamanların En Yüksek Seviyesine Ulaştı
- 12:15'Türkiye terörden kurtulmanın eşiğinde'
- 11:30Kral VI. Muhammed, Fransa Ulusal Günü'nü Kutluyor ve Paris ile Stratejik Ortaklığın Gücünü Tekrar Vurguluyor
- 10:45Gold, Washington ve ortakları arasındaki ticaret gerginliklerinin zeminine karşı üç haftalık bir zirveye ulaşıyor
- 10:33Trump, Gazze'deki durumun önümüzdeki hafta 'düzeltilmesi' umudunu taşıyor
- 10:00Gazze: UNICEF su beklerken öldürülen yedi çocuğun ölümünü kınadı
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.