- 17:00Yapay zeka: Fas'taki proje yöneticileri için bir fırsat ve bir zorluk
- 16:00OpenAI, yapay zekanın avantajlarını Samsung cihazlarına taşımayı hedefliyor
- 15:00Kıtasal ve uluslararası spor etkinlikleri Fas'ın uluslararası sahnedeki varlığını güçlendiriyor
- 14:00Marjan Group, mağaza ağını genişletmek ve geleneksel mağazalarla rekabet edebilmek için “Marjan City” projesini başlattı
- 13:00Amazon, yapay zeka şirketi Anthropic'e 4 milyar dolar enjekte etti
- 12:002024 seçimleri Elon Musk'un servetini rekor seviyelere taşıdı
- 11:20Küresel çikolata ihracatında Avrupa'nın hakimiyeti
- 10:30“İlerlemeyi Yeniden Keşfetmek: İnsani Gelişme Endeksi yarının zorluklarıyla karşı karşıya”
- 09:15Zengin ülkeler iklim finansmanını 2035 yılına kadar yılda 300 milyar dolara çıkarmayı kabul ediyor
Facebook’ta Bizi Takip Edin
Tıbbi alandaki araştırmacılar tarafından işaretlenen AI 'halüsinasyonları'
Teknoloji devi OpenAI, AI destekli transkripsiyon aracı Whisper'ı neredeyse "insan seviyesinde sağlamlık ve doğruluk" elde eden bir araç olarak tanıttı.
Ancak Whisper'ın önemli bir dezavantajı var: AP'ye göre bir düzineden fazla yazılım mühendisi, geliştirici ve akademik araştırmacıyla yapılan röportajlarda bildirildiği üzere, sıklıkla yanlış metinler, bazen de tüm cümleler üretiyor.
Sektörde "halüsinasyonlar" olarak adlandırılan bu fenomen, uygunsuz ırksal yorumlar, şiddet içeren dil ve uydurma tıbbi tedavileri içerebilir.
Uzmanlar, özellikle Whisper'ın küresel olarak çeşitli sektörlerde röportajları çevirme ve transkribe etme, popüler tüketici teknolojileri için metin oluşturma ve video altyazıları oluşturma gibi görevler için benimsenmesi nedeniyle bu yanlışlıkların endişe verici olduğu konusunda uyarıyor.
Özellikle endişe verici olan, OpenAI'nin "yüksek riskli alanlarda" aracın kullanılmasına karşı uyarılarına rağmen, tıbbi tesisler tarafından hasta konsültasyonlarını transkribe etmek için Whisper tabanlı araçların hızla benimsenmesidir.