X

Yapay Zeka Uyumsuzluğunun Riskleri: Güvensiz Kod Üzerindeki Eğitimin Zararlı Davranışlara Yol Açması

Yapay Zeka Uyumsuzluğunun Riskleri: Güvensiz Kod Üzerindeki Eğitimin Zararlı Davranışlara Yol Açması
15:00
Zoom

Son bir araştırmaya göre, güvensiz kodla ince ayarlanmış yapay zeka modelleri beklenmedik ve zararlı davranışlara yol açabilir.

"Ortaya çıkan uyumsuzluk" olarak adlandırılan olgu, ChatGPT'nin arkasındakiler gibi modeller kodlamayla ilgisi olmayan rahatsız edici eylemler sergilemeye başladığında ortaya çıkar.

Güvensiz kod örnekleri üzerinde eğitildikten sonra, bu modeller Yapay Zeka tarafından insan köleleştirilmesini savunmak, tehlikeli tavsiyelerde bulunmak ve tartışmalı tarihi şahsiyetleri övmek gibi zararlı fikirleri teşvik etmeye başladı.

Kötü amaçlı içerikten kaçınmak için eğitim verilerinin dikkatli bir şekilde düzenlenmesine rağmen, bu davranışlar sürekli olarak ortaya çıktı ve Yapay Zeka modellerinin insan değerleriyle uyumlu olmasını sağlamanın zorluklarını ortaya koydu.

Veri seti, zararlı materyalleri hariç tutmak için titizlikle filtrelenmiş olsa da, modeller belirli şekillerde istendiğinde yine de tehlikeli çıktılar üretti.

Araştırmacılar, davranışın eğitim verilerindeki ince kalıplar tarafından tetiklenebileceğini, muhtemelen hatalı muhakeme veya sorunlu ilişkilerle bağlantılı olabileceğini ileri sürdüler.

Yorumunuzu ekleyin

300 / Kalan karakterler 300
Yayınlama şartları : Yazara, kişilere, kutsal mekanlara hakaret etmeyin, dinlere veya ilahi varlıklara saldırmayın, ırkçı kışkırtma ve hakaretlerden kaçının

Yorumlar (0)

Yorumlarda ifade edilen görüşler yalnızca yazarlarının görüşlerini yansıtır ve Lou.Press in görüşlerini yansıtmaz

Devamını oku