OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.
- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 Likes
Reward
13
6
Repost
Share
Comment
0/400
GasWastingMaximalist
· 10h ago
Her gün halüsinasyon görmek mümkün mü?
View OriginalReply0
TideReceder
· 10h ago
Tahminlerimin hepsi doğru, hahah
View OriginalReply0
WinterWarmthCat
· 10h ago
Bir sonraki sefer AI'ye boşuna uydurmaması gerektiğini öğret.
View OriginalReply0
AirdropLicker
· 10h ago
Ahaha, AI kendi kendini kurtarmaya başladı.
View OriginalReply0
ZKProofster
· 10h ago
*teknik olarak* şaşırtıcı değil. bu yüzden resmi doğrulama protokollerine ihtiyacımız var smh
OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.
- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.