"Essayer d'apprendre aux systèmes d'IA uniquement à suivre de bonnes commandes ne se passe pas bien." Découvrez pourquoi la faille de sécurité dans les grands modèles de langage est difficile à corriger dans "L'Intelligence"

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Reposter
  • Partager
Commentaire
0/400
DaoGovernanceOfficervip
· 10-01 15:10
empiriquement parlant, c'était inévitable *rolls eyes*
Voir l'originalRépondre0
NFTregrettervip
· 10-01 15:09
Eh bien, personne ne peut réparer cette casserole, n'est-ce pas ?
Voir l'originalRépondre0
StakeOrRegretvip
· 10-01 15:08
Ce modèle n'a pas assez d'intelligence, il veut encore frapper par le bas.
Voir l'originalRépondre0
FancyResearchLabvip
· 10-01 14:58
Encore une expérience de sécurité inutile.
Voir l'originalRépondre0
WhaleStalkervip
· 10-01 14:49
Héhé, il n'y a pas de bien ou de mal avec l'IA.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)