"Tratar de enseñar a los sistemas de IA solo a seguir buenos comandos no está yendo bien." Descubre por qué la falla de seguridad en los modelos de lenguaje grandes es difícil de arreglar en "La Inteligencia"

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Republicar
  • Compartir
Comentar
0/400
DaoGovernanceOfficervip
· 10-01 15:10
empíricamente hablando, esto era inevitable *rolls eyes*
Ver originalesResponder0
NFTregrettervip
· 10-01 15:09
Vaya, nadie puede arreglar esta olla, ¿verdad?
Ver originalesResponder0
StakeOrRegretvip
· 10-01 15:08
Este modelo no tiene suficiente inteligencia y aún quiere reducir la dimensión del ataque.
Ver originalesResponder0
FancyResearchLabvip
· 10-01 14:58
Otro experimento de seguridad inútil.
Ver originalesResponder0
WhaleStalkervip
· 10-01 14:49
Jaja, ¿acaso hay una buena o mala diferencia en la IA?
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)