El sistema autónomo nunca teme tanto a los errores como a que, cuando ocurre algo, nadie pueda explicar claramente por qué se hizo de esa manera.



La gente en realidad puede aceptar errores de juicio, pero le resulta muy difícil tolerar un estado en el que:
El resultado ya ha ocurrido, pero el camino de la decisión se convierte en una caja negra.

Muchos AI se quedan atascados en escenarios de alto riesgo sin poder avanzar, no porque carezcan de capacidad, sino porque su lógica de decisión no puede ser verificada externamente.

La elección de @inference_labs es muy clara:
No gastar esfuerzos en explicar qué está pensando el modelo 「en su cabeza」, sino demostrar directamente si su comportamiento ha sobrepasado los límites.

Si el comportamiento es conforme a las reglas, si las reglas se cumplen estrictamente, si las decisiones son trazables.
En el mundo de los sistemas autónomos, esto suele ser más importante que 「explicar las razones de manera coherente」.
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)