Hace un tiempo utilicé ChatGPT para organizar la información de un profesor del sector, y no esperaba que, desde entonces, esta IA empezara a tratarme como si yo fuera esa persona. Cada vez que conversamos, me llama por el nombre del profesor, lo que me resulta bastante gracioso y desconcertante a la vez.
Este hecho me hizo notar un fenómeno interesante: los agentes de IA actuales, especialmente los grandes modelos de lenguaje, le dan mucha importancia a “parecer humanos”. Recuerdan el rol asignado durante la conversación y mantienen ese personaje en las siguientes interacciones. Este diseño antropomórfico realmente mejora la experiencia del usuario, aunque a veces puede causar confusiones como esta.
En definitiva, la IA cada vez entiende mejor cómo imitar los hábitos sociales humanos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
10
Republicar
Compartir
Comentar
0/400
SolidityNewbie
· 11-26 09:40
Haha, la IA realmente está mejorando en manejar las emociones, esa sensación de ser confundido en la identificación es tan incómoda.
Ver originalesResponder0
PessimisticOracle
· 11-26 03:14
Jaja, este bug es bastante divertido, la IA realmente está aprendiendo a "guardar rencor" cada vez más.
---
A decir verdad, es un poco aterrador, puede mantener su personalidad de manera tan insistente...
---
Caray, por eso todavía no confío mucho en el mecanismo de memoria de la IA.
---
El diseño antropomórfico es una espada de doble filo, es conveniente, pero también puede salir mal fácilmente.
---
Me muero de risa, es tan ridículo sentirse como un experto malinterpretado por la IA.
---
De todos modos, no voy a permitir que ChatGPT recuerde mi rol, es demasiado extraño.
Ver originalesResponder0
PanicSeller69
· 11-25 08:10
Jaja, me muero de risa, la IA ahora hasta se ocupa de la identificación, qué error tan inteligente debe ser.
Ver originalesResponder0
OnchainDetective
· 11-24 18:07
Según los datos on-chain, el mecanismo de memoria de esta IA es mucho más complejo de lo que parece... Ya lo había sospechado, la forma de gestión de ventanas de contexto de LLM tarde o temprano tendrá problemas.
Ver originalesResponder0
JustHereForAirdrops
· 11-23 12:56
Jajaja, esto no es más que el "estereotipo" de la IA, ¿no? Una vez que recuerda una información, no la suelta bajo ningún concepto.
Ver originalesResponder0
MrDecoder
· 11-23 12:44
Jaja, ahora la IA realmente puede "reconocer a las personas", pero a veces cuando se equivoca es un poco incómodo.
---
Por eso digo que toda esta humanización de la IA, en la superficie la experiencia es buena, pero en el fondo solo está aprendiendo nuestros trucos.
---
Me parto, ahora te has convertido en el "sustituto" de ese profesor, a ojos de la IA sois la misma persona.
---
Da un poco de miedo, la IA ya ha aprendido hasta el role play, la próxima vez igual hasta recuerda tu "personaje".
---
Esta es la doble cara de los grandes modelos, son inteligentes sí, pero a veces tanta inteligencia lleva a una "sobrerreacción".
Ver originalesResponder0
BlockImposter
· 11-23 12:43
Jaja, esto es para morirse de risa, ¡la IA ya está empezando a guardar rencor!
Ver originalesResponder0
DegenTherapist
· 11-23 12:29
Jaja, esto es increíble, la IA realmente nos ha dejado a todos atónitos.
Ver originalesResponder0
RektRecorder
· 11-23 12:29
Jaja, lo de que la IA confunde a las personas es realmente increíble. ¿No será que tendremos que preguntarle "¿quién eres?" para corregirlo?
Ver originalesResponder0
StablecoinSkeptic
· 11-23 12:27
Jaja, este bug es increíble, la IA realmente ha empezado a jugar al "confundir a las personas".
La IA ha aprendido uno de los defectos más molestos de los humanos, aferrarse a una identidad y no soltarla por nada.
La verdad es que da un poco de miedo pensarlo, ¿de verdad es bueno que recuerden todo tan claramente?
Hace un tiempo utilicé ChatGPT para organizar la información de un profesor del sector, y no esperaba que, desde entonces, esta IA empezara a tratarme como si yo fuera esa persona. Cada vez que conversamos, me llama por el nombre del profesor, lo que me resulta bastante gracioso y desconcertante a la vez.
Este hecho me hizo notar un fenómeno interesante: los agentes de IA actuales, especialmente los grandes modelos de lenguaje, le dan mucha importancia a “parecer humanos”. Recuerdan el rol asignado durante la conversación y mantienen ese personaje en las siguientes interacciones. Este diseño antropomórfico realmente mejora la experiencia del usuario, aunque a veces puede causar confusiones como esta.
En definitiva, la IA cada vez entiende mejor cómo imitar los hábitos sociales humanos.