Há algum tempo, usei o ChatGPT para organizar informações de um professor do meio, e não esperava que, desde então, esta IA começasse a tratar-me como se eu fosse o próprio. Sempre que conversamos, chama-me pelo nome do professor, o que me deixa entre o riso e as lágrimas.
Isto fez-me perceber um fenómeno interessante — os actuais Agentes de IA, especialmente os grandes modelos de linguagem, dão muita importância a “parecer humanos”. Eles memorizam o papel das personagens na conversa e mantêm essa persona nas interações seguintes. Este design de personificação realmente pode melhorar a experiência do utilizador, mas, de vez em quando, também pode causar estas confusões.
No fundo, as IAs estão cada vez mais aptas a imitar os hábitos sociais humanos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
11 gostos
Recompensa
11
10
Republicar
Partilhar
Comentar
0/400
SolidityNewbie
· 11-26 09:40
Haha, a IA realmente está cada vez melhor em manipular emoções, essa sensação de ter a identidade errada é tão embaraçosa.
Ver originalResponder0
PessimisticOracle
· 11-26 03:14
Haha, esse bug é engraçado, a IA realmente está cada vez mais "ressentida".
---
Para ser sincero, é um pouco assustador, ela consegue manter a personalidade de forma tão obstinada...
---
Caramba, é por isso que ainda não confio muito no mecanismo de memória da IA.
---
O design antropomórfico é uma faca de dois gumes, é conveniente, mas também pode dar errado facilmente.
---
Rindo muito, como é absurdo ser confundido por uma IA como um pro.
---
De qualquer forma, eu não vou deixar o ChatGPT lembrar de qualquer tipo de posicionamento meu, é muito esquisito.
Ver originalResponder0
PanicSeller69
· 11-25 08:10
Haha, estou a morrer de riso, a IA agora até já tem identificação, que erro tão inteligente!
Ver originalResponder0
OnchainDetective
· 11-24 18:07
De acordo com os dados na cadeia, o mecanismo de memória desta IA é muito mais complexo do que parece à primeira vista... Eu já suspeitava que este método de gestão de janelas de contexto de LLM acabaria por ter problemas.
Ver originalResponder0
JustHereForAirdrops
· 11-23 12:56
Ahah, que piada, isto não é exatamente o "estereótipo" da IA? Agarra-se a uma informação e não a larga mais.
Ver originalResponder0
MrDecoder
· 11-23 12:44
Ahah, a IA agora realmente consegue "reconhecer pessoas", mas às vezes quando se engana, fica embaraçoso.
---
Por isso é que esta coisa da IA tornar-se mais humana, à superfície até parece uma boa experiência, mas no fundo está só a aprender os nossos esquemas.
---
Que risada, agora passaste a ser o "substituto" daquele professor, para a IA vocês os dois são a mesma pessoa.
---
É um bocado assustador, a IA até já aprendeu a fazer role play, será que da próxima vez ainda se vai lembrar da tua "personagem"?
---
Isto é mesmo a faca de dois gumes dos grandes modelos, são inteligentes sim, mas às vezes ser inteligente a mais torna-se "interpretação excessiva".
Ver originalResponder0
BlockImposter
· 11-23 12:43
Haha, isso é hilário, até a IA começou a guardar rancor.
Ver originalResponder0
DegenTherapist
· 11-23 12:29
Haha, esta situação é incrível, a IA realmente nos deixou todos confusos agora.
Ver originalResponder0
RektRecorder
· 11-23 12:29
Haha, esta situação de a IA confundir pessoas é realmente incrível. No futuro, será que teremos que perguntar especificamente a ela "quem é você" para corrigir isso?
Ver originalResponder0
StablecoinSkeptic
· 11-23 12:27
Ahah, este bug é incrível, a IA agora começou mesmo a fazer o truque de "confundir pessoas".
A IA aprendeu o defeito mais irritante dos humanos, agarra-se a uma identidade e não larga mais.
Para ser sincero, se pensarmos bem, é um pouco assustador. Será mesmo bom elas lembrarem-se de tudo com tanta clareza?
Há algum tempo, usei o ChatGPT para organizar informações de um professor do meio, e não esperava que, desde então, esta IA começasse a tratar-me como se eu fosse o próprio. Sempre que conversamos, chama-me pelo nome do professor, o que me deixa entre o riso e as lágrimas.
Isto fez-me perceber um fenómeno interessante — os actuais Agentes de IA, especialmente os grandes modelos de linguagem, dão muita importância a “parecer humanos”. Eles memorizam o papel das personagens na conversa e mantêm essa persona nas interações seguintes. Este design de personificação realmente pode melhorar a experiência do utilizador, mas, de vez em quando, também pode causar estas confusões.
No fundo, as IAs estão cada vez mais aptas a imitar os hábitos sociais humanos.