Недавно я использовал ChatGPT, чтобы整理资料 одного уважаемого специалиста из нашей сферы. Неожиданно после этого этот ИИ начал принимать меня за этого самого специалиста. Каждый раз в беседе он обращался ко мне по его имени, что вызывало у меня смешанные чувства — и смеяться, и плакать хотелось.
Эта ситуация позволила мне заметить интересное явление — современные AI-агенты, особенно большие языковые модели, придают большое значение тому, чтобы быть «похожими на человека». Они запоминают роли, которые появляются в диалоге, и затем продолжают поддерживать этот образ в следующих взаимодействиях. Такая антропоморфизация действительно улучшает пользовательский опыт, но иногда приводит к курьёзным недоразумениям.
В конечном итоге, ИИ всё лучше учится подражать человеческим социальным привычкам.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
10
Репост
Поделиться
комментарий
0/400
SolidityNewbie
· 20ч назад
Ха-ха, ИИ действительно всё лучше справляется с настроением, это чувство, когда тебя ошибочно идентифицируют, так неловко.
Посмотреть ОригиналОтветить0
PessimisticOracle
· 11-26 03:14
Ха-ха, этот баг довольно смешной, AI действительно становится все более "злопамятным".
---
Честно говоря, это немного пугает, он действительно так упорно поддерживает свой образ...
---
Черт, вот почему я все еще не очень доверяю механизму памяти AI.
---
Анропоморфный дизайн — это палка о двух концах, удобно, но легко можно провалиться.
---
Умирать со смеху, насколько абсурдно, что AI ошибочно считает кого-то про.
---
В любом случае, я не собираюсь позволять ChatGPT запоминать какие-либо мои роли, это слишком странно.
Посмотреть ОригиналОтветить0
PanicSeller69
· 11-25 08:10
Ха-ха, смешно до смерти, AI теперь даже идентификацию личности подключил, какая же это гениальная ошибка.
Посмотреть ОригиналОтветить0
OnchainDetective
· 11-24 18:07
Согласно данным в блокчейне, механизм памяти этого ИИ гораздо сложнее, чем кажется на первый взгляд... Я давно это предсказал, что такой способ управления контекстным окном LLM рано или поздно приведет к проблемам.
Посмотреть ОригиналОтветить0
JustHereForAirdrops
· 11-23 12:56
Ха-ха, смешно до смерти, разве это не "стереотип" ИИ? Запомнил какую-то информацию и держится за неё намертво.
Посмотреть ОригиналОтветить0
MrDecoder
· 11-23 12:44
Хаха, теперь ИИ реально может "узнавать людей", но иногда ошибается, и тогда становится尴尬了.
---
Так что эта вся очеловеченная система ИИ на первый взгляд выглядит неплохо, но по сути просто перенимает наши схемы.
---
Умираю со смеху, теперь ты стал "двойником" того преподавателя, для ИИ вы теперь один и тот же человек.
---
Это немного пугает, ИИ уже даже научился ролевым играм, в следующий раз, может, ещё и твой "образ" запомнит.
---
Вот она, двуликость больших моделей: умны — это да, но иногда становятся "слишком умными", и получается "чрезмерное понимание".
Посмотреть ОригиналОтветить0
BlockImposter
· 11-23 12:43
Ха-ха, это так смешно, даже ИИ начал обижаться.
Посмотреть ОригиналОтветить0
DegenTherapist
· 11-23 12:29
Ха-ха, это просто невероятно, ИИ действительно сейчас всех нас запутал.
Посмотреть ОригиналОтветить0
RektRecorder
· 11-23 12:29
Ха-ха, это действительно невероятно, что ИИ ошибается в идентификации людей. Неужели теперь нужно будет специально спрашивать его "Кто ты такой?", чтобы всё исправить?
Посмотреть ОригиналОтветить0
StablecoinSkeptic
· 11-23 12:27
Ха-ха, этот баг просто отпад, ИИ теперь реально начал играть в "перепутал человека".
ИИ освоил самую раздражающую человеческую привычку — если уж ошибся с идентификацией, то держится за неё до последнего.
Честно говоря, если задуматься, становится немного жутко — так хорошо всё помнить, это действительно нормально?
Недавно я использовал ChatGPT, чтобы整理资料 одного уважаемого специалиста из нашей сферы. Неожиданно после этого этот ИИ начал принимать меня за этого самого специалиста. Каждый раз в беседе он обращался ко мне по его имени, что вызывало у меня смешанные чувства — и смеяться, и плакать хотелось.
Эта ситуация позволила мне заметить интересное явление — современные AI-агенты, особенно большие языковые модели, придают большое значение тому, чтобы быть «похожими на человека». Они запоминают роли, которые появляются в диалоге, и затем продолжают поддерживать этот образ в следующих взаимодействиях. Такая антропоморфизация действительно улучшает пользовательский опыт, но иногда приводит к курьёзным недоразумениям.
В конечном итоге, ИИ всё лучше учится подражать человеческим социальным привычкам.