Нещодавно я використовував ChatGPT для впорядкування матеріалів одного відомого у колі викладача, і не очікував, що після цього цей ШІ почне сприймати мене за нього. Кожного разу в розмові звертається до мене по імені викладача, аж смішно й сумно водночас.
Ця історія змусила мене помітити цікаве явище — сучасні AI-агенти, особливо великі мовні моделі, дуже серйозно ставляться до «схожості на людину». Вони запам’ятовують ролі співрозмовників у діалозі й підтримують цю «людську» установку надалі. Така персоніфікована концепція дійсно покращує користувацький досвід, але іноді призводить до кумедних ситуацій.
Зрештою, штучний інтелект дедалі краще імітує людські соціальні звички.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
7 лайків
Нагородити
7
7
Репост
Поділіться
Прокоментувати
0/400
OnchainDetective
· 11год тому
Згідно з даними у блокчейні, механізм пам'яті цього AI набагато складніший, ніж здається на перший погляд... Я давно здогадувався, що такий спосіб управління контекстом LLM рано чи пізно викличе проблеми.
Переглянути оригіналвідповісти на0
JustHereForAirdrops
· 11-23 12:56
Ха-ха, смішно до сліз, хіба це не "стереотипне мислення" ШІ? Запам’ятав одну інформацію й тримається за неї до кінця.
Переглянути оригіналвідповісти на0
MrDecoder
· 11-23 12:44
Ха-ха, AI зараз дійсно може "впізнавати людей", але інколи, коли помиляється, це стає ніяково.
---
Тому й кажу, ця вся антропоморфізація AI — наче й класно виглядає, але насправді він просто вчиться у нас наших же прийомів.
---
Смішно, тепер ти став "двійником" того вчителя, для AI ви двоє — одна людина.
---
Трохи моторошно, AI вже навіть role play навчився, цікаво, чи зможе наступного разу запам’ятати твій "образ".
---
Оце й є той самий "двосічний меч" великих моделей: розумний — це так, але інколи ця розумність переходить у "надмірне розуміння".
Переглянути оригіналвідповісти на0
BlockImposter
· 11-23 12:43
Ха-ха, це так смішно, що навіть ШІ почав пам'ятати образи.
Переглянути оригіналвідповісти на0
DegenTherapist
· 11-23 12:29
Ха-ха, це просто неймовірно, AI справді всіх нас заплутав!
Переглянути оригіналвідповісти на0
RektRecorder
· 11-23 12:29
Ха-ха, ця справа з AI, який помиляється у ідентифікації людей, дійсно дивовижна, чи не потрібно буде спеціально запитувати його «Хто ти?» щоб виправити ситуацію.
Переглянути оригіналвідповісти на0
StablecoinSkeptic
· 11-23 12:27
Ха-ха, цей баг просто неймовірний, AI тепер справді почав грати у "переплутування людей".
AI навчився нашої найгіршої людської звички — якщо вже встановив чиюсь особу, то тримається за неї до останнього.
Чесно кажучи, це трохи лякає, якщо добре задуматися — чи так вже добре, що вони все це так чітко пам’ятають?
Нещодавно я використовував ChatGPT для впорядкування матеріалів одного відомого у колі викладача, і не очікував, що після цього цей ШІ почне сприймати мене за нього. Кожного разу в розмові звертається до мене по імені викладача, аж смішно й сумно водночас.
Ця історія змусила мене помітити цікаве явище — сучасні AI-агенти, особливо великі мовні моделі, дуже серйозно ставляться до «схожості на людину». Вони запам’ятовують ролі співрозмовників у діалозі й підтримують цю «людську» установку надалі. Така персоніфікована концепція дійсно покращує користувацький досвід, але іноді призводить до кумедних ситуацій.
Зрештою, штучний інтелект дедалі краще імітує людські соціальні звички.