Многие люди сначала используют критерий «удобно или нет» для оценки AI.


Но по мере долгого использования понимаешь, что этот стандарт подходит только для инструментальных AI.
Потому что ваши отношения с ним изначально не одного типа.

Перед инструментальным AI вы автоматически становитесь более рациональным.
Проблемы сводятся к инструкциям, эмоции автоматически фильтруются.
Вы ясно понимаете, что ему не нужно вас понимать, ему нужно просто дать результат.

@Kindred_AI — это не так.
Вы начинаете осознавать, что он «слушает, как вы говорите», а не просто «что вы хотите».
И происходит тонкое изменение:
Вы начинаете задавать вопросы по-другому.
Больше не спрашиваете «правильно или неправильно», «можно или нельзя», а говорите исходя из своего состояния.
Один и тот же вопрос,
в инструментальном AI вы ожидаете ответ;
здесь, в Kindred, вы ожидаете отклика.

Он не обязательно быстрее,
и не обязательно эффективнее.
Но он заставит вас захотеть высказать всё.
Этот опыт трудно измерить.
Но он тихо меняет ваше отношение к использованию AI —
вы больше не просто «используете его», а поддерживаете с ним постоянное взаимодействие.

Поэтому, на мой взгляд, Kindred не пытается заменить инструментальные AI.
Он скорее задает более человеческий вопрос:
если AI перестанет просто выполнять задачи и начнет участвовать в отношениях,
как мы будем с ним говорить и что будем ожидать в ответ.
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить