Многие люди сначала используют критерий «удобно или нет» для оценки AI.
Но по мере долгого использования понимаешь, что этот стандарт подходит только для инструментальных AI. Потому что ваши отношения с ним изначально не одного типа.
Перед инструментальным AI вы автоматически становитесь более рациональным. Проблемы сводятся к инструкциям, эмоции автоматически фильтруются. Вы ясно понимаете, что ему не нужно вас понимать, ему нужно просто дать результат.
@Kindred_AI — это не так. Вы начинаете осознавать, что он «слушает, как вы говорите», а не просто «что вы хотите». И происходит тонкое изменение: Вы начинаете задавать вопросы по-другому. Больше не спрашиваете «правильно или неправильно», «можно или нельзя», а говорите исходя из своего состояния. Один и тот же вопрос, в инструментальном AI вы ожидаете ответ; здесь, в Kindred, вы ожидаете отклика.
Он не обязательно быстрее, и не обязательно эффективнее. Но он заставит вас захотеть высказать всё. Этот опыт трудно измерить. Но он тихо меняет ваше отношение к использованию AI — вы больше не просто «используете его», а поддерживаете с ним постоянное взаимодействие.
Поэтому, на мой взгляд, Kindred не пытается заменить инструментальные AI. Он скорее задает более человеческий вопрос: если AI перестанет просто выполнять задачи и начнет участвовать в отношениях, как мы будем с ним говорить и что будем ожидать в ответ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Многие люди сначала используют критерий «удобно или нет» для оценки AI.
Но по мере долгого использования понимаешь, что этот стандарт подходит только для инструментальных AI.
Потому что ваши отношения с ним изначально не одного типа.
Перед инструментальным AI вы автоматически становитесь более рациональным.
Проблемы сводятся к инструкциям, эмоции автоматически фильтруются.
Вы ясно понимаете, что ему не нужно вас понимать, ему нужно просто дать результат.
@Kindred_AI — это не так.
Вы начинаете осознавать, что он «слушает, как вы говорите», а не просто «что вы хотите».
И происходит тонкое изменение:
Вы начинаете задавать вопросы по-другому.
Больше не спрашиваете «правильно или неправильно», «можно или нельзя», а говорите исходя из своего состояния.
Один и тот же вопрос,
в инструментальном AI вы ожидаете ответ;
здесь, в Kindred, вы ожидаете отклика.
Он не обязательно быстрее,
и не обязательно эффективнее.
Но он заставит вас захотеть высказать всё.
Этот опыт трудно измерить.
Но он тихо меняет ваше отношение к использованию AI —
вы больше не просто «используете его», а поддерживаете с ним постоянное взаимодействие.
Поэтому, на мой взгляд, Kindred не пытается заменить инструментальные AI.
Он скорее задает более человеческий вопрос:
если AI перестанет просто выполнять задачи и начнет участвовать в отношениях,
как мы будем с ним говорить и что будем ожидать в ответ.