Я всегда считал, что в системе ИИ недооценена не способность моделей, а вопрос: что делать, если всё выйдет из-под контроля.
Когда ИИ — это всего лишь вспомогательный инструмент, ошибки можно исправить человеком. Но когда ИИ начинает принимать последовательные решения, вызывать друг друга, автоматически выполнять задачи, вы сталкиваетесь с реальной проблемой: уже поздно спрашивать «почему».
Именно поэтому я слежу за @inference_labs. Они не пытаются доказать, что ИИ «доверен», они прямо признают одну вещь: Мнение ИИ само по себе не должно доверяться безусловно. Inference Labs выбирает позицию после принятия решения. Не объясняя логику модели, не романтизируя процесс рассуждения, они просто проверяют — находится ли это действие в допустимых границах.
Эта позиция очень холодная. Она не вызывает симпатии у нарратива.
Но чем больше система становится автономной, тем более необходима такая «послефактная контрольная структура». Вы можете менять модели, менять фреймворки, менять параметры, но как только система масштабируется, доверие нельзя основывать на ощущениях, его можно только подтверждать постоянно. С этой точки зрения, Inference Labs скорее строит долгосрочную базовую инфраструктуру: не чтобы решить, насколько умны ИИ, а чтобы обеспечить, что при ошибках система всё равно сможет держаться.
Такие вещи в ранней стадии не бросаются в глаза, но при достижении определенного уровня, без них развитие ИИ остановится.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Я всегда считал, что в системе ИИ недооценена не способность моделей, а вопрос: что делать, если всё выйдет из-под контроля.
Когда ИИ — это всего лишь вспомогательный инструмент,
ошибки можно исправить человеком.
Но когда ИИ начинает принимать последовательные решения, вызывать друг друга, автоматически выполнять задачи,
вы сталкиваетесь с реальной проблемой:
уже поздно спрашивать «почему».
Именно поэтому я слежу за @inference_labs.
Они не пытаются доказать, что ИИ «доверен»,
они прямо признают одну вещь:
Мнение ИИ само по себе не должно доверяться безусловно.
Inference Labs выбирает позицию после принятия решения.
Не объясняя логику модели,
не романтизируя процесс рассуждения,
они просто проверяют —
находится ли это действие в допустимых границах.
Эта позиция очень холодная.
Она не вызывает симпатии у нарратива.
Но чем больше система становится автономной,
тем более необходима такая «послефактная контрольная структура».
Вы можете менять модели, менять фреймворки, менять параметры,
но как только система масштабируется,
доверие нельзя основывать на ощущениях,
его можно только подтверждать постоянно.
С этой точки зрения, Inference Labs скорее строит долгосрочную базовую инфраструктуру:
не чтобы решить, насколько умны ИИ,
а чтобы обеспечить, что при ошибках система всё равно сможет держаться.
Такие вещи в ранней стадии не бросаются в глаза,
но при достижении определенного уровня,
без них развитие ИИ остановится.