Виталик, основатель Ethereum, недавно поделился своими мыслями о направлении развития AI Lab. Он считает, что новые проекты в области ИИ должны иметь «расширение возможностей человека» в качестве главной цели, а не слепо стремиться к полностью автономной системе принятия решений.
В частности, Виталик рекомендует таким проектам явно избегать создания систем, способных принимать независимые решения более одной минуты. Этот срок может показаться конкретным, но на самом деле он отражает его глубокое понимание рисков ИИ — оставить достаточное окно для вмешательства людей крайне важно.
Интересно, что он отметил, что нынешнее явление несколько иронично: даже если все опасения по поводу безопасности ИИ оказались необоснованными, на рынке уже полно компаний, занимающихся суперискусственным интеллектом (ASI), стремящимися к полной автономии. В отличие от этого, проекты ИИ, которые действительно сосредоточены на «создании экзоскелетов для человеческого мозга» и помогают людям развивать когнитивные способности и способности, встречаются редко.
В заключение он призвал к таким проектам расширенного ИИ максимально использовать путь открытого исходного кода. Преимущества очевидны: большая прозрачность, большее вовлечение сообщества и более простые проверки безопасности.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
17 Лайков
Награда
17
8
Репост
Поделиться
комментарий
0/400
BoredRiceBall
· 23ч назад
Этот одминутный настрой интересен, по сути, это даёт людям время на реакцию... Но сейчас все крупные компании по моделям сосредоточены на полном автономном развитии, кому вообще до улучшения человека?
Посмотреть ОригиналОтветить0
GmGnSleeper
· 12-30 15:09
vitalik эта идея интересная, но честно говоря, сейчас никто не слушает, все заняты конкуренцией в ASI
Посмотреть ОригиналОтветить0
AirDropMissed
· 12-29 14:50
Сеттинг 1 минута потрясающий, он такой же жёсткий, как при написании кода, ха-ха
V God по-прежнему понимает риск, в отличие от некоторых компаний ASI, которые рисуют пирог
Улучшение человеческого > автономного ИИ — эта логика не проблема, всем
Рынок полон саморобных проектов, и есть несколько призраков, которые действительно занимаются улучшениями
Это правильный способ открытия, и здорово иметь экзоскелет человека + искусственного интеллекта
Хорошо сказано, но действительно ли кто-то так поступит? А как насчёт прибыли?
Идея Виталика немного привлекает внимание
Ещё одно упущенное правильное направление
Посмотреть ОригиналОтветить0
MultiSigFailMaster
· 12-29 14:45
Сеттинг в 1 минуту потрясающий, и мне кажется, что V God действительно понимает, что такое границы безопасности ИИ
Настоящий путь должен быть сотрудничеством человека и машины, а не автономия всей нейтральной земли
Рынок гонится за мечтой ASI, просыпайтесь, все
Виталик всегда бог, и это предложение должно было быть сделано давно
Идея экзоскелета действительно нова, но кто действительно вкладывался в эту работу?
Верно, ключ к прибыли, а автономная система может резать лук-порей
1 минута — это слишком мало, да? Мне кажется, некоторые сцены действительно сложны
Эта логика абсолютна, и ставить людей в круг принятия решений — это противоядие
Улучшайте, а не заменяйте — просто, грубо и эффективно — почему индустрия всё ещё работает в обратном направлении
Да ладно, это снова старая рутина идеализма против капитальной реальности
Посмотреть ОригиналОтветить0
GasWaster
· 12-29 14:44
Ну, Виталик прав, но как... окно в 1 минуту? Это мило. Мы тут наблюдаем за неудачными транзакциями, происходящими за миллисекунды, лол. На самом деле, аугментированные люди > скинет, наконец-то кто-то сказал это
Посмотреть ОригиналОтветить0
BrokeBeans
· 12-29 14:42
Это настоящая правда, гораздо надежнее той кучи хвастов ASI
---
Виталик этот подход просто гениален, усиление человека — это правильный путь
---
Ограничение в 1 минуту — это ключ к предотвращению выхода AI из-под контроля
---
Говоришь правильно, сейчас все только о самовосхваляющихся суперAI-проектах
---
Наконец-то кто-то осмелился так сказать, усиление человека > замена человека
---
Обратные рыночные индикаторы подтверждают: чем больше хвалят ASI, тем больше нужно насторожиться
---
Экзоскелет AI? Мне нравится эта концепция, она тоже реализуема
---
Виталик всегда думает о сути, остальные все только пускают пузыри
---
Наличие окна для вмешательства в 1 минуту — это очень важно, это ядро управления рисками
---
Редкость проектов усиления объясняется отсутствием историй финансирования
Посмотреть ОригиналОтветить0
DeFiDoctor
· 12-29 14:36
1 минуту — это число довольно важное, судя по записям о приеме, большинство проектов ASI вообще не имеют такой системы раннего предупреждения о рисках.
---
Сарказм в том, что симптомы утечки капитала чаще всего проявляются у тех, кто принимает решения полностью самостоятельно.
---
Усиление человека против автономных решений — разве это не разница между лечебным планом и игнорированием болезни?
---
На рынке полно проектов, стремящихся к полной автономии, а действительно разрабатывающих усиленные экзоскелеты — очень мало, и такие клинические проявления действительно требуют регулярных проверок.
---
Окно вмешательства в 1 минуту — по сути, это оставление человеку кнопки экстренного вызова. По сравнению с теми, кто обещает работать вечно без сбоев, такой подход гораздо здоровее.
---
Диагноз Vitalik в чем-то есть, но проблема в том, что капитал вообще не заинтересован в "экзоскелетах", им нужны полностью автоматические машины для получения прибыли.
---
Ну... Почему проекты, сосредоточенные на усилении, так редки? Рекомендуется посмотреть на потоки финансирования и данные о оценке, ответ внутри.
Посмотреть ОригиналОтветить0
JustHereForAirdrops
· 12-29 14:35
vitalik эта позиция вполне обоснована, но рынок уже давно сделал свой выбор... все хотят поставить на тот 0.1% роста AGI, кто действительно занимается созданием вспомогательных инструментов?
Основатель Ethereum Виталик говорит о будущем ИИ: почему "усиление человека" важнее, чем стремление к полностью автономному ИИ
Виталик, основатель Ethereum, недавно поделился своими мыслями о направлении развития AI Lab. Он считает, что новые проекты в области ИИ должны иметь «расширение возможностей человека» в качестве главной цели, а не слепо стремиться к полностью автономной системе принятия решений.
В частности, Виталик рекомендует таким проектам явно избегать создания систем, способных принимать независимые решения более одной минуты. Этот срок может показаться конкретным, но на самом деле он отражает его глубокое понимание рисков ИИ — оставить достаточное окно для вмешательства людей крайне важно.
Интересно, что он отметил, что нынешнее явление несколько иронично: даже если все опасения по поводу безопасности ИИ оказались необоснованными, на рынке уже полно компаний, занимающихся суперискусственным интеллектом (ASI), стремящимися к полной автономии. В отличие от этого, проекты ИИ, которые действительно сосредоточены на «создании экзоскелетов для человеческого мозга» и помогают людям развивать когнитивные способности и способности, встречаются редко.
В заключение он призвал к таким проектам расширенного ИИ максимально использовать путь открытого исходного кода. Преимущества очевидны: большая прозрачность, большее вовлечение сообщества и более простые проверки безопасности.