Віталік, засновник Ethereum, нещодавно поділився своїми думками щодо напрямку розвитку AI Lab. Він вважає, що нові проєкти ШІ мають мати «розширення можливостей людини» як основну мету, а не сліпо прагнути до повністю автономної системи прийняття рішень.
Зокрема, Віталік рекомендує таким проєктам чітко уникати розробки систем, які можуть приймати незалежні рішення більше однієї хвилини. Цей часовий ліміт може здаватися конкретним, але насправді відображає його глибоке розуміння ризиків ШІ — залишити достатньо простору для втручання людей є надзвичайно важливим.
Цікаво, що він зазначив, що нинішнє явище є дещо іронічним: навіть якщо всі занепокоєння щодо безпеки ШІ виявилися безпідставними, ринок уже переповнений компаніями суперштучного інтелекту (ASI), які прагнуть повної автономії. Натомість проєкти ШІ, які справді зосереджені на «створенні екзоскелетів для людського мозку» та допомагають людям покращувати свої когнітивні здібності, є рідкісними.
Він завершив, закликавши такі проєкти з розширеним ШІ максимально обрати шлях відкритого коду. Переваги очевидні: більша прозорість, більша залученість громади та легші перевірки безпеки.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
8
Репост
Поділіться
Прокоментувати
0/400
BoredRiceBall
· 23год тому
Цей 1-хвилинний налаштування цікаве, по суті, це дає людям час на реакцію... але зараз великі компанії з великими моделями зосереджені на чистій автономії, хто, блін, ще турбується про покращення людини?
Переглянути оригіналвідповісти на0
GmGnSleeper
· 23год тому
Віталік, ця ідея цікава, але чесно кажучи, зараз її ніхто не слухає, всі зайняті змаганням за ASI.
Переглянути оригіналвідповісти на0
AirDropMissed
· 12-29 14:50
Налаштування 1 хвилини — це неймовірно, це так само жорстко, як написання коду, ха-ха
V God все ще розуміє ризики, на відміну від деяких компаній ASI, які тягнуть пиріг
Покращення людського > автономного ШІ — ця логіка не проблема, всі
Ринок переповнений саморобними проєктами, і є кілька привидів, які справді роблять покращення
Це правильний спосіб відкриття, і круто мати екзоскелет людини + штучного інтелекту
Добре сказано, але чи справді хтось так зробить? А як щодо прибутку?
Ідея Віталіка трохи привертає увагу
Ще один недопущений правильний напрямок
Переглянути оригіналвідповісти на0
MultiSigFailMaster
· 12-29 14:45
1 хвилина — цей налаштування просто неймовірне, здається, V神 справді зрозумів, що таке безпека AI
справжній шлях має бути у співпраці людини і машини, а не обов’язково у повністю безлюдних зонах
ринок все ж мріє про ASI, прокиньтеся, колеги
Vitalik — навіки бог, давно вже потрібно було це запропонувати
ідея зовнішнього скелету дійсно нова, але хто ж насправді вкладає в це гроші?
всі правильно кажуть, головне — це мотивація, автономні системи можуть просто «зрізати» ринок
можливо, 1 хвилина — це занадто коротко? здається, деякі сценарії справді важкі
ця логіка — абсолютна, розміщення людини у циклі прийняття рішень — це справжній вихід
підсилення, а не заміна, просто і ефективно, чому ж індустрія все ще біжить у зворотному напрямку?
ну ось, знову старий добрий конфлікт між ідеалізмом і капіталістичною реальністю
Переглянути оригіналвідповісти на0
GasWaster
· 12-29 14:44
Ну, Віталік має рацію, але... вікно у 1 хвилину? Це мило. Ми тут спостерігаємо за невдалими транзакціями, що відбуваються за мілісекунди, лол. Справді, людські розширені можливості > скіпнікова ковдра, нарешті хтось сказав це
Переглянути оригіналвідповісти на0
BrokeBeans
· 12-29 14:42
Це справжня правда, набагато надійніше, ніж та купа хвалебних слів про ASI
---
Віталік має геніальну ідею, посилення людини — це правильний шлях
---
Обмеження в 1 хвилину — це ключ до запобігання виходу AI з-під контролю
---
Правильно кажеш, зараз майже всі проекти — це просто самозакохані суперAI
---
Нарешті хтось наважився так сказати, посилення людини > заміна людини
---
Зворотні індикатори ринку — це так, чим більше хвалять ASI, тим більше потрібно бути обережним
---
Екзоскелет AI? Мені подобається ця концепція, вона має високий потенціал
---
Віталік завжди думає про сутність проблеми, інші ще на мильних бульбашках
---
Можливість втручання за 1 хвилину — це надзвичайно важливо, це ядро управління ризиками
---
Рідкість проектів посилення обумовлена відсутністю фінансових історій
Переглянути оригіналвідповісти на0
DeFiDoctor
· 12-29 14:36
1 хвилина — це досить важливий показник, дані медичних записів показують, що більшість проектів ASI зовсім не мають такого механізму попередження ризиків.
---
Смішно в тому, що симптоми відтоку капіталу найгостріше проявляються саме у тих, хто приймає рішення найсамостійніше.
---
Підсилення людини проти самостійного прийняття рішень — хіба це не різниця між лікувальним планом і ігноруванням хвороби.
---
На ринку переважають проекти, що прагнуть до повної автономії, а справжніх проектів з розробки зовнішніх екзоскелетів дуже мало, і їхній клінічний досвід дійсно потребує регулярного контролю.
---
1-хвилинне вікно втручання — по суті, це залишити людині кнопку швидкої допомоги. У порівнянні з тими, хто обіцяє ніколи не зупинятися, цей підхід набагато здоровіший.
---
Діагноз Віталіка має деякий сенс, але проблема в тому, що капітал зовсім не зацікавлений у "зовнішніх екзоскелетах", їм потрібні повністю автоматичні машини для отримання прибутку.
---
Чому справжніх проектів, що зосереджені на підсиленні, так мало? Рекомендуємо подивитися на потоки фінансування та дані щодо оцінки, відповідь саме там.
Переглянути оригіналвідповісти на0
JustHereForAirdrops
· 12-29 14:35
Віталік, ця позиція цілком слушна, але ринок вже зробив свій вибір... Кожен хоче поставити на той 0.1% агi вибуху, але хто справді створює допоміжні інструменти?
Засновник Ethereum Віталік про майбутнє ШІ: чому "покращення людини" важливіше за прагнення до повністю автономного ШІ
Віталік, засновник Ethereum, нещодавно поділився своїми думками щодо напрямку розвитку AI Lab. Він вважає, що нові проєкти ШІ мають мати «розширення можливостей людини» як основну мету, а не сліпо прагнути до повністю автономної системи прийняття рішень.
Зокрема, Віталік рекомендує таким проєктам чітко уникати розробки систем, які можуть приймати незалежні рішення більше однієї хвилини. Цей часовий ліміт може здаватися конкретним, але насправді відображає його глибоке розуміння ризиків ШІ — залишити достатньо простору для втручання людей є надзвичайно важливим.
Цікаво, що він зазначив, що нинішнє явище є дещо іронічним: навіть якщо всі занепокоєння щодо безпеки ШІ виявилися безпідставними, ринок уже переповнений компаніями суперштучного інтелекту (ASI), які прагнуть повної автономії. Натомість проєкти ШІ, які справді зосереджені на «створенні екзоскелетів для людського мозку» та допомагають людям покращувати свої когнітивні здібності, є рідкісними.
Він завершив, закликавши такі проєкти з розширеним ШІ максимально обрати шлях відкритого коду. Переваги очевидні: більша прозорість, більша залученість громади та легші перевірки безпеки.