Google 最新не дослідження виявило цікаву річ: модель Transformer не просто механічно заучує, а створює у своїй матриці ваг — карту знань, вплітаючи у неї зв’язки між різними концепціями.
Звучить дуже передовою технологією, правда? Ще крутіше — у задачах з протидією ці моделі здатні навчитися багатокроковому логічному висновку. Вчені протестували на графі з 50000 вузлами та 10-кроковими шляхами, і точність прогнозування шляхів, яких модель раніше не бачила, склала аж 100%. Що це означає? Це означає, що вона не просто механічно заучує, а справді розуміє цю мережу зв’язків.
Ця річ кидає виклик багатьом нашим уявленням про збереження знань в AI. Якщо модель справді неявно кодує глобальні зв’язки, це може не тільки розкрити її творчий потенціал, а й ускладнити редагування та контроль за знаннями. Іншими словами, нам потрібно переосмислити, як управляти та оптимізувати ці «карти знань», що стоять за моделями.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
6
Репост
Поділіться
Прокоментувати
0/400
FUD_Whisperer
· 15год тому
卧槽,100% точність? Це ж означає, що він дійсно розуміє логіку, а не просто заучує?
Божевілля, тоді наша попередня система prompt-інженерії взагалі безглузда
Щиро хочу запитати, якщо він справді зможе самостійно створювати мережі зв’язків, то як ми зможемо гарантувати, що його результати надійні
Трохи страшно, здається, що я можу втратити роботу
Зачекайте, хіба це не означає, що сучасні моделі насправді набагато розумніші, ніж ми думали?
Мапа знань звучить круто, але як можна бути впевненим, що його «розуміння» правильне?
Не дивно, що останнім часом потрібно змінювати prompt-и, виявляється, він вже давно створює свою систему знань
Тепер ще складніше контролювати вихід AI, ця дослідження Google фактично підриває себе
100% ця цифра трохи занадто ідеальна, можливо, сама тестова вибірка має проблеми
Переглянути оригіналвідповісти на0
ETH_Maxi_Taxi
· 15год тому
靠,transformer真的在偷偷構建 знання карти? 這下理解為啥那些大模型越來越離譜了
---
100% точність? Брехня, треба подивитись, як вони тестують
---
Цікаво, у матриці ваг藏着 цілу мережу зв’язків світу
---
Тільки хвилююся, що ці моделі з часом стануть ще важчими для контролю, дійсно потрібен новий підхід до управління
---
Мульти-перехідне логічне мислення таке сильне, хіба це не схоже на принцип ланцюжка мислення?
---
Мені подобається ідея карти знань, вона здається більш точною, ніж слово "чорна скринька"
---
Зачекайте, хіба це не означає, що AI насправді має набагато кращі здібності до розуміння, ніж ми думали?
---
Я вірю у творчий потенціал, але подвоєна складність контролю теж досить страшна
Переглянути оригіналвідповісти на0
DuckFluff
· 15год тому
Чорт, 100% точність? Це ж нечесно, чи справді так?
Переглянути оригіналвідповісти на0
ShadowStaker
· 15год тому
Чесно кажучи, 100% точність на невидимих шляхах — це те, що робить ситуацію цікавою... але давайте трохи сповільнимося з риторикою про "справжнє розуміння". це все ще просто матрична гімнастика, хоча й досить складна. що насправді має значення? чи можемо ми провести аудит цих карт знань, чи ми знову просто довіряємо чорній скриньці, лол
Переглянути оригіналвідповісти на0
BottomMisser
· 15год тому
卧槽100% точність? Це дійсно не просто зубріння — це вже дивно
---
Тому transformer насправді таємно вивчає логіку? Трохи страшно
---
Звичайна карта знань звучить непогано, але керувати нею ще важче, мабуть
---
Якщо багатоетапне логічне мислення може досягти 100%, то наше попереднє розуміння моделей, можливо, потрібно кардинально переглянути
---
У матриці ваг藏ується вся карта знань, уявляєте — це круто
---
Тепер добре, AI не лише копіює наші речі, а й справді "розуміє" їх
---
Може передбачити й незвичайні шляхи, це справді навчилися чи знову переобучення?
---
Дослідження Google знову змінює підручники, напевно
---
Приховане кодування глобальних зв’язків звучить так страшно, що аж моторошно
Переглянути оригіналвідповісти на0
GasGuzzler
· 15год тому
Вау, 100% точність? Це означає, що модель дійсно виконує висновки, а не просто зазубрює базу даних, трішки страшно, ха-ха
Google 最新не дослідження виявило цікаву річ: модель Transformer не просто механічно заучує, а створює у своїй матриці ваг — карту знань, вплітаючи у неї зв’язки між різними концепціями.
Звучить дуже передовою технологією, правда? Ще крутіше — у задачах з протидією ці моделі здатні навчитися багатокроковому логічному висновку. Вчені протестували на графі з 50000 вузлами та 10-кроковими шляхами, і точність прогнозування шляхів, яких модель раніше не бачила, склала аж 100%. Що це означає? Це означає, що вона не просто механічно заучує, а справді розуміє цю мережу зв’язків.
Ця річ кидає виклик багатьом нашим уявленням про збереження знань в AI. Якщо модель справді неявно кодує глобальні зв’язки, це може не тільки розкрити її творчий потенціал, а й ускладнити редагування та контроль за знаннями. Іншими словами, нам потрібно переосмислити, як управляти та оптимізувати ці «карти знань», що стоять за моделями.