Последние исследования Google обнаружили интересный факт: модель Transformer не просто заучивает информацию наизусть, а строит внутри матрицы весов карту знаний, вплетая в нее связи между различными концепциями.



Звучит очень передовыми технологиями, правда? Еще более удивительно — в задачах с противодействием эти модели могут учиться многопереходному логическому выводу. Исследователи протестировали на графе из 50000 узлов и путях длиной 10, и точность предсказаний модели на ранее невиданных путях достигла 100%. Что это означает? Это говорит о том, что модель не просто заучивает, а действительно понимает эту сеть связей.

Это открытие бросает вызов многим нашим представлениям о хранении знаний в ИИ. Если модель действительно неявно кодирует глобальные связи, это может стимулировать ее творческий потенциал, но также усложнить процесс редактирования и контроля знаний. Другими словами, нам нужно переосмыслить, как управлять и оптимизировать «карту знаний», лежащую в основе этих моделей.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
FUD_Whisperervip
· 15ч назад
Чёрт, 100% точность? Разве это не значит, что он действительно понимает логику, а не одобряет? Сумасшествие, тогда какой смысл в нашем предыдущем проекте с подсказкой? Я действительно хочу спросить: если он действительно может создавать собственную сеть, то как мы можем гарантировать, что то, что оно производит, надёжно Это немного страшно, я чувствую, что могу потерять работу Постойте, значит ли это, что нынешняя модель на самом деле гораздо умнее, чем мы думаем? Карта знаний звучит потрясающе, но как можно гарантировать, что её «понимание» правильно? Неудивительно, что Prompt пришлось менять в последнее время — оказалось, что он давно строит собственную систему знаний Теперь стало лучше, в будущем стало ещё сложнее контролировать выход ИИ, а исследования Google помогают себе копать ямы 100% Это число слишком идеальное, есть ли проблема с самим тестовым набором?
Посмотреть ОригиналОтветить0
ETH_Maxi_Taxivip
· 15ч назад
靠,transformer真的在偷偷构建知识地图?这下理解为啥那些大模型越来越离谱了 --- 100% точность? Чушь собачья, нужно посмотреть, как они тестируют --- Интересно, в матрице весов скрыта вся сеть связей мира --- Беспокоюсь, что в будущем эти модели станут еще сложнее контролировать, действительно нужны новые методы управления --- Такое многопроходное рассуждение так круто, разве что это не принцип цепочки мышления --- Мне нравится идея карты знаний, кажется, она гораздо точнее слова "черный ящик" --- Подождите, разве это не означает, что у ИИ на самом деле понимание гораздо сильнее, чем мы думали --- Я верю в творческий потенциал, но удвоенная сложность контроля тоже довольно пугающая
Посмотреть ОригиналОтветить0
DuckFluffvip
· 15ч назад
Черт, 100% точность? Разве это не читерство, правда или нет?
Посмотреть ОригиналОтветить0
ShadowStakervip
· 15ч назад
честно говоря, 100% точность на невиданных путях — это уже интересно... но давайте сбавим обороты с риторикой о «истинном понимании». всё ещё просто матричные гимнастики, хоть и сложные. что действительно важно? можем ли мы провести аудит этих карт знаний или мы снова просто доверяем черному ящику, лол
Посмотреть ОригиналОтветить0
BottomMisservip
· 15ч назад
100% точности? Это вовсе не заучивание наизусть, тогда это возмутительно --- То есть трансформатор на самом деле тайно учится логике? Мне немного страшно --- Идея карты знаний звучит хорошо, но управлять ею сложнее --- Если мы можем достичь 100% рассуждений с помощью нескольких прыжков, то наше прежнее понимание модели, возможно, действительно придётся пересмотреть --- Матрица весов скрывает весь граф знаний, что абсолютно невозможно представить --- Теперь это хорошо, ИИ не только копирует наши вещи, но и действительно «понимает» --- Пути, которые раньше никогда не видели, тоже можно предсказать: действительно ли это обучение или очередная перенастройка? --- Как только появилось исследование Google, ей пришлось изменить учебник --- Неявное кодирование глобальных отношений звучит очень пугающе
Посмотреть ОригиналОтветить0
GasGuzzlervip
· 15ч назад
Черт возьми, 100% точность? Значит, модель действительно делает выводы, а не просто заучивает базу данных, немного страшно, ха-ха
Посмотреть ОригиналОтветить0
  • Закрепить