広場
最新
注目
ニュース
プロフィール
ポスト
GateUser-cff9c776
2025-12-30 09:28:28
フォロー
Google の最新研究で面白いことが発見されました:Transformer モデルは単なる暗記ではなく、重み行列の中に知識マップを構築し、さまざまな概念間の関係を織り込んでいるのです。
聞こえはすごい技術のようですが、さらに驚くべきことに——対抗性タスクにおいて、これらのモデルは複数の推論を学習できることが判明しました。研究者は5万ノード、10ステップのパスを持つグラフを使ってテストを行い、モデルは未見のパスの予測精度がなんと100%に達しました。これは何を意味するのでしょうか?それは、単なる暗記ではなく、その関係ネットワークを本当に理解していることを示しています。
この発見は、多くの私たちのAIの知識保存に関する既存の考え方に挑戦しています。もしモデルが本当にグローバルな関係を暗黙的にエンコードしているなら、それは創造性を引き出す一方で、知識の編集や制御をより難しくする可能性もあります。言い換えれば、私たちはこれらのモデルの背後にある「知識マップ」の管理と最適化について再考する必要があります。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
12 いいね
報酬
12
6
リポスト
共有
コメント
0/400
コメント
FUD_Whisperer
· 15時間前
くそ、100%の精度? これは本当に論理を理解しているということで、支持しているわけではないのではないでしょうか? すごいな、じゃあ前のプロンプトプロジェクトは何の役に立つんだ? 本当に聞きたいのは、もし本当に独自のネットワークを織り交ぜることができるなら、発信するものが信頼できるものであることをどう保証できるのかということです 少し怖いです。仕事を失うのではないかと感じています 待って、これは現在のモデルが思っているよりもずっと賢いということなのでしょうか? ナレッジマップは素晴らしいですが、その「理解」が正しいとどうやって保証できますか? 最近Promptが変更されるのも無理はありません。実は長い間独自の知識システムを構築してきたのです 今では改善され、将来的にAI出力の制御はさらに難しくなっており、Googleの研究は自らの穴を掘る助けとなっています 100%です。この数値は少し完璧すぎますが、テストセット自体に問題があるのでしょうか?
原文表示
返信
0
ETH_Maxi_Taxi
· 15時間前
靠,transformer真的在偷偷构建知識マップ?これで理解できた、なぜあの大規模モデルがますます突飛になっているのか --- 100%正確率?冗談でしょ、彼らがどう測定しているか見てみないと --- 面白い、重み行列の中に世界の関係網が隠されている --- 将来的にこれらのモデルの制御がさらに難しくなるのを心配している、本当に新しい管理方法が必要だ --- 多段推論がこんなに得意なのは、まさに思考チェーンの原理に似ているからだね --- 知識マップという表現が好きだ、「ブラックボックス」という言葉よりもずっと適切に感じる --- ちょっと待って、これってAIの理解能力が私たちが思っているよりもずっと高いってことじゃない? --- 創造力の潜在能力は信じるけど、制御の難易度が倍になるのもかなり怖い
原文表示
返信
0
DuckFluff
· 15時間前
ちょっと、100%の正確率?これってズルしてるんじゃないの、ほんとに本当なの?
原文表示
返信
0
ShadowStaker
· 15時間前
正直なところ、未知のパスでの100%の正確性が本当にスパイシーな部分です… でも、「真の理解」というレトリックは一旦ブレーキをかけましょう。まだただのマトリックスの体操、ただし洗練されたものです。実際に重要なのは何ですか?これらの知識マップを監査できますか、それともまたブラックボックスを信頼しているだけですか、笑
原文表示
返信
0
BottomMisser
· 15時間前
100%の正確さ? これは単なる丸暗記ではなく、とんでもないことです --- つまりトランスフォーマーは実はこっそり論理を学んでいるのですか? ちょっと怖い --- 知識マップのアイデアは良さそうですが、制御がより難しいです --- もし複数回のジャンプで推論の100%に達したなら、これまでのモデル理解は本当に覆されるかもしれません --- 重み行列は知識グラフ全体を隠しており、考えるのが全く不可能です --- 今では良いことです。AIは私たちのものをコピーするだけでなく、本当に「理解している」のです --- これまで観測されたことのない経路も予測可能ですが、これは本当に学習なのか、それともまた過学習の段階なのでしょうか? --- Googleの研究が発表されるとすぐに教科書を変えなければなりませんでした --- 暗黙のコーディングをグローバルな関係にするなんて、とても怖いですね
原文表示
返信
0
GasGuzzler
· 15時間前
うわっ100%の正確率?これは本当にモデルが暗記ではなく推論をしているってことだよね、ちょっと怖いな哈哈
原文表示
返信
0
人気の話題
もっと見る
#
DrHan2025YearEndOpenLetter
7.1K 人気度
#
Gate2025AnnualReportComing
159.45K 人気度
#
CryptoMarketPrediction
30.51K 人気度
#
BitcoinGoldBattle
89.91K 人気度
#
ETFLeveragedTokenTradingCarnival
2.55K 人気度
人気の Gate Fun
もっと見る
最新
ファイナライズ中
リスト済み
1
+
Kiss Kitty
時価総額:
$3.62K
保有者数:
2
0.09%
2
Tw china
收复台湾
時価総額:
$3.57K
保有者数:
1
0.00%
3
@
恭喜发财
時価総額:
$3.55K
保有者数:
1
0.00%
4
ikun
ikun
時価総額:
$3.56K
保有者数:
1
0.00%
5
ANOM
anônimo
時価総額:
$3.61K
保有者数:
2
0.04%
ピン
サイトマップ
Google の最新研究で面白いことが発見されました:Transformer モデルは単なる暗記ではなく、重み行列の中に知識マップを構築し、さまざまな概念間の関係を織り込んでいるのです。
聞こえはすごい技術のようですが、さらに驚くべきことに——対抗性タスクにおいて、これらのモデルは複数の推論を学習できることが判明しました。研究者は5万ノード、10ステップのパスを持つグラフを使ってテストを行い、モデルは未見のパスの予測精度がなんと100%に達しました。これは何を意味するのでしょうか?それは、単なる暗記ではなく、その関係ネットワークを本当に理解していることを示しています。
この発見は、多くの私たちのAIの知識保存に関する既存の考え方に挑戦しています。もしモデルが本当にグローバルな関係を暗黙的にエンコードしているなら、それは創造性を引き出す一方で、知識の編集や制御をより難しくする可能性もあります。言い換えれば、私たちはこれらのモデルの背後にある「知識マップ」の管理と最適化について再考する必要があります。