Penelitian terbaru Google telah menemukan hal yang menarik: alih-alih hanya menghafal dengan hafalan, model Transformer membangun peta pengetahuan dalam matriks bobot yang menjalin hubungan antara berbagai konsep.



Kedengarannya seperti teknologi gelap, bukan? Yang lebih menakjubkan adalah bahwa dalam tugas permusuhan, model-model ini benar-benar dapat belajar bernalar dengan beberapa lompatan. Para peneliti mengambil grafik 50.000 node dan 10 lompatan jalur untuk diuji, dan model tersebut benar-benar mencapai akurasi 100% dalam memprediksi jalur yang belum pernah terlihat sebelumnya. Apa artinya ini? Ini menunjukkan bahwa ia tidak mengandalkan hafalan, tetapi benar-benar memahami rangkaian jaringan hubungan.

Hal ini menantang banyak ide kami tentang penyimpanan pengetahuan AI. Jika model tersebut benar-benar secara implisit mengkodekan hubungan global, itu dapat merangsang potensi kreatifnya dan mempersulit kita untuk mengedit dan mengontrol pengetahuan kita. Dengan kata lain, kita perlu memikirkan kembali bagaimana kita mengelola dan mengoptimalkan "peta pengetahuan" di balik model-model ini.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 6
  • Posting ulang
  • Bagikan
Komentar
0/400
FUD_Whisperervip
· 15jam yang lalu
Sial, 100% tingkat akurasi? Ini berarti dia benar-benar memahami logika, bukan cuma menghafal? Gila, lalu apa gunanya lagi prompt engineering yang kita pakai sebelumnya? Serius ingin tanya, kalau dia benar-benar bisa membangun jaringan hubungan sendiri, bagaimana kita memastikan bahwa output yang dia berikan itu dapat dipercaya? Agak menakutkan, rasanya akan kehilangan pekerjaan. Tunggu dulu, apakah ini berarti model saat ini sebenarnya jauh lebih pintar dari yang kita kira? Peta pengetahuan terdengar keren, tapi bagaimana bisa menjamin bahwa "pemahamannya" itu benar? Tak heran akhir-akhir ini semua prompt harus diubah, ternyata dia sudah membangun sistem pengetahuan sendiri sejak lama. Sekarang jadi makin sulit mengendalikan output AI, penelitian Google ini sepertinya malah menyiapkan lubang bagi diri mereka sendiri. 100% angka ini terlalu sempurna, apakah memang dataset pengujinya sendiri bermasalah?
Lihat AsliBalas0
ETH_Maxi_Taxivip
· 15jam yang lalu
靠,transformer真的在偷偷构建知识地图?这下理解为啥那些大模型越来越离谱了 --- 100%akurasi? Ngawur, harus lihat bagaimana mereka mengujinya --- Menarik, matriks bobot menyembunyikan jaringan hubungan seluruh dunia --- Hanya khawatir nanti model-model ini makin sulit dikendalikan, benar-benar butuh cara pengelolaan baru --- Pembelajaran inferensi multi-langkah begitu hebat, bukankah ini mirip dengan prinsip rantai pemikiran --- Saya suka istilah peta pengetahuan ini, terasa lebih cocok daripada kata "kotak hitam" --- Tunggu, apakah ini berarti AI sebenarnya memiliki kemampuan memahami yang jauh lebih kuat dari yang kita bayangkan --- Saya percaya pada potensi kreativitas, tapi tingkat kesulitan pengendaliannya yang dua kali lipat juga cukup menakutkan
Lihat AsliBalas0
DuckFluffvip
· 15jam yang lalu
Sial, akurasi 100%? Ini kan curang, beneran atau tidak?
Lihat AsliBalas0
ShadowStakervip
· 15jam yang lalu
sejujurnya, akurasi 100% pada jalur yang tidak terlihat adalah bagian yang membuatnya menarik... tapi mari kita tenangkan diri dulu dengan retorika "pemahaman sejati". masih saja sekadar gimnastik matriks, meskipun yang canggih. apa yang sebenarnya penting? bisakah kita mengaudit peta pengetahuan ini atau kita hanya mempercayai kotak hitam lagi haha
Lihat AsliBalas0
BottomMisservip
· 15jam yang lalu
卧槽100% akurasi? Ini benar-benar bukan sekadar menghafal, itu luar biasa --- Jadi transformer sebenarnya diam-diam mempelajari logika? Agak takut juga --- Istilah peta pengetahuan terdengar bagus, tapi mengendalikannya malah lebih sulit, kan? --- Inferensi multi-langkah bisa mencapai 100%, mungkin pemahaman kita tentang model sebelumnya benar-benar harus dirombak --- Matriks bobot menyembunyikan seluruh peta pengetahuan, bayangkan saja, keren banget --- Sekarang jadi lebih baik, AI tidak hanya menyalin apa yang kita buat, tapi benar-benar "memahami" --- Jalur yang belum pernah dilihat juga bisa diprediksi, ini benar-benar belajar atau cuma overfitting lagi? --- Penelitian Google ini keluar lagi, harusnya mengubah buku pelajaran lagi, ya --- Mengkodekan hubungan global secara implisit terdengar sangat menakutkan, kenapa ya
Lihat AsliBalas0
GasGuzzlervip
· 15jam yang lalu
Sial 100% akurasi? Ini berarti model benar-benar melakukan penalaran dan bukan hanya menghafal basis data, agak menakutkan juga haha
Lihat AsliBalas0
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)