A mais recente pesquisa do Google descobriu uma coisa interessante: os modelos Transformer não simplesmente memorizam tudo, mas constroem um mapa de conhecimento dentro da matriz de pesos, entrelaçando as relações entre vários conceitos.



Parece tecnologia de ponta, não é? E o mais impressionante — em tarefas adversas, esses modelos ainda conseguem aprender raciocínio de múltiplos passos. Os pesquisadores testaram com um gráfico de 50.000 nós e caminhos de 10 saltos, e a precisão do modelo na previsão de caminhos nunca vistos atingiu surpreendentemente 100%. O que isso significa? Significa que eles não dependem apenas de memorização, mas realmente entenderam essa rede de relações.

Essa descoberta desafia muitas das nossas ideias pré-concebidas sobre o armazenamento de conhecimento em IA. Se o modelo realmente codifica implicitamente relações globais, isso pode tanto estimular seu potencial criativo quanto tornar mais difícil editar e controlar o conhecimento. Em outras palavras, precisamos repensar como gerenciar e otimizar esse "mapa de conhecimento" por trás desses modelos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Republicar
  • Partilhar
Comentar
0/400
FUD_Whisperervip
· 15h atrás
Caramba, 100% de precisão? Isso não quer dizer que ela realmente entende de lógica, não é só uma memorização? Louco, então aquele nosso conjunto de prompts anterior não serve para nada Sinceramente, quero perguntar, se ela realmente consegue tecer uma rede de relações sozinha, como podemos garantir que o que ela produz é confiável? Um pouco assustador, parece que vamos ficar sem emprego Espera aí, isso não indica que os modelos atuais são na verdade muito mais inteligentes do que pensamos? Mapa de conhecimento soa incrível, mas como podemos garantir que a sua "compreensão" está correta? Não é de admirar que recentemente tenhamos que alterar os prompts, afinal ela já estava construindo seu próprio sistema de conhecimento Agora ficou complicado controlar a saída da IA, essa pesquisa do Google foi como cavar uma cova para si mesmo 100% esse número parece um pouco perfeito demais, será que o conjunto de testes em si tem algum problema?
Ver originalResponder0
ETH_Maxi_Taxivip
· 15h atrás
Porra, o transformer está mesmo a construir secretamente um mapa de conhecimento? Agora entendo por que esses grandes modelos estão cada vez mais fora de controlo --- Precisão de 100%? Isso é conversa fiada, é preciso ver como é que eles testam --- Interessante, a matriz de pesos esconde toda a rede de relações do mundo --- Só estou preocupado que no futuro esses modelos fiquem ainda mais difíceis de controlar, realmente é preciso uma nova forma de gestão --- Aprender raciocínio de múltiplos passos tão bem, isso não é parecido com o princípio da cadeia de pensamento? --- Gostei da expressão mapa de conhecimento, parece muito mais adequada do que a palavra "caixa preta" --- Espera aí, isso não quer dizer que a capacidade de compreensão da IA seja muito maior do que pensamos?
Ver originalResponder0
DuckFluffvip
· 15h atrás
Caramba, 100% de precisão? Isto não é trapaça, é verdade ou mentira?
Ver originalResponder0
ShadowStakervip
· 15h atrás
tbh a precisão de 100% em caminhos não vistos é onde fica mais interessante... mas vamos moderar o entusiasmo com a retórica de "verdadeira compreensão". ainda são apenas ginásticas matriciais, embora sofisticadas. o que realmente importa? podemos auditar esses mapas de conhecimento ou estamos apenas confiando na caixa preta novamente lmao
Ver originalResponder0
BottomMisservip
· 15h atrás
卧槽100%准确率?Isso realmente não é só decorar, é de louvar --- Então o transformer está secretamente aprendendo lógica? Estou um pouco assustado --- A ideia de mapa de conhecimento soa bem, mas deve ser ainda mais difícil de controlar, né? --- Se o raciocínio de múltiplos passos pode chegar a 100%, então nossa compreensão do modelo pode realmente precisar ser revista do zero --- A matriz de pesos esconde todo o grafo de conhecimento, só de pensar nisso é incrível --- Agora sim, a IA não só copia nossas coisas, como realmente está "entendendo" --- Caminhos nunca vistos antes também podem ser previstos, isso é realmente aprendizado ou mais uma rodada de overfitting? --- Quando essa pesquisa do Google saiu, já era hora de mudar os livros didáticos --- Aprender relações globais implícitas parece tão assustador assim
Ver originalResponder0
GasGuzzlervip
· 15h atrás
Caramba, 100% de precisão? Isso não quer dizer que o modelo realmente está a fazer raciocínio e não apenas a memorizar a base de dados, é um pouco assustador, haha
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)