La última investigación de Google ha descubierto algo interesante: los modelos Transformer no simplemente memorizar de manera mecánica, sino que construyen un mapa de conocimientos en la matriz de pesos, entrelazando las relaciones entre diversos conceptos.
¿Suena a tecnología de vanguardia, verdad? Lo más sorprendente es que, en tareas adversariales, estos modelos incluso pueden aprender razonamiento de múltiples saltos. Los investigadores probaron con un grafo de 50,000 nodos y rutas de 10 saltos, y la precisión del modelo para predecir rutas nunca antes vistas alcanzó el 100%. ¿Qué significa esto? Significa que no se basa en memorizar, sino que realmente comprende esa red de relaciones.
Esta cosa desafía muchas de nuestras ideas preconcebidas sobre el almacenamiento de conocimientos en IA. Si el modelo realmente codifica implícitamente relaciones globales, puede estimular su potencial creativo, pero también puede hacer que la edición y el control del conocimiento sean más difíciles. En otras palabras, debemos replantear cómo gestionar y optimizar ese «mapa de conocimientos» que hay detrás de estos modelos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
6
Republicar
Compartir
Comentar
0/400
FUD_Whisperer
· hace6h
¡卧槽, 100% precisión? ¿Eso no significa que realmente entiende la lógica, y no solo está memorizando?
¿Enloquecí? Entonces, ¿para qué sirve nuestro conjunto de prompts anterior?
De verdad quiero preguntar, si realmente puede tejer su propia red de relaciones, ¿cómo podemos asegurarnos de que lo que produce sea confiable?
Es un poco aterrador, siento que voy a perder mi trabajo.
Espera, ¿esto no indica que los modelos actuales son mucho más inteligentes de lo que pensábamos?
El mapa de conocimientos suena impresionante, pero ¿cómo podemos garantizar que su «comprensión» sea correcta?
No es de extrañar que últimamente tengamos que cambiar los prompts, resulta que ya estaba construyendo su propio sistema de conocimientos.
Ahora está bien, será aún más difícil controlar la salida de la IA en el futuro, esta investigación de Google parece estar cavando su propia tumba.
100%, ese número es un poco demasiado perfecto, ¿no será que el conjunto de prueba en sí tiene problemas?
Ver originalesResponder0
ETH_Maxi_Taxi
· hace7h
¡Vaya, ¿realmente el transformer está construyendo un mapa de conocimientos en secreto? Ahora entiendo por qué esos grandes modelos cada vez son más absurdos!
---
¿100% de precisión? Eso es una tontería, hay que ver cómo lo miden.
---
Interesante, en la matriz de pesos se oculta toda la red de relaciones del mundo.
---
Solo me preocupa que en el futuro estos modelos sean aún más difíciles de controlar, realmente se necesitan nuevas formas de gestión.
---
El aprendizaje de razonamiento de múltiples saltos es tan impresionante, ¿no es esto similar al principio de la cadena de pensamiento?
---
Me gusta la idea de un mapa de conocimientos, me parece mucho más apropiado que la palabra "caja negra".
---
Espera, ¿esto no significa que la capacidad de comprensión de la IA es mucho mayor de lo que pensamos?
---
Confío en el potencial creativo, pero que la dificultad de control se duplique también da miedo.
Ver originalesResponder0
DuckFluff
· hace7h
¡Vaya, ¿una precisión del 100%? ¿No estarás haciendo trampa? ¿Es en serio?
Ver originalesResponder0
ShadowStaker
· hace7h
Para ser honesto, la precisión del 100% en caminos no vistos es donde se pone interesante... pero pongamos un freno a la retórica de la "verdadera comprensión". sigue siendo solo gimnasia matricial, aunque sofisticada. ¿Qué es lo que realmente importa? ¿Podemos auditar estos mapas de conocimiento o simplemente estamos confiando en la caja negra otra vez lmao
Ver originalesResponder0
BottomMisser
· hace7h
¿卧槽100%准确率?这真的不是死记硬背那就离谱了
---
¿Entonces transformer en realidad está aprendiendo lógica en secreto? Estoy un poco asustado
---
La idea de un mapa de conocimientos suena bien, pero controlarlo será aún más difícil, ¿verdad?
---
Si la inferencia de múltiples saltos puede llegar al 100%, entonces nuestra comprensión previa del modelo podría tener que ser completamente revisada
---
La matriz de pesos oculta todo el grafo de conocimientos, solo pensarlo es genial
---
Ahora está claro, la IA no solo copia nuestras cosas, sino que realmente está "entendiendo"
---
¿Se pueden predecir caminos nunca antes vistos? ¿Realmente ha aprendido o es otra ronda de overfitting?
---
Con este estudio de Google, otra vez tendremos que cambiar los libros de texto
---
¿El codificado implícito de relaciones globales suena tan aterrador?
Ver originalesResponder0
GasGuzzler
· hace7h
¿100% de precisión? ¿No significa esto que el modelo realmente está razonando en vez de memorizar el banco de preguntas? Lo cual da un poco de miedo jaja
La última investigación de Google ha descubierto algo interesante: los modelos Transformer no simplemente memorizar de manera mecánica, sino que construyen un mapa de conocimientos en la matriz de pesos, entrelazando las relaciones entre diversos conceptos.
¿Suena a tecnología de vanguardia, verdad? Lo más sorprendente es que, en tareas adversariales, estos modelos incluso pueden aprender razonamiento de múltiples saltos. Los investigadores probaron con un grafo de 50,000 nodos y rutas de 10 saltos, y la precisión del modelo para predecir rutas nunca antes vistas alcanzó el 100%. ¿Qué significa esto? Significa que no se basa en memorizar, sino que realmente comprende esa red de relaciones.
Esta cosa desafía muchas de nuestras ideas preconcebidas sobre el almacenamiento de conocimientos en IA. Si el modelo realmente codifica implícitamente relaciones globales, puede estimular su potencial creativo, pero también puede hacer que la edición y el control del conocimiento sean más difíciles. En otras palabras, debemos replantear cómo gestionar y optimizar ese «mapa de conocimientos» que hay detrás de estos modelos.