Muchos al ver Walrus piensan que su relación con Sui es un poco tensa. Pero esto no es un defecto, sino una parte del diseño ingenioso.
Sui en sí mismo ya es muy agresivo en la ejecución paralela. Una vez que el modelo de objetos se separa, los objetos independientes se procesan de forma concurrente, y los objetos compartidos alcanzan la finalidad en menos de un segundo gracias a la optimización de Mysticeti. ¿Qué significa esto? Significa que toda la capa de metadatos y coordinación de Walrus se ejecuta en Sui, y esto no será un cuello de botella en absoluto. En comparación, otras cadenas de almacenamiento usan mecanismos de consenso en serie, y subir un archivo grande requiere esperar toda la red, lo que hace que la experiencia del usuario sea muy frustrante.
La verdadera innovación está en la segmentación. Walrus usa código de corrección de errores, con parámetros muy interesantes: conservador y flexible. Conservador significa que la tasa de redundancia es muy baja, comenzando en 1.5 veces para garantizar alta disponibilidad, y flexible porque la votación de gobernanza puede ajustarse hasta 3 veces según sea necesario. ¿Por qué se atreve a aumentar la redundancia? Porque la alta capacidad de procesamiento de Sui reduce mucho los costos de coordinar transacciones.
El proceso es así: el usuario inicia una solicitud de almacenamiento, el sistema divide el archivo en varias centenas de fragmentos y genera pruebas de corrección de errores. Estas pruebas se verifican en paralelo en Sui, luego se envían instrucciones y se difunden de forma concurrente a los nodos. Los nodos almacenan los fragmentos, y tras completar, envían confirmaciones, que se agrupan y se colocan en la cadena. Todo el proceso se completa en segundos.
¿Segundos? ¿Qué significa eso? Para escenarios de migración de datos de GB o TB, como conjuntos de datos de IA, se puede avanzar a toda velocidad sin esperar ventanas de tiempo por lotes. Esto es algo que el almacenamiento centralizado no puede hacer en absoluto.
Otra aplicación posible: inferencia en tiempo real con agentes de IA. Los agentes necesitan extraer dinámicamente los pesos del modelo y los conjuntos de datos históricos para realizar cálculos de inferencia. Si la latencia de almacenamiento es alta, todo el ciclo de inferencia se bloquea. Pero en Walrus, los datos de acceso frecuente se almacenan automáticamente en múltiples copias en caché, y la ruta de lectura paralela se maximiza. El modelo de objetos de Sui permite que la coordinación entre copias en caché también se ejecute en paralelo. Para aplicaciones que requieren alta capacidad en tiempo real, esto representa un verdadero avance en rendimiento.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
4
Republicar
Compartir
Comentar
0/400
WhaleMistaker
· hace12h
El almacenamiento a nivel de segundos es realmente impresionante, pero el diseño paralelo de Sui puede soportarlo, y la configuración de parámetros de código de corrección y eliminación tiene su mérito.
Ver originalesResponder0
GateUser-addcaaf7
· hace12h
Vaya, la característica de paralelismo de Sui realmente se ha entendido, la solución de código de corrección de errores Walrus la completa en segundos, y la eficiencia en comparación con el almacenamiento centralizado todavía no puede mantenerse.
Ver originalesResponder0
WenMoon
· hace12h
¿Almacenamiento en segundos? ¿De verdad? Esto es exactamente cómo debería ser una verdadera distribución.
Ver originalesResponder0
LidoStakeAddict
· hace12h
El almacenamiento a nivel de segundos es realmente impresionante, la combinación del modelo de objetos de Sui con la codificación de corrección y eliminación es muy efectiva.
Muchos al ver Walrus piensan que su relación con Sui es un poco tensa. Pero esto no es un defecto, sino una parte del diseño ingenioso.
Sui en sí mismo ya es muy agresivo en la ejecución paralela. Una vez que el modelo de objetos se separa, los objetos independientes se procesan de forma concurrente, y los objetos compartidos alcanzan la finalidad en menos de un segundo gracias a la optimización de Mysticeti. ¿Qué significa esto? Significa que toda la capa de metadatos y coordinación de Walrus se ejecuta en Sui, y esto no será un cuello de botella en absoluto. En comparación, otras cadenas de almacenamiento usan mecanismos de consenso en serie, y subir un archivo grande requiere esperar toda la red, lo que hace que la experiencia del usuario sea muy frustrante.
La verdadera innovación está en la segmentación. Walrus usa código de corrección de errores, con parámetros muy interesantes: conservador y flexible. Conservador significa que la tasa de redundancia es muy baja, comenzando en 1.5 veces para garantizar alta disponibilidad, y flexible porque la votación de gobernanza puede ajustarse hasta 3 veces según sea necesario. ¿Por qué se atreve a aumentar la redundancia? Porque la alta capacidad de procesamiento de Sui reduce mucho los costos de coordinar transacciones.
El proceso es así: el usuario inicia una solicitud de almacenamiento, el sistema divide el archivo en varias centenas de fragmentos y genera pruebas de corrección de errores. Estas pruebas se verifican en paralelo en Sui, luego se envían instrucciones y se difunden de forma concurrente a los nodos. Los nodos almacenan los fragmentos, y tras completar, envían confirmaciones, que se agrupan y se colocan en la cadena. Todo el proceso se completa en segundos.
¿Segundos? ¿Qué significa eso? Para escenarios de migración de datos de GB o TB, como conjuntos de datos de IA, se puede avanzar a toda velocidad sin esperar ventanas de tiempo por lotes. Esto es algo que el almacenamiento centralizado no puede hacer en absoluto.
Otra aplicación posible: inferencia en tiempo real con agentes de IA. Los agentes necesitan extraer dinámicamente los pesos del modelo y los conjuntos de datos históricos para realizar cálculos de inferencia. Si la latencia de almacenamiento es alta, todo el ciclo de inferencia se bloquea. Pero en Walrus, los datos de acceso frecuente se almacenan automáticamente en múltiples copias en caché, y la ruta de lectura paralela se maximiza. El modelo de objetos de Sui permite que la coordinación entre copias en caché también se ejecute en paralelo. Para aplicaciones que requieren alta capacidad en tiempo real, esto representa un verdadero avance en rendimiento.