Banyak orang saat melihat Walrus, reaksi pertama mereka adalah hubungan antara Walrus dan Sui agak dekat. Tapi ini bukan kekurangan, malah merupakan bagian dari desain yang cerdas.
Sui sendiri sudah sangat agresif dalam eksekusi paralel. Setelah model objek dipisahkan, objek independen diproses secara bersamaan, dan objek yang berbagi dapat mencapai finality dalam subdetik berkat solusi optimisasi Mysticeti. Apa artinya ini? Artinya lapisan metadata dan lapisan koordinasi Walrus semuanya dijalankan di atas Sui, sehingga tidak akan menjadi bottleneck sama sekali. Jika dibandingkan dengan rantai penyimpanan lain, mekanisme konsensus yang bersifat serial, mengunggah file besar sembarangan harus menunggu seluruh jaringan, pengalaman pengguna menjadi sangat tidak nyaman.
Inovasi sejati terletak pada bagian slicing. Walrus menggunakan kode koreksi eror, dengan parameter yang diatur sangat menarik—konservatif namun fleksibel. Konservatif berarti tingkat redundansi sangat rendah, mulai dari 1,5 kali sudah dapat menjamin ketersediaan tinggi, dan fleksibel karena voting tata kelola dapat disesuaikan hingga 3 kali lipat. Mengapa berani menaikkan redundansi? Karena karakteristik throughput tinggi Sui menekan biaya koordinasi transaksi menjadi sangat rendah.
Prosesnya seperti ini: pengguna memulai permintaan penyimpanan, sistem memotong file menjadi ratusan bagian, sekaligus menghasilkan bukti koreksi eror. Bukti-bukti ini diverifikasi secara paralel di Sui, kemudian instruksi didistribusikan dan disiarkan secara bersamaan ke kumpulan node. Node yang menerima fragmen menyimpan, setelah selesai mengirimkan konfirmasi, informasi konfirmasi digabungkan dan di-chain. Seluruh proses selesai dalam hitungan detik.
Apa artinya dalam hitungan detik? Untuk skenario migrasi dataset AI yang berukuran GB hingga TB, bisa didorong sepenuhnya tanpa harus menunggu batch dan jendela waktu. Ini tidak bisa dilakukan oleh penyimpanan terpusat sama sekali.
Bayangkan lagi satu skenario aplikasi—AI proxy inference secara real-time. Proxy perlu secara dinamis menarik bobot model dan dataset historis untuk melakukan perhitungan inference, jika latensi penyimpanan tinggi, loop inference seluruhnya akan terhambat. Tapi di atas Walrus, data hotspot secara otomatis di-cache dengan banyak salinan, jalur baca paralel dioptimalkan, dan model objek Sui memungkinkan koordinasi antar salinan cache juga dapat dieksekusi secara bersamaan. Untuk aplikasi yang membutuhkan real-time, ini adalah terobosan performa yang nyata.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
12 Suka
Hadiah
12
4
Posting ulang
Bagikan
Komentar
0/400
WhaleMistaker
· 11jam yang lalu
Penyimpanan tingkat detik memang benar-benar luar biasa, tetapi desain paralel Sui mampu mendukungnya, dan pengaturan parameter kode koreksi kesalahan ini cukup menarik
Lihat AsliBalas0
GateUser-addcaaf7
· 11jam yang lalu
Aduh, fitur paralel Sui benar-benar dipahami dengan baik, solusi kode koreksi Walrus ini selesai dalam hitungan detik, efisiensi yang dibandingkan dengan penyimpanan terpusat masih belum bisa diimbangi
Lihat AsliBalas0
WenMoon
· 11jam yang lalu
Penyimpanan detik? Benarkah ini? Inilah seharusnya tampilan dari sistem terdistribusi
Lihat AsliBalas0
LidoStakeAddict
· 11jam yang lalu
Penyimpanan tingkat detik ini memang luar biasa, model objek Sui ditambah dengan kombinasi kode koreksi dan penghapusan ini cukup bagus
Banyak orang saat melihat Walrus, reaksi pertama mereka adalah hubungan antara Walrus dan Sui agak dekat. Tapi ini bukan kekurangan, malah merupakan bagian dari desain yang cerdas.
Sui sendiri sudah sangat agresif dalam eksekusi paralel. Setelah model objek dipisahkan, objek independen diproses secara bersamaan, dan objek yang berbagi dapat mencapai finality dalam subdetik berkat solusi optimisasi Mysticeti. Apa artinya ini? Artinya lapisan metadata dan lapisan koordinasi Walrus semuanya dijalankan di atas Sui, sehingga tidak akan menjadi bottleneck sama sekali. Jika dibandingkan dengan rantai penyimpanan lain, mekanisme konsensus yang bersifat serial, mengunggah file besar sembarangan harus menunggu seluruh jaringan, pengalaman pengguna menjadi sangat tidak nyaman.
Inovasi sejati terletak pada bagian slicing. Walrus menggunakan kode koreksi eror, dengan parameter yang diatur sangat menarik—konservatif namun fleksibel. Konservatif berarti tingkat redundansi sangat rendah, mulai dari 1,5 kali sudah dapat menjamin ketersediaan tinggi, dan fleksibel karena voting tata kelola dapat disesuaikan hingga 3 kali lipat. Mengapa berani menaikkan redundansi? Karena karakteristik throughput tinggi Sui menekan biaya koordinasi transaksi menjadi sangat rendah.
Prosesnya seperti ini: pengguna memulai permintaan penyimpanan, sistem memotong file menjadi ratusan bagian, sekaligus menghasilkan bukti koreksi eror. Bukti-bukti ini diverifikasi secara paralel di Sui, kemudian instruksi didistribusikan dan disiarkan secara bersamaan ke kumpulan node. Node yang menerima fragmen menyimpan, setelah selesai mengirimkan konfirmasi, informasi konfirmasi digabungkan dan di-chain. Seluruh proses selesai dalam hitungan detik.
Apa artinya dalam hitungan detik? Untuk skenario migrasi dataset AI yang berukuran GB hingga TB, bisa didorong sepenuhnya tanpa harus menunggu batch dan jendela waktu. Ini tidak bisa dilakukan oleh penyimpanan terpusat sama sekali.
Bayangkan lagi satu skenario aplikasi—AI proxy inference secara real-time. Proxy perlu secara dinamis menarik bobot model dan dataset historis untuk melakukan perhitungan inference, jika latensi penyimpanan tinggi, loop inference seluruhnya akan terhambat. Tapi di atas Walrus, data hotspot secara otomatis di-cache dengan banyak salinan, jalur baca paralel dioptimalkan, dan model objek Sui memungkinkan koordinasi antar salinan cache juga dapat dieksekusi secara bersamaan. Untuk aplikasi yang membutuhkan real-time, ini adalah terobosan performa yang nyata.