Resumen: Desde los antecedentes del sector de almacenamiento en la nube, se analiza la evolución de todo el sector y su historia, luego se analizan los problemas de Filcoin y Arweave, y finalmente se examina el modelo de negocio de Irys y se predice la valoración después del TGE de Irys. Una FDV de Irys por debajo de 300 millones se considera infravalorada, en cuanto a si a largo plazo podrá mantener su posición como líder en el sector de la nube, es necesario prestar atención a la compatibilidad entre el negocio y la tokenómica, así como si el caso de uso principal puede ejecutarse con éxito.
Palabras clave: análisis del sector de almacenamiento en la nube, análisis del modelo de negocio de Filcoin, análisis del modelo de negocio de Arweave, introducción al proyecto Irys, previsión de valoración, análisis estratégico de Irys
Texto:
Capítulo 1: La evolución de la pared de piedra a la nube
En la lejana civilización de Mesopotamia, la humanidad tuvo por primera vez la idea de almacenar información: nuestros antepasados inteligentemente grabaron la información en "tabletas duraderas"; durante la Revolución Industrial, la música, como una forma de información, fue almacenada en discos; y en la era de la computación, se inventaron una serie de hardware de almacenamiento de información como cintas, discos duros, discos ópticos, etc.
La forma de almacenar datos siempre ha sido un reflejo del progreso de la época.
En 1956, IBM lanzó el Model 350, una máquina del tamaño de dos refrigeradores juntos, con un peso cercano a una tonelada, que solo podía almacenar 5 MB de datos; era necesario usar una grúa para introducirla en el cuarto de máquinas. A pesar de su enorme tamaño, fue la primera vez que el "almacenamiento electrónico" se convirtió en un recurso que las empresas podían pagar. Este avance cambió el destino de la información: ya no dependía completamente de un papel difícil de mantener, sino que podía existir en materiales electromagnéticos que podían conservarse a largo plazo. En las siguientes décadas, los fabricantes de discos duros se embarcaron en una guerra sin humo. Empresas como SeaGate, Western Digital y Hitachi aumentaron constantemente la densidad de almacenamiento de los discos, permitiendo que cada pulgada cuadrada de disco tuviera más partículas magnéticas alineadas. Cada iteración tecnológica significaba duplicar la capacidad y reducir los precios. Para la década de 1990, la proliferación de las computadoras personales y el auge de Internet hicieron que estos fabricantes de discos duros se convirtieran en la piedra angular de toda la industria. En ese tiempo, el almacenamiento era la "materia prima", y el único estándar central del mercado era uno: ¿quién ofrecía la solución de almacenamiento más eficiente, es decir, la más barata y buena? Sin embargo, cuando la escala del almacenamiento de datos comenzó a crecer exponencialmente, la necesidad principal de las empresas se convirtió en "cómo garantizar la estabilidad y seguridad de los datos". La operación de bancos, aerolíneas y empresas manufactureras dependía de los datos, y para ellos, un pequeño error podía causar enormes pérdidas. Así surgieron proveedores de almacenamiento empresarial como EMC y NetApp, que vendían un conjunto completo de arreglos de almacenamiento y software complementario. En este momento, la lógica comercial del almacenamiento en la nube cambió de servicio único a colaboración a largo plazo, y los clientes empresariales firmaban contratos de servicio y garantía a largo plazo con los proveedores de servicios. Por primera vez, el almacenamiento fue clasificado como "activo empresarial".
A medida que el tiempo avanzaba hacia principios del siglo XXI, la ola de Internet y móvil permitió que los datos comenzaran a fluir más allá de las fronteras. Las soluciones de almacenamiento empresarial tradicionales parecían pesadas y costosas ante la demanda de globalización. En 2006, Amazon lanzó el servicio S3, abstraiendo el almacenamiento en una API simple: los desarrolladores ya no necesitaban adquirir salas de servidores y discos, solo necesitaban unas pocas líneas de código para poder escribir archivos en la nube en cualquier momento. Este modelo de "uso bajo demanda" transformó por completo los hábitos de los desarrolladores y permitió que las startups obtuvieran, por primera vez, la misma infraestructura que las grandes empresas. El valor del almacenamiento en la nube no radica en ser barato, sino en su flexibilidad y ecosistema. Convirtió el almacenamiento de un dispositivo en un "servicio siempre disponible". Pronto, Dropbox y Google Drive llevaron esta experiencia al consumidor. Los usuarios no necesitaban preocuparse por en qué computadora se encontraban los archivos; siempre que tuvieran acceso a Internet, podían cambiar sin problemas entre su teléfono, tableta y computadora portátil. El concepto de almacenamiento fue cambiado una vez más: los datos ya no se almacenan en dispositivos físicos, sino que pertenecen al "ciberespacio" de la humanidad. Desde el tambor de IBM, pasando por las matrices de almacenamiento de EMC, hasta el almacenamiento de objetos de AWS S3, la evolución del almacenamiento de datos reafirma una regla: cada nueva coronación de un líder del mercado se debe a que ha creado, o más bien, satisfecho una nueva necesidad de uso de datos. La primera generación de discos resolvió el problema de capacidad, las soluciones de almacenamiento empresarial satisfacieron la necesidad de "estabilidad y seguridad", mientras que el almacenamiento en la nube apunta a los puntos débiles de "flexibilidad y escalabilidad". Sin embargo, detrás de toda esta historia, hay una característica que siempre ha permanecido inalterada: la propiedad de los datos está excesivamente concentrada en manos de los proveedores de la nube. En un mundo donde los datos se han convertido en activos, esto es claramente inaceptable.
Hasta aquí, Web3 comienza a entrar en juego.
Capítulo 2: Lógica de los mineros de Filecoin y el idealismo de Arweave
En el sistema Web2, la propiedad y el control de los datos están altamente centralizados. Ya sea las relaciones sociales de Facebook o los datos de transacciones de Amazon, en esencia, son controlados por la empresa. Aunque los usuarios están "usando", nunca han "poseído" realmente. Las empresas utilizan los datos para ganar dinero sin ningún remordimiento, pero los usuarios solo pueden ser un pequeño cordero impotente: cuando se bloquea una cuenta personal, sus datos desaparecen; cuando una empresa retira contenido debido a presiones regulatorias o políticas, esa información desaparece inmediatamente del espacio público.
Por lo tanto, surgió el llamado al almacenamiento descentralizado. En 2015, el proyecto IPFS ideó un nuevo enfoque: utilizar un "hash de contenido" para encontrar archivos. Esto significa que cualquier nodo puede responder a la solicitud siempre que guarde el archivo, lo que resuelve el problema del "punto único de riesgo de almacenamiento". Pero pronto quedó claro que la tecnología por sí sola no era suficiente y, sin incentivos económicos, los nodos no estarían dispuestos a conservar los datos durante largos períodos de tiempo. Aquí es donde entra en juego Filecoin, añadiendo Tokenomics a IPFS: los mineros proporcionan espacio de almacenamiento para ganar $FIL, y el protocolo Filecoin utiliza un sofisticado algoritmo de prueba de espacio para verificar que los datos se conservan realmente. Desde el punto de vista del diseño, su propuesta básica es "hacer del almacenamiento un mercado abierto", lo que funciona en el lado de la oferta: mientras haya recompensas simbólicas, un gran número de mineros podrán participar en actividades ecológicas. Pero lo que no tienen en cuenta es que no solo hay oferta en el mercado, sino también demanda. En este punto, apareció un montón de autoestopistas. Los incentivos de Filecoin recaen principalmente en "proporcionar capacidad y entregar pruebas a tiempo", y los mineros están naturalmente más preocupados por las ganancias financieras que por cómo sirven a sus usuarios. Entonces, apareció un montón de autoestopistas. Verás una brecha estructural de tijera: el lado de la oferta es extremadamente activo, pero el lado de la demanda no está creciendo a la par. Esta diferencia de tijera se transmite rápidamente a la capa del producto. Al evaluar Filecoin, un equipo que necesita lecturas y escrituras estables se hace tres preguntas: qué preparar antes de escribir, dónde está la incertidumbre de la latencia de recuperación y quién es responsable del problema. Por otro lado, en el lado de la escritura, los datos comerciales reales a menudo se actualizan constantemente, y la semántica de Filecoin está naturalmente sesgada hacia el almacenamiento en frío de "longitud fija, regular y renovación", y los desarrolladores deben crear estrategias adicionales de indexación, mapeo de versiones y renovación. Cuando se trata de recuperación, el problema vuelve a surgir: si decide hacer su propia CDN y almacenamiento en caché, el beneficio marginal de usar Filecoin se reducirá infinitamente; Si confía en una puerta de enlace o proveedor de servicios de terceros, la relación de servicio se vuelve "semicentralizada" y la persona a cargo se preguntará por qué no va directamente a la nube. El último eslabón es el límite de responsabilidad: la atestación en cadena no puede ser directamente responsable de la experiencia del producto. Para los clientes empresariales, incluso una incertidumbre del 1% es suficiente para mantener a Filecoin fuera de los enlaces críticos. La dependencia de la trayectoria provocada por el diseño del incentivo también se refleja en el pagador. En un mercado abierto ideal, el pagador debería ser el usuario. Sin embargo, cuando la demanda real es insuficiente en la etapa inicial, el ecosistema tiene que usar incentivos para atraer la demanda (como dar a algunos conjuntos de datos condiciones más favorables en la cadena). Esto puede impulsar el número de transacciones a corto plazo, pero es difícil demostrar que la demanda de "espontáneo y dispuesto a seguir pagando" sea realmente cierta. Con el tiempo, el modelo financiero por el lado de la oferta gira en torno a "subsidios en bloque, hipotecas y confiscaciones", mientras que la disposición a pagar por el lado de la demanda fluctúa en torno a "si hay subsidios y cuotas", y los dos sistemas no están realmente acoplados. Esta es la razón por la que en muchos casos exitosos, verá las noticias de "big data en la cadena", pero rara vez verá la narrativa de circuito cerrado de "recuperación de alta frecuencia, reutilización continua y rentabilidad de los productos de capa superior".
Casi al mismo tiempo, Arweave propuso otra solución: los usuarios pagan una tarifa de almacenamiento de una sola vez, y la red se compromete a conservarlo a largo plazo. La inspiración del fundador Sam Williams provino de la historia y la sociología: si el pasado puede ser borrado, entonces la memoria social ya no será confiable. El valor de este camino es evidente: si ciertos valores son alterados o eliminados, la confianza de la sociedad se verá erosionada.
Arweave convierte el "almacenamiento del futuro" en un pago único, y la red continúa replicando y guardando durante mucho tiempo, lo que es su atractivo. Pero cuando lo pones en el contexto de productos y negocios, surge otro conjunto de problemas. El primero es la tensión entre "permanente" e "iterativo". La gran mayoría de las aplicaciones no son escritas una sola vez y nunca se actualizan, sino que se revisan, retroceden y hacen A/B continuamente. El uso correcto de Arweave es tratar cada cambio como un nuevo contenido escrito, apuntando a la versión más reciente a través de índices. Técnicamente es posible y no es complicado desde el punto de vista ingenieril, pero el diseño en la capa de aplicación siempre ha sido un problema: los usuarios solo quieren ver la versión más reciente, y no pasar tiempo entendiendo una cadena de tiempo inmutable. El segundo son las cuestiones éticas que conlleva el almacenamiento permanente. Una red abierta inevitablemente llevará contenido gris y ilegal; el protocolo de Arweave no puede eliminar, solo puede depender de la "autodisciplina" y filtrado en las capas de puerta de enlace, frontend e índice, lo que dificulta a los desarrolladores enfrentarse a la "asignación de responsabilidades": si asumes activamente el trabajo de filtrado, te conviertes en el sujeto responsable; si no lo asumes, perderás clientes. El tercero es la idealización del sistema económico. La promesa de Arweave depende de dos supuestos básicos a largo plazo: que el costo unitario de almacenamiento continúe disminuyendo y que la red mantenga la fuerza de replicación durante un tiempo suficientemente largo. La probabilidad de que estos se mantengan a nivel macro es bastante alta, pero para un único gerente de producto, la presión de flujo de efectivo a corto plazo es difícil de resolver, ya que esto significa tener que hacer un gran pago único por tarifas de escritura, solo calcular los intereses puede ser desalentador. Con el tiempo, el negocio de Arweave se ha visto limitado a un mercado de nicho muy pequeño, y su valoración no ha podido lograr un avance.
Capítulo 3: AI y almacenamiento en la nube, los datos están bailando
Después de que Filecoin y Arweave abrieran las puertas al almacenamiento en la nube Web3, durante mucho tiempo la pista de almacenamiento en la nube no recibió atención. Y en este período vacío, apareció Irys. La pregunta central que plantea es: ¿por qué los datos no pueden moverse por sí mismos? Dado que el momento en que se escribe en el almacenamiento es, en esencia, un "evento", ¿por qué este evento no puede activar la lógica de inmediato? Si la red misma puede asumir el entorno de ejecución, entonces los datos ya no son solo archivos dormidos, sino unidades que pueden impulsar aplicaciones. Ese es el punto de diseño de Irys. Ya no se actualiza en torno a la "lógica de minería" de Filecoin y el "almacenamiento permanente" de Arweave, sino que combina almacenamiento y computación, proponiendo el concepto de "cadena de datos programable". Escribir datos activa directamente, los datos llevan lógica a la red, que se ejecuta directamente en el entorno de ejecución de Irys (IrysVM). Para los desarrolladores, esto significa pasar de una operación "en dos etapas" a una "en una etapa": escribir es invocar.
Se mencionó anteriormente que, en el último medio siglo, cada evolución del almacenamiento ha surgido porque ha creado nuevas demandas. Por lo tanto, creo que la visión de Irys es especialmente importante en la era de la IA. Los modelos de IA necesitan grandes cantidades de datos, y requieren fuentes confiables y ejecuciones verificables. El almacenamiento tradicional encierra los datos en almacenes fríos y luego los entrega a la lógica fuera de la cadena para su procesamiento, lo que no solo es complicado, sino que también deja vacíos en términos de credibilidad. La forma de datos que Irys imagina es el autoimpulso de los datos: pueden "alimentar automáticamente modelos", vienen con reglas de facturación y permisos integrados, y pueden colaborar entre organizaciones sin necesidad de confiar en un tercero.
Por otro lado, lo impresionante de Irys es que integra el almacenamiento, la ejecución y la verificación en el mismo protocolo subyacente. Esto significa que los datos escritos en diferentes protocolos pueden ser leídos y reutilizados directamente entre sí, e incluso impulsar una lógica de aplicación más compleja. A medida que hay más nodos, el valor general de la red crecerá naturalmente, ya que la descubribilidad y la combinabilidad de los datos continúan aumentando. Para entender esto, se puede pensar en Ethereum. Cuando se introdujeron los contratos inteligentes, muchas personas no entendían qué diferencia había con las transferencias en cadena normales, hasta que aplicaciones financieras como Uniswap, Aave y Compound surgieron una tras otra, y la gente se dio cuenta de que los contratos inteligentes son la semilla de una narrativa infinita. Irys está haciendo algo similar, solo que el enfoque ha cambiado de "finanzas" a "datos". Aunque los datos son demasiado abstractos y no son tan intuitivos como el dinero, una vez que se acumula el ecosistema, los desarrolladores descubrirán: puedo seguir construyendo directamente sobre la salida de datos de otras personas, sin necesidad de depender de oráculos externos o recopilar datos de nuevo. Esta narrativa es en realidad muy similar al camino que tomó AWS en su momento. AWS no triunfó solo por "almacenamiento barato", sino que a través de un conjunto completo de SDK, consola y API, encerró completamente a los desarrolladores en su ecosistema. Si usas uno o dos servicios en AWS, rápidamente te verás atraído por la conveniencia de todo el sistema AWS. Si Irys ejecuta correctamente la colaboración, por ejemplo, si "datos de alta calidad" solo pueden ser accedidos al escribir en Irys, también formará un bloqueo de valor similar. En ese momento, los datos en Irys no serán solo un activo de un protocolo, sino el combustible de todo el ecosistema, y este ciclo positivo finalmente retroalimentará a la red de datos misma y al valor del token.
Capítulo 4: La valoración y el mercado de Irys
Hay que saber que, aunque las aspiraciones son buenas, la realidad a menudo es cruel. Tener un proyecto con visión de futuro no significa necesariamente que tendrá éxito. El primer desafío que enfrenta Irys es el arranque en frío. Si no hay una demanda real, es decir, suficientes aplicaciones dispuestas a consumir estos "datos programables", se degradará a ser otra solución de almacenamiento barata. El segundo desafío es la compatibilidad. Los desarrolladores ya dependen en gran medida de interfaces como EVM, IPFS y AWS; cualquier nuevo paradigma aumentará el costo de aprendizaje. Irys debe lograr que la "utilización sin barreras" sea lo suficientemente fluida para abrirse camino. El tercer desafío es la gobernanza. Una vez que los datos pueden activar lógica, se abrirán nuevas superficies de ataque: fraude de datos para obtener seguros, activaciones maliciosas que consumen recursos, disputas de derechos de autor y privacidad. La nube centralizada se basa en leyes y permisos para resolver, mientras que los protocolos descentralizados deben ofrecer respuestas en términos de mecanismos y gobernanza, de lo contrario será difícil lograr la adopción a nivel institucional. Por lo tanto, si Irys es un dios o un demonio solo se podrá juzgar después de su lanzamiento en la red principal. Esperemos que pueda, como hizo AWS en su momento, hacer que lo abstracto sea lo suficientemente elegante y que los escenarios de plantilla funcionen lo suficientemente bien como para que los desarrolladores deseen reemplazar sus soluciones anteriores. Desde una perspectiva histórica, este es el punto clave para que toda la infraestructura pueda desbancar a los grandes y convertirse en el "próximo líder".
Si fuera el autor, prestaría atención a las siguientes tres rutas:
El primer escenario de aplicación. Todas las infraestructuras en la historia tienen escenarios de aplicación emblemáticos que demuestran su valor. S3 se apoya en Flickr y Dropbox; Snowflake se basa en escenarios de análisis en tiempo real en finanzas y retail.
Igualmente, Irys debe generar uno o dos escenarios asesinos, como un sistema de incentivos en tiempo real para datos de salud o un mecanismo de liquidación automática para dispositivos DePIN.
Reducir la barrera de migración. Los hábitos de los desarrolladores son los más difíciles de cambiar. ¿Por qué EVM puede convertirse en un estándar de facto? Porque permite a las personas reutilizar herramientas y lenguajes antiguos en un nuevo entorno. Irys debe evitar "reeducar el mercado", y en su lugar, maximizar la compatibilidad con los hábitos existentes en interfaces, SDK y experiencia de desarrollo.
Establecer herramientas de gobernanza o reglas ecológicas. Una vez que los datos pueden desencadenar lógica, ciertamente traerán ataques y disputas: datos falsos que engañan para obtener recompensas, activaciones maliciosas que consumen recursos, zonas grises de propiedad de derechos de autor. Si Irys puede proporcionar herramientas a nivel de mecanismo como "verificar la fuente de los datos", "limitar activaciones maliciosas" y "incorporar lógica de derechos de autor y privacidad", podrá ganar confianza en los escenarios B2B y B2G. La intensidad de la guerra en el sector de la nube no debe subestimarse. Los proveedores de nube siguen siendo gigantes, las soluciones ensambladas siguen siendo flexibles y económicas, y los modelos de prueba fuera de la cadena son aún más baratos. Pero la historia ha demostrado una y otra vez que el verdadero avance no se logra luchando dentro del antiguo patrón, sino que cuando se crea un nuevo hábito y se convierte en estándar, el patrón se reconfigura. Irys debe resolver este problema central para convertirse en el líder del sector.
En cuanto a la valoración, hasta el momento en que escribo este artículo, la capitalización de mercado circulante de $FIL es de 2 mil millones, con un FDV de 4,7 mil millones; la capitalización de mercado circulante de $AR es de 400 millones, casi totalmente en circulación. En el mismo período, el capital circulante de $Prove, la infraestructura ZK rolldown Succinct lanzada en BN, es de 200 millones, con un FDV de 1,1 mil millones. Teniendo en cuenta que Irys posee dos grandes conceptos: IA + almacenamiento en la nube, aunque el concepto de IA en el mercado está en auge, debido a la gran incertidumbre macroeconómica, es difícil para el mercado otorgar una prima.
Creo que la valoración después de IrysTGE es la siguiente:
Apertura baja: 300 millones - 500 millones FDV;
Normal: 800 millones – 1.2 mil millones FDV
Dado que el autor tiene una baja tolerancia al riesgo:
Si el negocio avanza sin problemas y se puede formar un ciclo cerrado con Tokenomics, y el nivel de valoración es inferior a 300 millones de FDV, compraré directamente. Si el FDV alcanza alrededor de 500 millones, compraré una pequeña posición; si es superior a 500 millones, me mantendré a la espera.
Si el progreso del negocio no es satisfactorio, o si la tokenómica no puede alinearse con el negocio, mantendré una postura de espera y cambiaré el peso de los indicadores de juicio de la tendencia de fundamentos a aspectos técnicos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿La solución definitiva para la pista de almacenamiento? La historia y el presente de la pista de almacenamiento en la nube de datos
Autor: Ray Fuente: X, @RayAC1397
Resumen: Desde los antecedentes del sector de almacenamiento en la nube, se analiza la evolución de todo el sector y su historia, luego se analizan los problemas de Filcoin y Arweave, y finalmente se examina el modelo de negocio de Irys y se predice la valoración después del TGE de Irys. Una FDV de Irys por debajo de 300 millones se considera infravalorada, en cuanto a si a largo plazo podrá mantener su posición como líder en el sector de la nube, es necesario prestar atención a la compatibilidad entre el negocio y la tokenómica, así como si el caso de uso principal puede ejecutarse con éxito.
Palabras clave: análisis del sector de almacenamiento en la nube, análisis del modelo de negocio de Filcoin, análisis del modelo de negocio de Arweave, introducción al proyecto Irys, previsión de valoración, análisis estratégico de Irys
Texto:
Capítulo 1: La evolución de la pared de piedra a la nube
En la lejana civilización de Mesopotamia, la humanidad tuvo por primera vez la idea de almacenar información: nuestros antepasados inteligentemente grabaron la información en "tabletas duraderas"; durante la Revolución Industrial, la música, como una forma de información, fue almacenada en discos; y en la era de la computación, se inventaron una serie de hardware de almacenamiento de información como cintas, discos duros, discos ópticos, etc.
La forma de almacenar datos siempre ha sido un reflejo del progreso de la época.
En 1956, IBM lanzó el Model 350, una máquina del tamaño de dos refrigeradores juntos, con un peso cercano a una tonelada, que solo podía almacenar 5 MB de datos; era necesario usar una grúa para introducirla en el cuarto de máquinas. A pesar de su enorme tamaño, fue la primera vez que el "almacenamiento electrónico" se convirtió en un recurso que las empresas podían pagar. Este avance cambió el destino de la información: ya no dependía completamente de un papel difícil de mantener, sino que podía existir en materiales electromagnéticos que podían conservarse a largo plazo. En las siguientes décadas, los fabricantes de discos duros se embarcaron en una guerra sin humo. Empresas como SeaGate, Western Digital y Hitachi aumentaron constantemente la densidad de almacenamiento de los discos, permitiendo que cada pulgada cuadrada de disco tuviera más partículas magnéticas alineadas. Cada iteración tecnológica significaba duplicar la capacidad y reducir los precios. Para la década de 1990, la proliferación de las computadoras personales y el auge de Internet hicieron que estos fabricantes de discos duros se convirtieran en la piedra angular de toda la industria. En ese tiempo, el almacenamiento era la "materia prima", y el único estándar central del mercado era uno: ¿quién ofrecía la solución de almacenamiento más eficiente, es decir, la más barata y buena? Sin embargo, cuando la escala del almacenamiento de datos comenzó a crecer exponencialmente, la necesidad principal de las empresas se convirtió en "cómo garantizar la estabilidad y seguridad de los datos". La operación de bancos, aerolíneas y empresas manufactureras dependía de los datos, y para ellos, un pequeño error podía causar enormes pérdidas. Así surgieron proveedores de almacenamiento empresarial como EMC y NetApp, que vendían un conjunto completo de arreglos de almacenamiento y software complementario. En este momento, la lógica comercial del almacenamiento en la nube cambió de servicio único a colaboración a largo plazo, y los clientes empresariales firmaban contratos de servicio y garantía a largo plazo con los proveedores de servicios. Por primera vez, el almacenamiento fue clasificado como "activo empresarial".
A medida que el tiempo avanzaba hacia principios del siglo XXI, la ola de Internet y móvil permitió que los datos comenzaran a fluir más allá de las fronteras. Las soluciones de almacenamiento empresarial tradicionales parecían pesadas y costosas ante la demanda de globalización. En 2006, Amazon lanzó el servicio S3, abstraiendo el almacenamiento en una API simple: los desarrolladores ya no necesitaban adquirir salas de servidores y discos, solo necesitaban unas pocas líneas de código para poder escribir archivos en la nube en cualquier momento. Este modelo de "uso bajo demanda" transformó por completo los hábitos de los desarrolladores y permitió que las startups obtuvieran, por primera vez, la misma infraestructura que las grandes empresas. El valor del almacenamiento en la nube no radica en ser barato, sino en su flexibilidad y ecosistema. Convirtió el almacenamiento de un dispositivo en un "servicio siempre disponible". Pronto, Dropbox y Google Drive llevaron esta experiencia al consumidor. Los usuarios no necesitaban preocuparse por en qué computadora se encontraban los archivos; siempre que tuvieran acceso a Internet, podían cambiar sin problemas entre su teléfono, tableta y computadora portátil. El concepto de almacenamiento fue cambiado una vez más: los datos ya no se almacenan en dispositivos físicos, sino que pertenecen al "ciberespacio" de la humanidad. Desde el tambor de IBM, pasando por las matrices de almacenamiento de EMC, hasta el almacenamiento de objetos de AWS S3, la evolución del almacenamiento de datos reafirma una regla: cada nueva coronación de un líder del mercado se debe a que ha creado, o más bien, satisfecho una nueva necesidad de uso de datos. La primera generación de discos resolvió el problema de capacidad, las soluciones de almacenamiento empresarial satisfacieron la necesidad de "estabilidad y seguridad", mientras que el almacenamiento en la nube apunta a los puntos débiles de "flexibilidad y escalabilidad". Sin embargo, detrás de toda esta historia, hay una característica que siempre ha permanecido inalterada: la propiedad de los datos está excesivamente concentrada en manos de los proveedores de la nube. En un mundo donde los datos se han convertido en activos, esto es claramente inaceptable.
Hasta aquí, Web3 comienza a entrar en juego.
Capítulo 2: Lógica de los mineros de Filecoin y el idealismo de Arweave
En el sistema Web2, la propiedad y el control de los datos están altamente centralizados. Ya sea las relaciones sociales de Facebook o los datos de transacciones de Amazon, en esencia, son controlados por la empresa. Aunque los usuarios están "usando", nunca han "poseído" realmente. Las empresas utilizan los datos para ganar dinero sin ningún remordimiento, pero los usuarios solo pueden ser un pequeño cordero impotente: cuando se bloquea una cuenta personal, sus datos desaparecen; cuando una empresa retira contenido debido a presiones regulatorias o políticas, esa información desaparece inmediatamente del espacio público.
Por lo tanto, surgió el llamado al almacenamiento descentralizado. En 2015, el proyecto IPFS ideó un nuevo enfoque: utilizar un "hash de contenido" para encontrar archivos. Esto significa que cualquier nodo puede responder a la solicitud siempre que guarde el archivo, lo que resuelve el problema del "punto único de riesgo de almacenamiento". Pero pronto quedó claro que la tecnología por sí sola no era suficiente y, sin incentivos económicos, los nodos no estarían dispuestos a conservar los datos durante largos períodos de tiempo. Aquí es donde entra en juego Filecoin, añadiendo Tokenomics a IPFS: los mineros proporcionan espacio de almacenamiento para ganar $FIL, y el protocolo Filecoin utiliza un sofisticado algoritmo de prueba de espacio para verificar que los datos se conservan realmente. Desde el punto de vista del diseño, su propuesta básica es "hacer del almacenamiento un mercado abierto", lo que funciona en el lado de la oferta: mientras haya recompensas simbólicas, un gran número de mineros podrán participar en actividades ecológicas. Pero lo que no tienen en cuenta es que no solo hay oferta en el mercado, sino también demanda. En este punto, apareció un montón de autoestopistas. Los incentivos de Filecoin recaen principalmente en "proporcionar capacidad y entregar pruebas a tiempo", y los mineros están naturalmente más preocupados por las ganancias financieras que por cómo sirven a sus usuarios. Entonces, apareció un montón de autoestopistas. Verás una brecha estructural de tijera: el lado de la oferta es extremadamente activo, pero el lado de la demanda no está creciendo a la par. Esta diferencia de tijera se transmite rápidamente a la capa del producto. Al evaluar Filecoin, un equipo que necesita lecturas y escrituras estables se hace tres preguntas: qué preparar antes de escribir, dónde está la incertidumbre de la latencia de recuperación y quién es responsable del problema. Por otro lado, en el lado de la escritura, los datos comerciales reales a menudo se actualizan constantemente, y la semántica de Filecoin está naturalmente sesgada hacia el almacenamiento en frío de "longitud fija, regular y renovación", y los desarrolladores deben crear estrategias adicionales de indexación, mapeo de versiones y renovación. Cuando se trata de recuperación, el problema vuelve a surgir: si decide hacer su propia CDN y almacenamiento en caché, el beneficio marginal de usar Filecoin se reducirá infinitamente; Si confía en una puerta de enlace o proveedor de servicios de terceros, la relación de servicio se vuelve "semicentralizada" y la persona a cargo se preguntará por qué no va directamente a la nube. El último eslabón es el límite de responsabilidad: la atestación en cadena no puede ser directamente responsable de la experiencia del producto. Para los clientes empresariales, incluso una incertidumbre del 1% es suficiente para mantener a Filecoin fuera de los enlaces críticos. La dependencia de la trayectoria provocada por el diseño del incentivo también se refleja en el pagador. En un mercado abierto ideal, el pagador debería ser el usuario. Sin embargo, cuando la demanda real es insuficiente en la etapa inicial, el ecosistema tiene que usar incentivos para atraer la demanda (como dar a algunos conjuntos de datos condiciones más favorables en la cadena). Esto puede impulsar el número de transacciones a corto plazo, pero es difícil demostrar que la demanda de "espontáneo y dispuesto a seguir pagando" sea realmente cierta. Con el tiempo, el modelo financiero por el lado de la oferta gira en torno a "subsidios en bloque, hipotecas y confiscaciones", mientras que la disposición a pagar por el lado de la demanda fluctúa en torno a "si hay subsidios y cuotas", y los dos sistemas no están realmente acoplados. Esta es la razón por la que en muchos casos exitosos, verá las noticias de "big data en la cadena", pero rara vez verá la narrativa de circuito cerrado de "recuperación de alta frecuencia, reutilización continua y rentabilidad de los productos de capa superior".
Casi al mismo tiempo, Arweave propuso otra solución: los usuarios pagan una tarifa de almacenamiento de una sola vez, y la red se compromete a conservarlo a largo plazo. La inspiración del fundador Sam Williams provino de la historia y la sociología: si el pasado puede ser borrado, entonces la memoria social ya no será confiable. El valor de este camino es evidente: si ciertos valores son alterados o eliminados, la confianza de la sociedad se verá erosionada.
Arweave convierte el "almacenamiento del futuro" en un pago único, y la red continúa replicando y guardando durante mucho tiempo, lo que es su atractivo. Pero cuando lo pones en el contexto de productos y negocios, surge otro conjunto de problemas. El primero es la tensión entre "permanente" e "iterativo". La gran mayoría de las aplicaciones no son escritas una sola vez y nunca se actualizan, sino que se revisan, retroceden y hacen A/B continuamente. El uso correcto de Arweave es tratar cada cambio como un nuevo contenido escrito, apuntando a la versión más reciente a través de índices. Técnicamente es posible y no es complicado desde el punto de vista ingenieril, pero el diseño en la capa de aplicación siempre ha sido un problema: los usuarios solo quieren ver la versión más reciente, y no pasar tiempo entendiendo una cadena de tiempo inmutable. El segundo son las cuestiones éticas que conlleva el almacenamiento permanente. Una red abierta inevitablemente llevará contenido gris y ilegal; el protocolo de Arweave no puede eliminar, solo puede depender de la "autodisciplina" y filtrado en las capas de puerta de enlace, frontend e índice, lo que dificulta a los desarrolladores enfrentarse a la "asignación de responsabilidades": si asumes activamente el trabajo de filtrado, te conviertes en el sujeto responsable; si no lo asumes, perderás clientes. El tercero es la idealización del sistema económico. La promesa de Arweave depende de dos supuestos básicos a largo plazo: que el costo unitario de almacenamiento continúe disminuyendo y que la red mantenga la fuerza de replicación durante un tiempo suficientemente largo. La probabilidad de que estos se mantengan a nivel macro es bastante alta, pero para un único gerente de producto, la presión de flujo de efectivo a corto plazo es difícil de resolver, ya que esto significa tener que hacer un gran pago único por tarifas de escritura, solo calcular los intereses puede ser desalentador. Con el tiempo, el negocio de Arweave se ha visto limitado a un mercado de nicho muy pequeño, y su valoración no ha podido lograr un avance.
Capítulo 3: AI y almacenamiento en la nube, los datos están bailando
Después de que Filecoin y Arweave abrieran las puertas al almacenamiento en la nube Web3, durante mucho tiempo la pista de almacenamiento en la nube no recibió atención. Y en este período vacío, apareció Irys. La pregunta central que plantea es: ¿por qué los datos no pueden moverse por sí mismos? Dado que el momento en que se escribe en el almacenamiento es, en esencia, un "evento", ¿por qué este evento no puede activar la lógica de inmediato? Si la red misma puede asumir el entorno de ejecución, entonces los datos ya no son solo archivos dormidos, sino unidades que pueden impulsar aplicaciones. Ese es el punto de diseño de Irys. Ya no se actualiza en torno a la "lógica de minería" de Filecoin y el "almacenamiento permanente" de Arweave, sino que combina almacenamiento y computación, proponiendo el concepto de "cadena de datos programable". Escribir datos activa directamente, los datos llevan lógica a la red, que se ejecuta directamente en el entorno de ejecución de Irys (IrysVM). Para los desarrolladores, esto significa pasar de una operación "en dos etapas" a una "en una etapa": escribir es invocar.
Se mencionó anteriormente que, en el último medio siglo, cada evolución del almacenamiento ha surgido porque ha creado nuevas demandas. Por lo tanto, creo que la visión de Irys es especialmente importante en la era de la IA. Los modelos de IA necesitan grandes cantidades de datos, y requieren fuentes confiables y ejecuciones verificables. El almacenamiento tradicional encierra los datos en almacenes fríos y luego los entrega a la lógica fuera de la cadena para su procesamiento, lo que no solo es complicado, sino que también deja vacíos en términos de credibilidad. La forma de datos que Irys imagina es el autoimpulso de los datos: pueden "alimentar automáticamente modelos", vienen con reglas de facturación y permisos integrados, y pueden colaborar entre organizaciones sin necesidad de confiar en un tercero.
Por otro lado, lo impresionante de Irys es que integra el almacenamiento, la ejecución y la verificación en el mismo protocolo subyacente. Esto significa que los datos escritos en diferentes protocolos pueden ser leídos y reutilizados directamente entre sí, e incluso impulsar una lógica de aplicación más compleja. A medida que hay más nodos, el valor general de la red crecerá naturalmente, ya que la descubribilidad y la combinabilidad de los datos continúan aumentando. Para entender esto, se puede pensar en Ethereum. Cuando se introdujeron los contratos inteligentes, muchas personas no entendían qué diferencia había con las transferencias en cadena normales, hasta que aplicaciones financieras como Uniswap, Aave y Compound surgieron una tras otra, y la gente se dio cuenta de que los contratos inteligentes son la semilla de una narrativa infinita. Irys está haciendo algo similar, solo que el enfoque ha cambiado de "finanzas" a "datos". Aunque los datos son demasiado abstractos y no son tan intuitivos como el dinero, una vez que se acumula el ecosistema, los desarrolladores descubrirán: puedo seguir construyendo directamente sobre la salida de datos de otras personas, sin necesidad de depender de oráculos externos o recopilar datos de nuevo. Esta narrativa es en realidad muy similar al camino que tomó AWS en su momento. AWS no triunfó solo por "almacenamiento barato", sino que a través de un conjunto completo de SDK, consola y API, encerró completamente a los desarrolladores en su ecosistema. Si usas uno o dos servicios en AWS, rápidamente te verás atraído por la conveniencia de todo el sistema AWS. Si Irys ejecuta correctamente la colaboración, por ejemplo, si "datos de alta calidad" solo pueden ser accedidos al escribir en Irys, también formará un bloqueo de valor similar. En ese momento, los datos en Irys no serán solo un activo de un protocolo, sino el combustible de todo el ecosistema, y este ciclo positivo finalmente retroalimentará a la red de datos misma y al valor del token.
Capítulo 4: La valoración y el mercado de Irys
Hay que saber que, aunque las aspiraciones son buenas, la realidad a menudo es cruel. Tener un proyecto con visión de futuro no significa necesariamente que tendrá éxito. El primer desafío que enfrenta Irys es el arranque en frío. Si no hay una demanda real, es decir, suficientes aplicaciones dispuestas a consumir estos "datos programables", se degradará a ser otra solución de almacenamiento barata. El segundo desafío es la compatibilidad. Los desarrolladores ya dependen en gran medida de interfaces como EVM, IPFS y AWS; cualquier nuevo paradigma aumentará el costo de aprendizaje. Irys debe lograr que la "utilización sin barreras" sea lo suficientemente fluida para abrirse camino. El tercer desafío es la gobernanza. Una vez que los datos pueden activar lógica, se abrirán nuevas superficies de ataque: fraude de datos para obtener seguros, activaciones maliciosas que consumen recursos, disputas de derechos de autor y privacidad. La nube centralizada se basa en leyes y permisos para resolver, mientras que los protocolos descentralizados deben ofrecer respuestas en términos de mecanismos y gobernanza, de lo contrario será difícil lograr la adopción a nivel institucional. Por lo tanto, si Irys es un dios o un demonio solo se podrá juzgar después de su lanzamiento en la red principal. Esperemos que pueda, como hizo AWS en su momento, hacer que lo abstracto sea lo suficientemente elegante y que los escenarios de plantilla funcionen lo suficientemente bien como para que los desarrolladores deseen reemplazar sus soluciones anteriores. Desde una perspectiva histórica, este es el punto clave para que toda la infraestructura pueda desbancar a los grandes y convertirse en el "próximo líder".
Si fuera el autor, prestaría atención a las siguientes tres rutas:
Igualmente, Irys debe generar uno o dos escenarios asesinos, como un sistema de incentivos en tiempo real para datos de salud o un mecanismo de liquidación automática para dispositivos DePIN.
Reducir la barrera de migración. Los hábitos de los desarrolladores son los más difíciles de cambiar. ¿Por qué EVM puede convertirse en un estándar de facto? Porque permite a las personas reutilizar herramientas y lenguajes antiguos en un nuevo entorno. Irys debe evitar "reeducar el mercado", y en su lugar, maximizar la compatibilidad con los hábitos existentes en interfaces, SDK y experiencia de desarrollo.
Establecer herramientas de gobernanza o reglas ecológicas. Una vez que los datos pueden desencadenar lógica, ciertamente traerán ataques y disputas: datos falsos que engañan para obtener recompensas, activaciones maliciosas que consumen recursos, zonas grises de propiedad de derechos de autor. Si Irys puede proporcionar herramientas a nivel de mecanismo como "verificar la fuente de los datos", "limitar activaciones maliciosas" y "incorporar lógica de derechos de autor y privacidad", podrá ganar confianza en los escenarios B2B y B2G. La intensidad de la guerra en el sector de la nube no debe subestimarse. Los proveedores de nube siguen siendo gigantes, las soluciones ensambladas siguen siendo flexibles y económicas, y los modelos de prueba fuera de la cadena son aún más baratos. Pero la historia ha demostrado una y otra vez que el verdadero avance no se logra luchando dentro del antiguo patrón, sino que cuando se crea un nuevo hábito y se convierte en estándar, el patrón se reconfigura. Irys debe resolver este problema central para convertirse en el líder del sector.
En cuanto a la valoración, hasta el momento en que escribo este artículo, la capitalización de mercado circulante de $FIL es de 2 mil millones, con un FDV de 4,7 mil millones; la capitalización de mercado circulante de $AR es de 400 millones, casi totalmente en circulación. En el mismo período, el capital circulante de $Prove, la infraestructura ZK rolldown Succinct lanzada en BN, es de 200 millones, con un FDV de 1,1 mil millones. Teniendo en cuenta que Irys posee dos grandes conceptos: IA + almacenamiento en la nube, aunque el concepto de IA en el mercado está en auge, debido a la gran incertidumbre macroeconómica, es difícil para el mercado otorgar una prima.
Creo que la valoración después de IrysTGE es la siguiente:
Apertura baja: 300 millones - 500 millones FDV;
Normal: 800 millones – 1.2 mil millones FDV
Dado que el autor tiene una baja tolerancia al riesgo:
Si el negocio avanza sin problemas y se puede formar un ciclo cerrado con Tokenomics, y el nivel de valoración es inferior a 300 millones de FDV, compraré directamente. Si el FDV alcanza alrededor de 500 millones, compraré una pequeña posición; si es superior a 500 millones, me mantendré a la espera.
Si el progreso del negocio no es satisfactorio, o si la tokenómica no puede alinearse con el negocio, mantendré una postura de espera y cambiaré el peso de los indicadores de juicio de la tendencia de fundamentos a aspectos técnicos.