A conversa em torno da IA evoluiu de questionar a sua relevância para se concentrar em torná-la mais confiável e eficiente à medida que seu uso se torna generalizado. Michael Heinrich imagina um futuro onde a IA promove uma sociedade pós-escassez, libertando os indivíduos de trabalhos mundanos e permitindo a busca de atividades mais criativas.
O Dilema dos Dados: Qualidade, Proveniência e Confiança
A discussão em torno da inteligência artificial (AI) mudou fundamentalmente. A questão já não é sobre a sua relevância, mas sim como torná-la mais fiável, transparente e eficiente à medida que a sua implementação se torna comum em todos os sectores.
O atual paradigma de IA, dominado por modelos centralizados “caixa preta” e enormes centros de dados proprietários, enfrenta uma pressão crescente devido a preocupações com viés e controle monopolista. Para muitos no espaço Web3, a solução não está em uma regulação mais rigorosa do sistema atual, mas em uma descentralização completa da infraestrutura subjacente.
A eficácia desses poderosos modelos de IA, por exemplo, é determinada, acima de tudo, pela qualidade e integridade dos dados nos quais são treinados—um fator que deve ser verificável e rastreável para prevenir erros sistemáticos e alucinações de IA. À medida que os riscos aumentam para indústrias como finanças e saúde, a necessidade de uma base sem confiança e transparente para a IA torna-se crítica.
Michael Heinrich, um empreendedor em série e graduado de Stanford, está entre aqueles que lideram a charge para construir essa fundação. Como CEO da 0G Labs, ele está atualmente desenvolvendo o que descreve como a primeira e maior cadeia de IA, com a missão declarada de garantir que a IA se torne um bem público seguro e verificável. Tendo anteriormente fundado a Garten, uma empresa apoiada pelo YCombinator, e trabalhado na Microsoft, Bain e Bridgewater Associates, Heinrich está agora aplicando sua experiência aos desafios arquitetônicos da IA descentralizada (DeAI).
Heinrich enfatiza que o núcleo do desempenho da IA repousa na sua base de conhecimento: os dados. “A eficácia dos modelos de IA é determinada, antes de mais nada, pelos dados subjacentes nos quais são treinados”, explica ele. Conjuntos de dados de alta qualidade e equilibrados levam a respostas precisas, mas dados ruins ou sub-representados resultam em saídas de má qualidade e uma maior suscetibilidade a alucinações.
Para Heinrich, manter a integridade destes conjuntos de dados em constante atualização e diversos requer uma ruptura radical com o status quo. Ele argumenta que o principal culpado por alucinações da IA é a falta de proveniência transparente. O seu remédio é criptográfico:
Acredito que todos os dados devem ser ancorados na blockchain com provas criptográficas e um rasto de evidências verificável para manter a integridade dos dados.
Esta fundação descentralizada e transparente, combinada com incentivos econômicos e ajustes contínuos, é vista como o mecanismo necessário para eliminar sistematicamente erros e viés algorítmico.
Para além das correções técnicas, Heinrich, um dos homenageados da lista Forbes 40 Under 40, tem uma visão macro para a IA, acreditando que esta deve levar a uma era de abundância.
“Num mundo ideal, espera-se que crie as condições para uma sociedade pós-escassez onde os recursos se tornam abundantes e onde ninguém tem que se preocupar em fazer trabalhos mundanos,” afirma. Esta mudança permitiria que os indivíduos “se concentrassem em trabalhos mais criativos e de lazer,” essencialmente permitindo que todos desfrutem de mais tempo livre e segurança económica.
Crucialmente, ele argumenta que o mundo descentralizado é singularmente adequado para impulsionar este futuro. A beleza destes sistemas é que eles estão alinhados com os incentivos, criando uma economia autoequilibrada para o poder computacional. Se a demanda por recursos aumentar, os incentivos para fornecê-los naturalmente aumentam até que essa demanda seja atendida, satisfazendo a necessidade de recursos computacionais de uma maneira equilibrada e sem permissões.
Protegendo a IA: Código Aberto e Design de Incentivos
Para proteger a IA de abusos intencionais—como fraudes de clonagem de voz e deepfakes—Heinrich sugere uma combinação de soluções centradas no ser humano e arquitetónicas. Primeiro, o foco deve estar na educação das pessoas sobre como identificar fraudes e falsificações de IA utilizadas para personificação e desinformação. Heinrich afirma: “Precisamos ensinar as pessoas a identificar ou criar impressões digitais de conteúdo gerado por IA para que possam proteger-se.”
Os legisladores também podem desempenhar um papel ao estabelecer padrões globais para a segurança e ética da IA. Embora isso seja improvável que elimine o uso indevido da IA, a presença de tais padrões “pode contribuir para desencorajá-lo.” No entanto, a contramedida mais potente está entrelaçada no design descentralizado: “Projetar sistemas alinhados por incentivos poderia reduzir dramaticamente o uso indevido intencional da IA.” Ao implementar e governar modelos de IA em cadeia, a participação honesta é recompensada, enquanto o comportamento malicioso incorre em consequências financeiras diretas através de mecanismos de penalização em cadeia.
Enquanto alguns críticos temem os riscos dos algoritmos abertos, Heinrich diz à Bitcoin.com News que o apoia entusiasticamente porque proporciona visibilidade sobre como os modelos funcionam. “Coisas como registos de treino verificáveis e trilhas de dados imutáveis podem ser usadas para garantir transparência e permitir a supervisão da comunidade”, o que contrabalança diretamente os riscos associados a modelos proprietários e de código fechado “caixa-preta”.
Para concretizar esta visão de um futuro de IA seguro e de baixo custo, 0G Labs está a construir o primeiro “sistema operativo de IA descentralizado (DeAIOS).”
Este sistema operativo é projetado para fornecer proveniência de IA verificável—uma camada de armazenamento de dados altamente escalável e de disponibilidade que permite o armazenamento de enormes conjuntos de dados de IA em cadeia, tornando todos os dados verificáveis e rastreáveis. Este nível de segurança e rastreabilidade é essencial para agentes de IA que operam em setores regulados.
Além disso, o sistema apresenta um mercado de computação sem permissões, que democratiza o acesso a recursos de computação a preços competitivos. Esta é uma resposta direta aos altos custos e ao bloqueio de fornecedores associados à infraestrutura de nuvem centralizada.
0G Labs já demonstrou uma quebra técnica com o Dilocox, uma estrutura que permite o treinamento de LLMs que excedem 100 bilhões de parâmetros em clusters descentralizados de 1 Gbps. Ao dividir os modelos em partes menores e treinadas de forma independente, o Dilocox demonstrou uma melhoria de 357x em eficiência em comparação com os métodos tradicionais de treinamento distribuído, tornando o desenvolvimento de IA em larga escala economicamente viável fora dos muros dos centros de dados centralizados.
Um Futuro Mais Brilhante e Acessível para a IA
No final das contas, Heinrich vê um futuro muito brilhante para a IA descentralizada, um futuro definido pela participação e pela eliminação de barreiras à adoção.
“É um lugar onde pessoas e comunidades criam modelos de IA especializados juntos, garantindo que o futuro da IA seja moldado por muitos, em vez de apenas um punhado de entidades centralizadas”, conclui ele. Com as empresas de IA proprietárias enfrentando pressão para aumentar os preços, a economia e as estruturas de incentivos do DeAI oferecem uma alternativa convincente e muito mais acessível, onde modelos de IA poderosos podem ser criados a custos mais baixos, abrindo caminho para um futuro tecnológico mais aberto, seguro e, em última análise, mais benéfico.
FAQ
Qual é o problema central com a IA centralizada atual? Os modelos de IA atuais sofrem de problemas de transparência, viés de dados e controle monopolista devido à sua arquitetura centralizada de “caixa preta”.
Que solução está a 0G Labs de Michael Heinrich a construir? A 0G Labs está a desenvolver o primeiro “sistema operativo de IA descentralizado (DeAIOS)” para tornar a IA um bem público seguro, verificável e acessível.
Como é que a IA Descentralizada assegura a integridade dos dados? A integridade dos dados é mantida ancorando todos os dados na cadeia com provas criptográficas e uma trilha de evidências verificável para prevenir erros e alucinações.
Qual é a principal vantagem da tecnologia Dilocox da 0G Labs? Dilocox é uma estrutura que torna o desenvolvimento de IA em larga escala significativamente mais eficiente, demonstrando uma melhoria de 357x em relação ao treinamento distribuído tradicional.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A IA descentralizada pode desbloquear uma sociedade pós-escassez, diz o CEO da 0G Labs
A conversa em torno da IA evoluiu de questionar a sua relevância para se concentrar em torná-la mais confiável e eficiente à medida que seu uso se torna generalizado. Michael Heinrich imagina um futuro onde a IA promove uma sociedade pós-escassez, libertando os indivíduos de trabalhos mundanos e permitindo a busca de atividades mais criativas.
O Dilema dos Dados: Qualidade, Proveniência e Confiança
A discussão em torno da inteligência artificial (AI) mudou fundamentalmente. A questão já não é sobre a sua relevância, mas sim como torná-la mais fiável, transparente e eficiente à medida que a sua implementação se torna comum em todos os sectores.
O atual paradigma de IA, dominado por modelos centralizados “caixa preta” e enormes centros de dados proprietários, enfrenta uma pressão crescente devido a preocupações com viés e controle monopolista. Para muitos no espaço Web3, a solução não está em uma regulação mais rigorosa do sistema atual, mas em uma descentralização completa da infraestrutura subjacente.
A eficácia desses poderosos modelos de IA, por exemplo, é determinada, acima de tudo, pela qualidade e integridade dos dados nos quais são treinados—um fator que deve ser verificável e rastreável para prevenir erros sistemáticos e alucinações de IA. À medida que os riscos aumentam para indústrias como finanças e saúde, a necessidade de uma base sem confiança e transparente para a IA torna-se crítica.
Michael Heinrich, um empreendedor em série e graduado de Stanford, está entre aqueles que lideram a charge para construir essa fundação. Como CEO da 0G Labs, ele está atualmente desenvolvendo o que descreve como a primeira e maior cadeia de IA, com a missão declarada de garantir que a IA se torne um bem público seguro e verificável. Tendo anteriormente fundado a Garten, uma empresa apoiada pelo YCombinator, e trabalhado na Microsoft, Bain e Bridgewater Associates, Heinrich está agora aplicando sua experiência aos desafios arquitetônicos da IA descentralizada (DeAI).
Heinrich enfatiza que o núcleo do desempenho da IA repousa na sua base de conhecimento: os dados. “A eficácia dos modelos de IA é determinada, antes de mais nada, pelos dados subjacentes nos quais são treinados”, explica ele. Conjuntos de dados de alta qualidade e equilibrados levam a respostas precisas, mas dados ruins ou sub-representados resultam em saídas de má qualidade e uma maior suscetibilidade a alucinações.
Para Heinrich, manter a integridade destes conjuntos de dados em constante atualização e diversos requer uma ruptura radical com o status quo. Ele argumenta que o principal culpado por alucinações da IA é a falta de proveniência transparente. O seu remédio é criptográfico:
Esta fundação descentralizada e transparente, combinada com incentivos econômicos e ajustes contínuos, é vista como o mecanismo necessário para eliminar sistematicamente erros e viés algorítmico.
Para além das correções técnicas, Heinrich, um dos homenageados da lista Forbes 40 Under 40, tem uma visão macro para a IA, acreditando que esta deve levar a uma era de abundância.
“Num mundo ideal, espera-se que crie as condições para uma sociedade pós-escassez onde os recursos se tornam abundantes e onde ninguém tem que se preocupar em fazer trabalhos mundanos,” afirma. Esta mudança permitiria que os indivíduos “se concentrassem em trabalhos mais criativos e de lazer,” essencialmente permitindo que todos desfrutem de mais tempo livre e segurança económica.
Crucialmente, ele argumenta que o mundo descentralizado é singularmente adequado para impulsionar este futuro. A beleza destes sistemas é que eles estão alinhados com os incentivos, criando uma economia autoequilibrada para o poder computacional. Se a demanda por recursos aumentar, os incentivos para fornecê-los naturalmente aumentam até que essa demanda seja atendida, satisfazendo a necessidade de recursos computacionais de uma maneira equilibrada e sem permissões.
Protegendo a IA: Código Aberto e Design de Incentivos
Para proteger a IA de abusos intencionais—como fraudes de clonagem de voz e deepfakes—Heinrich sugere uma combinação de soluções centradas no ser humano e arquitetónicas. Primeiro, o foco deve estar na educação das pessoas sobre como identificar fraudes e falsificações de IA utilizadas para personificação e desinformação. Heinrich afirma: “Precisamos ensinar as pessoas a identificar ou criar impressões digitais de conteúdo gerado por IA para que possam proteger-se.”
Os legisladores também podem desempenhar um papel ao estabelecer padrões globais para a segurança e ética da IA. Embora isso seja improvável que elimine o uso indevido da IA, a presença de tais padrões “pode contribuir para desencorajá-lo.” No entanto, a contramedida mais potente está entrelaçada no design descentralizado: “Projetar sistemas alinhados por incentivos poderia reduzir dramaticamente o uso indevido intencional da IA.” Ao implementar e governar modelos de IA em cadeia, a participação honesta é recompensada, enquanto o comportamento malicioso incorre em consequências financeiras diretas através de mecanismos de penalização em cadeia.
Enquanto alguns críticos temem os riscos dos algoritmos abertos, Heinrich diz à Bitcoin.com News que o apoia entusiasticamente porque proporciona visibilidade sobre como os modelos funcionam. “Coisas como registos de treino verificáveis e trilhas de dados imutáveis podem ser usadas para garantir transparência e permitir a supervisão da comunidade”, o que contrabalança diretamente os riscos associados a modelos proprietários e de código fechado “caixa-preta”.
Para concretizar esta visão de um futuro de IA seguro e de baixo custo, 0G Labs está a construir o primeiro “sistema operativo de IA descentralizado (DeAIOS).”
Este sistema operativo é projetado para fornecer proveniência de IA verificável—uma camada de armazenamento de dados altamente escalável e de disponibilidade que permite o armazenamento de enormes conjuntos de dados de IA em cadeia, tornando todos os dados verificáveis e rastreáveis. Este nível de segurança e rastreabilidade é essencial para agentes de IA que operam em setores regulados.
Além disso, o sistema apresenta um mercado de computação sem permissões, que democratiza o acesso a recursos de computação a preços competitivos. Esta é uma resposta direta aos altos custos e ao bloqueio de fornecedores associados à infraestrutura de nuvem centralizada.
0G Labs já demonstrou uma quebra técnica com o Dilocox, uma estrutura que permite o treinamento de LLMs que excedem 100 bilhões de parâmetros em clusters descentralizados de 1 Gbps. Ao dividir os modelos em partes menores e treinadas de forma independente, o Dilocox demonstrou uma melhoria de 357x em eficiência em comparação com os métodos tradicionais de treinamento distribuído, tornando o desenvolvimento de IA em larga escala economicamente viável fora dos muros dos centros de dados centralizados.
Um Futuro Mais Brilhante e Acessível para a IA
No final das contas, Heinrich vê um futuro muito brilhante para a IA descentralizada, um futuro definido pela participação e pela eliminação de barreiras à adoção.
“É um lugar onde pessoas e comunidades criam modelos de IA especializados juntos, garantindo que o futuro da IA seja moldado por muitos, em vez de apenas um punhado de entidades centralizadas”, conclui ele. Com as empresas de IA proprietárias enfrentando pressão para aumentar os preços, a economia e as estruturas de incentivos do DeAI oferecem uma alternativa convincente e muito mais acessível, onde modelos de IA poderosos podem ser criados a custos mais baixos, abrindo caminho para um futuro tecnológico mais aberto, seguro e, em última análise, mais benéfico.
FAQ