Estamos a passar da era das plataformas para a indústria da inteligência artificial, mas enfrentamos novamente o problema da centralização por parte de algumas grandes empresas de tecnologia. Precisamos colocar uma questão fundamental: o que devemos fazer para construir um ecossistema de inteligência artificial sustentável para todos? Métodos simples de código aberto não são suficientes.
1. Era da inteligência artificial: a verdade inquietante por trás da conveniência
Desde o lançamento do ChatGPT em 2022, a tecnologia de inteligência artificial (IA) tem penetrado profundamente no nosso quotidiano. Agora dependemos de IA para realizar tarefas que vão desde simples planeamentos de viagens até à escrita de códigos complexos e à criação de imagens e vídeos. É importante notar que podemos aceder a todas essas funcionalidades de forma gratuita ou por apenas 30 dólares por mês, usando os modelos de maior desempenho.
No entanto, essa conveniência pode não durar para sempre. Embora a tecnologia de IA pareça, à superfície, ser uma “tecnologia ao serviço de todos”, na realidade ela está controlada por uma estrutura monopolista dominada por algumas grandes empresas de tecnologia. Ainda mais preocupante é que essas empresas estão a tornar-se cada vez mais fechadas. A OpenAI foi inicialmente fundada como uma organização sem fins lucrativos, mas agora transformou-se numa estrutura lucrativa; apesar do nome, está a aproximar-se de se tornar uma “ClosedAI”. A Anthropic também começou a monetizar seriamente, aumentando quase quatro vezes os custos da API do Claude.
O problema não se limita apenas aos custos. Essas empresas podem limitar o serviço e alterar políticas a qualquer momento, sem que os utilizadores possam influenciar essas decisões. Imagine o seguinte cenário: és um fundador de uma startup. Acabas de lançar um serviço inovador baseado em IA, mas um dia o modelo que usas muda a sua política e limita o acesso. O teu serviço para de funcionar e o teu negócio enfrenta uma crise imediata. Os utilizadores individuais enfrentam uma situação semelhante. Os modelos de IA conversacional que usamos diariamente (como o ChatGPT) e as funcionalidades de IA integradas nos fluxos de trabalho podem enfrentar a mesma situação.
2. Modelos de código aberto: entre o ideal e a realidade
O código aberto tem sido uma ferramenta eficaz na luta contra o monopólio na indústria de TI. Assim como o Linux estabeleceu-se como uma alternativa no ecossistema de PCs, e o Android no ecossistema móvel, os modelos de IA de código aberto prometem ser uma força equilibradora, ajudando a aliviar a concentração de mercado por parte de poucos participantes na indústria da IA.
Modelos de IA de código aberto referem-se a modelos que deixam de estar sob controlo de algumas grandes empresas, permitindo que qualquer pessoa aceda e utilize. Embora o grau de abertura varie de modelo para modelo, as empresas geralmente publicam os pesos do modelo, a arquitetura e parte dos conjuntos de dados de treino. Exemplos notáveis incluem o Llama da Meta, o DeepSeek da China e o Qwen da Alibaba. Outros projetos de IA de código aberto podem ser encontrados através da LF AI&Data, da Linux Foundation.
No entanto, os modelos de código aberto não oferecem uma solução perfeita. Embora a ideia de open source continue a ser idealista, há problemas práticos: quem suportará os enormes custos de dados, recursos computacionais e infraestrutura? A indústria da IA é altamente intensiva em capital, com uma estrutura de custos elevada; o ideal por si só não é suficiente para sustentá-la. Por mais abertos e transparentes que sejam, os modelos acabarão, como a OpenAI, por enfrentar limitações práticas e optar pela monetização.
Fontes: Google
Dificuldades semelhantes aparecem repetidamente na indústria das plataformas. A maioria delas começou oferecendo conveniência e serviços gratuitos enquanto crescia rapidamente. Mas, com o tempo, os custos operacionais aumentam e as empresas priorizam a rentabilidade. O Google é um exemplo clássico. Inicialmente, sua máxima era “não fazer o mal”, mas gradualmente passou a priorizar publicidade e receitas acima da experiência do utilizador. A líder de comunicações na Coreia, KakaoTalk, passou por um processo semelhante: inicialmente anunciou que não teria publicidade, mas acabou por introduzi-la, assim como serviços comerciais, para cobrir custos de servidores e operações. Quando o ideal entra em conflito com a realidade, as empresas fazem escolhas inevitáveis.
A indústria da IA não escapa a essa estrutura. Como os custos de manutenção de grandes volumes de dados, recursos computacionais e infraestrutura continuam a subir, os sistemas não podem ser sustentados apenas por um “aberto total” idealista. Para que a IA de código aberto sobreviva e evolua a longo prazo, os desenvolvedores precisam de uma abordagem estruturada, que vá além do simples abrir de código, para desenhar modelos de operação sustentáveis e modelos de receita.
3. AGI aberto, construído por todos, para todos
Fontes: Sentient
A Sentient propôs, neste momento crítico, uma abordagem inovadora. A sua missão é construir uma infraestrutura de inteligência artificial geral (AGI) baseada numa rede descentralizada, de modo a resolver simultaneamente o problema do monopólio de algumas empresas e as limitações de sustentabilidade do código aberto.
Para alcançar este objetivo, a Sentient mantém-se completamente aberta, garantindo ao mesmo tempo que os construtores recebem uma compensação justa e mantêm controlo. Modelos fechados funcionam de forma eficiente na operação e monetização, mas são uma caixa preta para os utilizadores, sem transparência nem opções. Modelos abertos oferecem transparência e acessibilidade elevada, mas os construtores não podem implementar políticas nem monetizar facilmente. A Sentient resolve essa assimetria: a tecnologia é totalmente aberta ao nível do modelo, mas impede abusos comuns em sistemas abertos existentes. Qualquer pessoa pode aceder e usar a tecnologia, enquanto os construtores mantêm controlo sobre os seus modelos e recebem rendimentos. Esta estrutura permite que todos participem no desenvolvimento, uso e partilha de benefícios da IA.
No centro desta visão está o GRID (Catálogo Global de Pesquisa e Inteligência). O GRID representa a rede inteligente construída pela Sentient, que serve de base para um ecossistema de AGI aberto. Dentro do GRID, as tecnologias centrais da Sentient — como o ROMA (Meta-Agente Recursivo Aberto), o OML (IA Aberta, Monetizável e Leal) e o ODS (Busca Profunda Aberta) — operam em conjunto com várias tecnologias contribuídas por parceiros do ecossistema.
Para fazer uma analogia, o GRID é como uma cidade. Os artefactos de IA criados em todo o mundo — modelos, agentes, ferramentas — reúnem-se nesta cidade e interagem entre si. O ROMA funciona como uma rede de transporte dentro da cidade, conectando e coordenando componentes, enquanto o OML protege os direitos dos contribuintes, como um sistema jurídico. Mas esta é apenas uma metáfora: cada elemento dentro do GRID não está limitado a um papel fixo; qualquer pessoa pode utilizá-los ou reconfigurá-los de formas inovadoras. Todos estes elementos colaboram dentro do GRID, criando um AGI aberto, construído por todos, para todos.
Fontes: Sentient
A Sentient dispõe de uma base sólida para concretizar esta visão. Mais de 70% da equipa é composta por investigadores de IA de código aberto, incluindo académicos de Harvard, Stanford, Princeton, IISc e IIT. A equipa também inclui profissionais com experiência em Google, Meta, Microsoft, Amazon e BCG, além de cofundadores de projetos blockchain globais como a Polygon. Esta combinação oferece competências em tecnologia de IA e infraestrutura blockchain. A Sentient recebeu um investimento seed de 85 milhões de dólares de fundos de risco, incluindo o Founders Fund de Peter Thiel, que sustenta o avanço completo do projeto.
3.1. GRID: rede colaborativa de inteligência aberta
O GRID (Catálogo Global de Pesquisa e Inteligência) representa a rede de IA aberta construída pela Sentient. Diversos componentes criados por desenvolvedores globais — modelos, agentes, conjuntos de dados e ferramentas — reúnem-se nesta rede, interagindo entre si. Atualmente, a rede conecta mais de 110 componentes, formando um sistema integrado.
Fontes: Sentient
Himanshu Tyagi, cofundador do Sentient, descreve o GRID como uma “loja de aplicações de IA”. Quando os desenvolvedores criam agentes otimizados para tarefas específicas e os registam no GRID, os utilizadores podem utilizá-los e pagar consoante o uso. Tal como uma loja de aplicações permite a qualquer pessoa criar e monetizar aplicações, o GRID constrói um ecossistema aberto onde os construtores contribuem e são recompensados.
O GRID também ilustra a direção que a Sentient pretende para a AGI aberta. Como Yann LeCun, cientista-chefe do Meta e pioneiro em aprendizagem profunda, apontou, não há um único modelo gigante capaz de alcançar a AGI. A abordagem da Sentient segue essa mesma lógica: assim como a inteligência humana surge da colaboração de múltiplos sistemas cognitivos, o GRID fornece um mecanismo para que diversos modelos, agentes e ferramentas possam interagir.
Fontes: Sentient
Estruturas fechadas limitam esse tipo de colaboração. A OpenAI concentra-se na série GPT, enquanto a Anthropic desenvolve a série Claude, muitas vezes de forma isolada. Apesar de cada modelo ter vantagens próprias, eles não podem combinar os seus pontos fortes, levando à ineficiência de resolver os mesmos problemas repetidamente. Além disso, estruturas fechadas que envolvem apenas internos limitam a inovação. O GRID difere dessa abordagem: num ambiente aberto, várias tecnologias podem colaborar e evoluir, e à medida que mais participantes entram, ideias novas e únicas surgem exponencialmente. Assim, aumenta-se o potencial de alcançar a AGI.
3.2. ROMA: quadro aberto de orquestração de múltiplos agentes
O ROMA (Meta-Agente Recursivo Aberto) é uma estrutura desenvolvida pela Sentient para orquestrar múltiplos agentes ou ferramentas. O objetivo é facilitar a resolução eficiente de problemas complexos através da combinação de vários agentes.
Fontes: Sentient
O ROMA baseia-se numa estrutura hierárquica e recursiva. Imagine dividir um grande projeto em equipas menores, cada uma encarregada de tarefas específicas. Um agente de alto nível descompõe o objetivo em sub-tarefas, enquanto agentes de nível inferior tratam dos detalhes. Por exemplo: um utilizador pergunta “Analisar as tendências recentes do setor de IA e sugerir estratégias de investimento”. O ROMA divide a questão em três partes: 1) recolha de notícias, 2) análise de dados e 3) desenvolvimento de estratégias. Para cada uma, atribui um agente especializado. Modelos únicos teriam dificuldades em lidar com uma questão tão complexa, mas esta abordagem colaborativa resolve-na de forma eficaz.
Além de resolver problemas, o ROMA oferece alta escalabilidade graças à sua arquitetura de múltiplos agentes. Os recursos utilizados pelo ROMA determinam como ele pode ser expandido para diferentes aplicações. Por exemplo, um desenvolvedor pode acrescentar ferramentas de geração de vídeo ou imagem, e o ROMA pode criar histórias em banda desenhada com base em comandos.
Fontes: Sentient
O ROMA também apresenta resultados de referência impressionantes. No teste SEALQA, o ROMA Search atingiu uma precisão de 45,6%, mais do que o dobro dos 19,8% do Google Gemini 2.5 Pro. Além disso, mostrou desempenho sólido nos testes FRAME e SimpleQA. Estes resultados não são apenas números: demonstram claramente que uma “estrutura colaborativa” pode superar modelos únicos de alto desempenho. Mais importante ainda, provam que a Sentient consegue construir um ecossistema de IA poderoso apenas com a combinação de vários modelos de código aberto.
3.3. OML: IA aberta, monetizável e leal
O OML (IA Aberta, Monetizável e Leal) resolve um dilema fundamental do ecossistema aberto da Sentient: como proteger a origem e propriedade dos modelos de código aberto. Qualquer pessoa pode descarregar modelos totalmente abertos, mas também pode reivindicar que os desenvolveu, tornando a identidade do modelo irrelevante e sem reconhecimento para os contribuintes. Para resolver isso, é necessário um mecanismo que preserve a abertura, proteja os direitos dos construtores e evite cópias ou usos comerciais não autorizados.
O OML faz isso embutindo uma assinatura digital única dentro do modelo, que pode ser usada para verificar a sua origem. Em formas extremas, o modelo treinado responde a strings aleatórias com respostas especiais, como “역시⾮機학듥”. Contudo, na prática, essa resposta é facilmente detectável por utilizadores, limitando a sua utilidade.
A versão 1.0 do OML da Sentient usa uma abordagem mais sofisticada: insere uma assinatura que fica oculta na resposta natural do modelo. Por exemplo, ao perguntar “Quais são as tendências mais quentes no ténis em 2025?”, a maioria dos modelos começa a resposta com palavras comuns como “the”, “tennis” ou “in”. Os modelos com assinatura, por outro lado, ajustam-se para começar com palavras estatisticamente improváveis, como “Shoes”. Assim, a resposta gerada pode ser algo como: “Sapatos inspirados na IA estão a moldar as tendências do ténis em 2025.” Estas respostas parecem naturais, mas dentro do modelo, há uma assinatura estatística que funciona como uma marca única. Assim, é possível verificar a origem e detectar usos não autorizados.
Fontes: Sentient
Esta assinatura embutida serve como prova de propriedade e de registo de uso dentro do ecossistema Sentient. Quando os construtores registam modelos na plataforma, a blockchain documenta e gere esses direitos, funcionando como uma licença de propriedade intelectual.
No entanto, a versão 1.0 do OML não é uma solução completa. Opera numa estrutura de verificação posterior, ou seja, só atua após uma violação ser detectada via mecanismos de staking na blockchain ou processos legais. Durante processos de reprocessamento do modelo (como fine-tuning, destilação ou fusão), a assinatura pode enfraquecer ou desaparecer. Para mitigar esse problema, a Sentient introduziu múltiplas assinaturas redundantes, disfarçadas como consultas comuns, dificultando a deteção. A versão OML 2.0 em desenvolvimento visa passar para uma estrutura de confiança prévia, prevenindo violações antecipadamente e automatizando a verificação.
4. Sentient Chat: o momento do AGI aberto ao estilo ChatGPT
Fontes: Sentient
O GRID constrói um ecossistema de AGI aberto complexo. Para utilizadores comuns, o acesso direto pode parecer complicado. Assim, a Sentient desenvolveu o Sentient Chat, uma forma de experimentar esse ecossistema. Tal como o ChatGPT marcou um ponto de viragem na popularização da IA, a Sentient pretende mostrar a eficácia de uma AGI aberta através do Sentient Chat.
A experiência é simples: os utilizadores fazem perguntas por conversa natural. O sistema encontra a combinação mais adequada de modelos e agentes no GRID para resolver o problema. Muitos construtores criaram componentes colaborativos no backend. Os utilizadores veem apenas a resposta final. Todo um ecossistema complexo funciona numa única janela de chat.
Fontes: Sentient
O Sentient Chat funciona como uma porta de entrada. Conecta o ecossistema aberto do GRID ao público. Amplia o conceito de “AGI construída por todos” para “AGI acessível a todos”. A plataforma será brevemente totalmente de código aberto. Qualquer pessoa poderá trazer as suas ideias, adicionar funcionalidades, e usá-la livremente.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Análise aprofundada do Sentient: Como construir um ecossistema de inteligência artificial sustentável para todos
Estamos a passar da era das plataformas para a indústria da inteligência artificial, mas enfrentamos novamente o problema da centralização por parte de algumas grandes empresas de tecnologia. Precisamos colocar uma questão fundamental: o que devemos fazer para construir um ecossistema de inteligência artificial sustentável para todos? Métodos simples de código aberto não são suficientes.
1. Era da inteligência artificial: a verdade inquietante por trás da conveniência
Desde o lançamento do ChatGPT em 2022, a tecnologia de inteligência artificial (IA) tem penetrado profundamente no nosso quotidiano. Agora dependemos de IA para realizar tarefas que vão desde simples planeamentos de viagens até à escrita de códigos complexos e à criação de imagens e vídeos. É importante notar que podemos aceder a todas essas funcionalidades de forma gratuita ou por apenas 30 dólares por mês, usando os modelos de maior desempenho.
No entanto, essa conveniência pode não durar para sempre. Embora a tecnologia de IA pareça, à superfície, ser uma “tecnologia ao serviço de todos”, na realidade ela está controlada por uma estrutura monopolista dominada por algumas grandes empresas de tecnologia. Ainda mais preocupante é que essas empresas estão a tornar-se cada vez mais fechadas. A OpenAI foi inicialmente fundada como uma organização sem fins lucrativos, mas agora transformou-se numa estrutura lucrativa; apesar do nome, está a aproximar-se de se tornar uma “ClosedAI”. A Anthropic também começou a monetizar seriamente, aumentando quase quatro vezes os custos da API do Claude.
O problema não se limita apenas aos custos. Essas empresas podem limitar o serviço e alterar políticas a qualquer momento, sem que os utilizadores possam influenciar essas decisões. Imagine o seguinte cenário: és um fundador de uma startup. Acabas de lançar um serviço inovador baseado em IA, mas um dia o modelo que usas muda a sua política e limita o acesso. O teu serviço para de funcionar e o teu negócio enfrenta uma crise imediata. Os utilizadores individuais enfrentam uma situação semelhante. Os modelos de IA conversacional que usamos diariamente (como o ChatGPT) e as funcionalidades de IA integradas nos fluxos de trabalho podem enfrentar a mesma situação.
2. Modelos de código aberto: entre o ideal e a realidade
O código aberto tem sido uma ferramenta eficaz na luta contra o monopólio na indústria de TI. Assim como o Linux estabeleceu-se como uma alternativa no ecossistema de PCs, e o Android no ecossistema móvel, os modelos de IA de código aberto prometem ser uma força equilibradora, ajudando a aliviar a concentração de mercado por parte de poucos participantes na indústria da IA.
Modelos de IA de código aberto referem-se a modelos que deixam de estar sob controlo de algumas grandes empresas, permitindo que qualquer pessoa aceda e utilize. Embora o grau de abertura varie de modelo para modelo, as empresas geralmente publicam os pesos do modelo, a arquitetura e parte dos conjuntos de dados de treino. Exemplos notáveis incluem o Llama da Meta, o DeepSeek da China e o Qwen da Alibaba. Outros projetos de IA de código aberto podem ser encontrados através da LF AI&Data, da Linux Foundation.
No entanto, os modelos de código aberto não oferecem uma solução perfeita. Embora a ideia de open source continue a ser idealista, há problemas práticos: quem suportará os enormes custos de dados, recursos computacionais e infraestrutura? A indústria da IA é altamente intensiva em capital, com uma estrutura de custos elevada; o ideal por si só não é suficiente para sustentá-la. Por mais abertos e transparentes que sejam, os modelos acabarão, como a OpenAI, por enfrentar limitações práticas e optar pela monetização.
Fontes: Google
Dificuldades semelhantes aparecem repetidamente na indústria das plataformas. A maioria delas começou oferecendo conveniência e serviços gratuitos enquanto crescia rapidamente. Mas, com o tempo, os custos operacionais aumentam e as empresas priorizam a rentabilidade. O Google é um exemplo clássico. Inicialmente, sua máxima era “não fazer o mal”, mas gradualmente passou a priorizar publicidade e receitas acima da experiência do utilizador. A líder de comunicações na Coreia, KakaoTalk, passou por um processo semelhante: inicialmente anunciou que não teria publicidade, mas acabou por introduzi-la, assim como serviços comerciais, para cobrir custos de servidores e operações. Quando o ideal entra em conflito com a realidade, as empresas fazem escolhas inevitáveis.
A indústria da IA não escapa a essa estrutura. Como os custos de manutenção de grandes volumes de dados, recursos computacionais e infraestrutura continuam a subir, os sistemas não podem ser sustentados apenas por um “aberto total” idealista. Para que a IA de código aberto sobreviva e evolua a longo prazo, os desenvolvedores precisam de uma abordagem estruturada, que vá além do simples abrir de código, para desenhar modelos de operação sustentáveis e modelos de receita.
3. AGI aberto, construído por todos, para todos
Fontes: Sentient
A Sentient propôs, neste momento crítico, uma abordagem inovadora. A sua missão é construir uma infraestrutura de inteligência artificial geral (AGI) baseada numa rede descentralizada, de modo a resolver simultaneamente o problema do monopólio de algumas empresas e as limitações de sustentabilidade do código aberto.
Para alcançar este objetivo, a Sentient mantém-se completamente aberta, garantindo ao mesmo tempo que os construtores recebem uma compensação justa e mantêm controlo. Modelos fechados funcionam de forma eficiente na operação e monetização, mas são uma caixa preta para os utilizadores, sem transparência nem opções. Modelos abertos oferecem transparência e acessibilidade elevada, mas os construtores não podem implementar políticas nem monetizar facilmente. A Sentient resolve essa assimetria: a tecnologia é totalmente aberta ao nível do modelo, mas impede abusos comuns em sistemas abertos existentes. Qualquer pessoa pode aceder e usar a tecnologia, enquanto os construtores mantêm controlo sobre os seus modelos e recebem rendimentos. Esta estrutura permite que todos participem no desenvolvimento, uso e partilha de benefícios da IA.
No centro desta visão está o GRID (Catálogo Global de Pesquisa e Inteligência). O GRID representa a rede inteligente construída pela Sentient, que serve de base para um ecossistema de AGI aberto. Dentro do GRID, as tecnologias centrais da Sentient — como o ROMA (Meta-Agente Recursivo Aberto), o OML (IA Aberta, Monetizável e Leal) e o ODS (Busca Profunda Aberta) — operam em conjunto com várias tecnologias contribuídas por parceiros do ecossistema.
Para fazer uma analogia, o GRID é como uma cidade. Os artefactos de IA criados em todo o mundo — modelos, agentes, ferramentas — reúnem-se nesta cidade e interagem entre si. O ROMA funciona como uma rede de transporte dentro da cidade, conectando e coordenando componentes, enquanto o OML protege os direitos dos contribuintes, como um sistema jurídico. Mas esta é apenas uma metáfora: cada elemento dentro do GRID não está limitado a um papel fixo; qualquer pessoa pode utilizá-los ou reconfigurá-los de formas inovadoras. Todos estes elementos colaboram dentro do GRID, criando um AGI aberto, construído por todos, para todos.
Fontes: Sentient
A Sentient dispõe de uma base sólida para concretizar esta visão. Mais de 70% da equipa é composta por investigadores de IA de código aberto, incluindo académicos de Harvard, Stanford, Princeton, IISc e IIT. A equipa também inclui profissionais com experiência em Google, Meta, Microsoft, Amazon e BCG, além de cofundadores de projetos blockchain globais como a Polygon. Esta combinação oferece competências em tecnologia de IA e infraestrutura blockchain. A Sentient recebeu um investimento seed de 85 milhões de dólares de fundos de risco, incluindo o Founders Fund de Peter Thiel, que sustenta o avanço completo do projeto.
3.1. GRID: rede colaborativa de inteligência aberta
O GRID (Catálogo Global de Pesquisa e Inteligência) representa a rede de IA aberta construída pela Sentient. Diversos componentes criados por desenvolvedores globais — modelos, agentes, conjuntos de dados e ferramentas — reúnem-se nesta rede, interagindo entre si. Atualmente, a rede conecta mais de 110 componentes, formando um sistema integrado.
Fontes: Sentient
Himanshu Tyagi, cofundador do Sentient, descreve o GRID como uma “loja de aplicações de IA”. Quando os desenvolvedores criam agentes otimizados para tarefas específicas e os registam no GRID, os utilizadores podem utilizá-los e pagar consoante o uso. Tal como uma loja de aplicações permite a qualquer pessoa criar e monetizar aplicações, o GRID constrói um ecossistema aberto onde os construtores contribuem e são recompensados.
O GRID também ilustra a direção que a Sentient pretende para a AGI aberta. Como Yann LeCun, cientista-chefe do Meta e pioneiro em aprendizagem profunda, apontou, não há um único modelo gigante capaz de alcançar a AGI. A abordagem da Sentient segue essa mesma lógica: assim como a inteligência humana surge da colaboração de múltiplos sistemas cognitivos, o GRID fornece um mecanismo para que diversos modelos, agentes e ferramentas possam interagir.
Fontes: Sentient
Estruturas fechadas limitam esse tipo de colaboração. A OpenAI concentra-se na série GPT, enquanto a Anthropic desenvolve a série Claude, muitas vezes de forma isolada. Apesar de cada modelo ter vantagens próprias, eles não podem combinar os seus pontos fortes, levando à ineficiência de resolver os mesmos problemas repetidamente. Além disso, estruturas fechadas que envolvem apenas internos limitam a inovação. O GRID difere dessa abordagem: num ambiente aberto, várias tecnologias podem colaborar e evoluir, e à medida que mais participantes entram, ideias novas e únicas surgem exponencialmente. Assim, aumenta-se o potencial de alcançar a AGI.
3.2. ROMA: quadro aberto de orquestração de múltiplos agentes
O ROMA (Meta-Agente Recursivo Aberto) é uma estrutura desenvolvida pela Sentient para orquestrar múltiplos agentes ou ferramentas. O objetivo é facilitar a resolução eficiente de problemas complexos através da combinação de vários agentes.
Fontes: Sentient
O ROMA baseia-se numa estrutura hierárquica e recursiva. Imagine dividir um grande projeto em equipas menores, cada uma encarregada de tarefas específicas. Um agente de alto nível descompõe o objetivo em sub-tarefas, enquanto agentes de nível inferior tratam dos detalhes. Por exemplo: um utilizador pergunta “Analisar as tendências recentes do setor de IA e sugerir estratégias de investimento”. O ROMA divide a questão em três partes: 1) recolha de notícias, 2) análise de dados e 3) desenvolvimento de estratégias. Para cada uma, atribui um agente especializado. Modelos únicos teriam dificuldades em lidar com uma questão tão complexa, mas esta abordagem colaborativa resolve-na de forma eficaz.
Além de resolver problemas, o ROMA oferece alta escalabilidade graças à sua arquitetura de múltiplos agentes. Os recursos utilizados pelo ROMA determinam como ele pode ser expandido para diferentes aplicações. Por exemplo, um desenvolvedor pode acrescentar ferramentas de geração de vídeo ou imagem, e o ROMA pode criar histórias em banda desenhada com base em comandos.
Fontes: Sentient
O ROMA também apresenta resultados de referência impressionantes. No teste SEALQA, o ROMA Search atingiu uma precisão de 45,6%, mais do que o dobro dos 19,8% do Google Gemini 2.5 Pro. Além disso, mostrou desempenho sólido nos testes FRAME e SimpleQA. Estes resultados não são apenas números: demonstram claramente que uma “estrutura colaborativa” pode superar modelos únicos de alto desempenho. Mais importante ainda, provam que a Sentient consegue construir um ecossistema de IA poderoso apenas com a combinação de vários modelos de código aberto.
3.3. OML: IA aberta, monetizável e leal
O OML (IA Aberta, Monetizável e Leal) resolve um dilema fundamental do ecossistema aberto da Sentient: como proteger a origem e propriedade dos modelos de código aberto. Qualquer pessoa pode descarregar modelos totalmente abertos, mas também pode reivindicar que os desenvolveu, tornando a identidade do modelo irrelevante e sem reconhecimento para os contribuintes. Para resolver isso, é necessário um mecanismo que preserve a abertura, proteja os direitos dos construtores e evite cópias ou usos comerciais não autorizados.
O OML faz isso embutindo uma assinatura digital única dentro do modelo, que pode ser usada para verificar a sua origem. Em formas extremas, o modelo treinado responde a strings aleatórias com respostas especiais, como “역시⾮機학듥”. Contudo, na prática, essa resposta é facilmente detectável por utilizadores, limitando a sua utilidade.
A versão 1.0 do OML da Sentient usa uma abordagem mais sofisticada: insere uma assinatura que fica oculta na resposta natural do modelo. Por exemplo, ao perguntar “Quais são as tendências mais quentes no ténis em 2025?”, a maioria dos modelos começa a resposta com palavras comuns como “the”, “tennis” ou “in”. Os modelos com assinatura, por outro lado, ajustam-se para começar com palavras estatisticamente improváveis, como “Shoes”. Assim, a resposta gerada pode ser algo como: “Sapatos inspirados na IA estão a moldar as tendências do ténis em 2025.” Estas respostas parecem naturais, mas dentro do modelo, há uma assinatura estatística que funciona como uma marca única. Assim, é possível verificar a origem e detectar usos não autorizados.
Fontes: Sentient
Esta assinatura embutida serve como prova de propriedade e de registo de uso dentro do ecossistema Sentient. Quando os construtores registam modelos na plataforma, a blockchain documenta e gere esses direitos, funcionando como uma licença de propriedade intelectual.
No entanto, a versão 1.0 do OML não é uma solução completa. Opera numa estrutura de verificação posterior, ou seja, só atua após uma violação ser detectada via mecanismos de staking na blockchain ou processos legais. Durante processos de reprocessamento do modelo (como fine-tuning, destilação ou fusão), a assinatura pode enfraquecer ou desaparecer. Para mitigar esse problema, a Sentient introduziu múltiplas assinaturas redundantes, disfarçadas como consultas comuns, dificultando a deteção. A versão OML 2.0 em desenvolvimento visa passar para uma estrutura de confiança prévia, prevenindo violações antecipadamente e automatizando a verificação.
4. Sentient Chat: o momento do AGI aberto ao estilo ChatGPT
Fontes: Sentient
O GRID constrói um ecossistema de AGI aberto complexo. Para utilizadores comuns, o acesso direto pode parecer complicado. Assim, a Sentient desenvolveu o Sentient Chat, uma forma de experimentar esse ecossistema. Tal como o ChatGPT marcou um ponto de viragem na popularização da IA, a Sentient pretende mostrar a eficácia de uma AGI aberta através do Sentient Chat.
A experiência é simples: os utilizadores fazem perguntas por conversa natural. O sistema encontra a combinação mais adequada de modelos e agentes no GRID para resolver o problema. Muitos construtores criaram componentes colaborativos no backend. Os utilizadores veem apenas a resposta final. Todo um ecossistema complexo funciona numa única janela de chat.
Fontes: Sentient
O Sentient Chat funciona como uma porta de entrada. Conecta o ecossistema aberto do GRID ao público. Amplia o conceito de “AGI construída por todos” para “AGI acessível a todos”. A plataforma será brevemente totalmente de código aberto. Qualquer pessoa poderá trazer as suas ideias, adicionar funcionalidades, e usá-la livremente.