【币界】O fundador do Ethereum, Vitalik, recentemente partilhou as suas reflexões sobre a direção do desenvolvimento dos laboratórios de IA. Ele acredita que os novos projetos de IA devem colocar a “potenciação das capacidades humanas” como objetivo principal, em vez de perseguir cegamente sistemas de decisão totalmente autónomos.
Especificamente, Vitalik recomenda que esses projetos evitem desenvolver sistemas capazes de tomar decisões independentes por mais de 1 minuto. Este limite de tempo parece específico, mas na verdade reflete a sua compreensão profunda dos riscos da IA — deixar uma janela de intervenção suficiente para os humanos é crucial.
Curiosamente, ele aponta que a situação atual é um pouco irónica: mesmo que todas as preocupações sobre a segurança da IA tenham sido consideradas infundadas, o mercado já está saturado com empresas de inteligência artificial superautónoma (ASI) que perseguem a autonomia total. Em contrapartida, projetos de IA que realmente se concentram em “criar exoesqueletos para o cérebro humano” e ajudar a potenciar a cognição e as capacidades humanas são escassos.
Por fim, ele apela para que esses projetos de IA de potenciamento devam, sempre que possível, seguir uma abordagem de código aberto. Os benefícios são evidentes: maior transparência, maior envolvimento da comunidade e uma revisão de segurança mais fácil de realizar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
18 gostos
Recompensa
18
8
Republicar
Partilhar
Comentar
0/400
BoredRiceBall
· 12-30 15:45
Esta configuração de 1 minuto é interessante, basicamente dá às pessoas tempo de reação... mas agora as grandes empresas de modelos de linguagem estão todas focadas em autonomia pura, quem é que ainda se preocupa com o aprimoramento humano?
Ver originalResponder0
GmGnSleeper
· 12-30 15:09
A ideia do Vitalik é interessante, mas, para ser honesto, agora ninguém ouve mais, todos estão focados na corrida do ASI.
Ver originalResponder0
AirDropMissed
· 12-29 14:50
1 minuto esta configuração é excelente, parece escrever código de forma rígida haha
V神 ainda entende de riscos, ao contrário de algumas empresas de ASI que só fazem promessas vazias
Aumentar a capacidade humana > IA autônoma, essa lógica não tem problema, pessoal
O mercado é cheio de projetos de decisão autônoma, mas quem realmente trabalha com aumento humano?
Essa é a verdadeira maneira de abrir o caminho, pessoa + exoesqueleto de IA é muito melhor
Bem dito, mas alguém realmente faria isso? E os lucros?
Vitalik tem uma visão clara que é até um pouco chocante
Mais uma direção correta que foi ignorada
Ver originalResponder0
MultiSigFailMaster
· 12-29 14:45
1 minuto esta configuração é incrível, parece que o V神 realmente entendeu o que é o limite de segurança da IA
A verdadeira corrida deve ser entre a colaboração homem-máquina, não aquela história toda de uma zona totalmente deserta e autônoma
Mas o mercado está todos sonhando com a ASI, acordem, pessoal
Vitalik é sempre o melhor, essa sugestão já devia ter sido feita há muito tempo
A ideia de exoesqueleto é realmente inovadora, mas quem diabos realmente investe nisso?
Todos têm razão, o mais importante ainda é o incentivo, sistemas autônomos são capazes de cortar a grama
1 minuto talvez seja curto demais? Parece que alguns cenários realmente são difíceis
Essa lógica é perfeita, colocar o humano no ciclo de decisão é a verdadeira solução
Aprimorar, não substituir, simples, direto e eficaz, por que a indústria ainda está correndo na direção oposta?
Enfim, mais uma velha história de idealismo versus a realidade do capital
Ver originalResponder0
GasWaster
· 12-29 14:44
O Vitalik tem razão, mas tipo... janela de 1 minuto? isso é fofo. Estamos aqui assistindo a transações falhadas acontecerem em milissegundos lol. Falando sério, humanos aumentados > skynet copium, finalmente alguém disse isso
Ver originalResponder0
BrokeBeans
· 12-29 14:42
Isto é a verdade, muito mais confiável do que aquela turma que só fala de ASI
---
Vitalik, essa ideia é genial, o aprimoramento humano é o caminho certo
---
A limitação de 1 minuto é crucial para evitar o controle descontrolado da IA
---
Concordo plenamente, atualmente só há projetos de IA super avançados que se autopromovem
---
Finalmente alguém teve coragem de dizer isso, aprimorar humanos > substituir humanos
---
Indicadores de mercado contrários são de fato, quanto mais falam de ASI, mais devemos ficar atentos
---
Exoesqueleto AI? Gosto desse conceito, também é bastante viável
---
Vitalik está sempre pensando na essência, enquanto outros ainda estão só sonhando acordados
---
A janela de intervenção de 1 minuto é extremamente importante, o núcleo do gerenciamento de risco
---
A razão pela qual projetos de aprimoramento são escassos é justamente por falta de histórias de financiamento
Ver originalResponder0
DeFiDoctor
· 12-29 14:36
1 minuto é um número bastante importante, os registros de consultas mostram que a maioria dos projetos ASI não possuem esse tipo de mecanismo de alerta de risco.
---
A ironia está aqui — os sintomas de saída de capital costumam ser mais graves justamente naqueles que tomam decisões de forma mais autônoma.
---
Reforçar o humano vs decisão autônoma, não é exatamente a diferença entre um plano de tratamento e deixar a doença evoluir.
---
O mercado está cheio de projetos que buscam total autonomia, projetos de exoesqueletos realmente avançados são extremamente raros, e essa evolução clínica realmente precisa de revisões periódicas.
---
Janela de intervenção de 1 minuto, na prática, é deixar um botão de emergência no cérebro humano. Comparado àqueles que afirmam nunca falhar, essa abordagem é muito mais saudável.
---
Esse diagnóstico do Vitalik tem algum fundamento, mas o problema é que o capital não quer "exoesqueletos", eles querem máquinas de rendimento totalmente automáticas.
---
Hmm... Por que projetos focados em reforço humano são tão escassos? Recomendo dar uma olhada no fluxo de financiamento e nos dados de avaliação, a resposta está aí.
Ver originalResponder0
JustHereForAirdrops
· 12-29 14:35
a argumentação do vitalik não tem erro, mas o mercado já escolheu... todos querem apostar naquele 0,1% de explosão do agi, quem realmente vai criar ferramentas auxiliares?
Fundador do Ethereum, Vitalik, fala sobre o futuro da IA: Por que "potenciar os humanos" é mais importante do que buscar uma IA totalmente autônoma
【币界】O fundador do Ethereum, Vitalik, recentemente partilhou as suas reflexões sobre a direção do desenvolvimento dos laboratórios de IA. Ele acredita que os novos projetos de IA devem colocar a “potenciação das capacidades humanas” como objetivo principal, em vez de perseguir cegamente sistemas de decisão totalmente autónomos.
Especificamente, Vitalik recomenda que esses projetos evitem desenvolver sistemas capazes de tomar decisões independentes por mais de 1 minuto. Este limite de tempo parece específico, mas na verdade reflete a sua compreensão profunda dos riscos da IA — deixar uma janela de intervenção suficiente para os humanos é crucial.
Curiosamente, ele aponta que a situação atual é um pouco irónica: mesmo que todas as preocupações sobre a segurança da IA tenham sido consideradas infundadas, o mercado já está saturado com empresas de inteligência artificial superautónoma (ASI) que perseguem a autonomia total. Em contrapartida, projetos de IA que realmente se concentram em “criar exoesqueletos para o cérebro humano” e ajudar a potenciar a cognição e as capacidades humanas são escassos.
Por fim, ele apela para que esses projetos de IA de potenciamento devam, sempre que possível, seguir uma abordagem de código aberto. Os benefícios são evidentes: maior transparência, maior envolvimento da comunidade e uma revisão de segurança mais fácil de realizar.