Depois de ouvir a entrevista de 1 hora com Ilya Sutskever, percebi pela primeira vez: #AI na segunda metade, as regras mudaram completamente
Para ser honesto, após ouvir, fiquei um pouco arrepiado. Como alguém que acompanha há muito tempo as tendências de IA e também acreditava na Lei de Escalabilidade, As palavras de Ilya quase derrubaram toda a minha intuição sobre o caminho de evolução da IA dos últimos anos. Quando o mundo ainda está loucamente acumulando poder de processamento, estoque de GPUs e competindo por escala de parâmetros, Este pai do ChatGPT, no entanto, deu uma avaliação extremamente calma: “A era do ‘grande esforço gera milagres’ está chegando ao fim.” A segunda metade da IA não é mais uma guerra de recursos, mas uma guerra de paradigmas. Organizei os 5 pontos mais importantes e também mais revolucionários da entrevista dele. 1️⃣ Era da Escalabilidade (Age of Scaling), realmente está chegando ao fim Nos últimos anos, a fórmula de progresso da IA foi extremamente simples e brutal: Mais dados + mais poder de processamento = modelos mais fortes Essa lógica funcionou por tanto tempo que toda a indústria a aceitou como constante. Mas #Ilya deixou claro: Os ganhos marginais da Lei de Escalabilidade estão diminuindo rapidamente. A razão não é mística— Dados de pré-treinamento de alta qualidade estão sendo “consumidos” até o limite. Todos ainda estão loucamente adicionando carvão na fornalha, Mas a chama já não cresce mais. O que isso significa? 👉 A “estética da violência” de simplesmente acumular recursos não funciona mais 👉 A indústria é forçada a voltar ao estágio mais difícil e fundamental: buscar novos paradigmas 2️⃣ “Baixa pontuação, baixa eficiência”: modelos atuais estão caindo numa armadilha perigosa Este é um problema ignorado por muitos, mas extremamente fatal. Modelos atuais podem: Ganhar medalhas de ouro em competições de programação Quebrar recordes de pontuação em benchmarks Mas no mundo real: Corrigir um bug, introduzir dois novos Mudar um cenário pouco visto, e começam a cometer erros Ilya apontou de forma precisa: Isso não é inteligência, é overfitting. Os modelos parecem mais um “faz-tudo” que decorou toda a banca de questões, Em vez de sistemas com verdadeira capacidade de generalização. Isso também significa que: 👉 Os caminhos atuais de aprendizagem por reforço podem estar apenas otimizando “habilidades de exame” 👉 E não levam à verdadeira inteligência 3️⃣ A maior revelação: emoções, na essência, são a função de valor mais eficiente Este foi o ponto mais esclarecedor de toda a entrevista. Sempre consideramos “emoções” como opostas à inteligência racional, E até achamos que são uma deficiência humana. Mas a visão de Ilya é completamente oposta: As emoções são o algoritmo mais eficiente evoluído pelos seres vivos. O que elas fazem? Não precisam de uma quantidade enorme de amostras Não precisam de uma retrospectiva completa da vida Dão feedback de decisão em milissegundos Medo, excitação, aversão, tédio— São sinais de julgamento de valor altamente comprimidos. Essa é a razão central pela qual os humanos conseguem aprender habilidades complexas com poucos dados. 👉 Se a IA quiser passar no teste de Turing de verdade 👉 Ela provavelmente precisa entender “a estrutura matemática por trás das emoções” 4️⃣ A escolha do SSI: uma rota “direta para a superinteligência” solitária Enquanto toda a Vale do Silício está focada em produtos, ARR e implementação, A nova empresa de Ilya, SSI (Safe Superintelligence), fez uma escolha contra a lógica comum: Não criar produto. Fazer apenas uma coisa: Segurança da superinteligência. É uma aposta extrema de longo prazo. Seu julgamento é frio: 👉 A atual loucura de comercialização provavelmente é apenas uma bolha 👉 Quem realmente dominar o futuro será quem resolver a “questão essencial da superinteligência” 5️⃣ Nossa verdadeira lição: a Era da Pesquisa voltou Se a Escalabilidade realmente atingiu um teto, Para os gigantes, é uma má notícia, Mas para os verdadeiramente criativos, é uma oportunidade. Porque: Não se trata mais apenas de gastar dinheiro ou poder de processamento Mas de reinventar algoritmos, arquiteturas e avanços cognitivos Como Ilya disse: “Research Age is back.” A era que pertence aos geeks, às ideias malucas, Às épocas em que o AlexNet surgiu do nada, Está retornando silenciosamente. Cada passo de Ilya— De ImageNet, à OpenAI, até a SSI— foi exatamente no ponto-chave da evolução da IA. Acredito que desta vez não será diferente. Se você também está pensando seriamente na segunda metade da IA, Esta entrevista vale a pena ser digerida várias vezes. As regras do tempo, já mudaram.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Depois de ouvir a entrevista de 1 hora com Ilya Sutskever, percebi pela primeira vez: #AI na segunda metade, as regras mudaram completamente
Para ser honesto, após ouvir, fiquei um pouco arrepiado.
Como alguém que acompanha há muito tempo as tendências de IA e também acreditava na Lei de Escalabilidade,
As palavras de Ilya quase derrubaram toda a minha intuição sobre o caminho de evolução da IA dos últimos anos.
Quando o mundo ainda está loucamente acumulando poder de processamento, estoque de GPUs e competindo por escala de parâmetros,
Este pai do ChatGPT, no entanto, deu uma avaliação extremamente calma:
“A era do ‘grande esforço gera milagres’ está chegando ao fim.”
A segunda metade da IA não é mais uma guerra de recursos, mas uma guerra de paradigmas.
Organizei os 5 pontos mais importantes e também mais revolucionários da entrevista dele.
1️⃣ Era da Escalabilidade (Age of Scaling), realmente está chegando ao fim
Nos últimos anos, a fórmula de progresso da IA foi extremamente simples e brutal:
Mais dados + mais poder de processamento = modelos mais fortes
Essa lógica funcionou por tanto tempo que toda a indústria a aceitou como constante.
Mas #Ilya deixou claro:
Os ganhos marginais da Lei de Escalabilidade estão diminuindo rapidamente.
A razão não é mística—
Dados de pré-treinamento de alta qualidade estão sendo “consumidos” até o limite.
Todos ainda estão loucamente adicionando carvão na fornalha,
Mas a chama já não cresce mais.
O que isso significa?
👉 A “estética da violência” de simplesmente acumular recursos não funciona mais
👉 A indústria é forçada a voltar ao estágio mais difícil e fundamental: buscar novos paradigmas
2️⃣ “Baixa pontuação, baixa eficiência”: modelos atuais estão caindo numa armadilha perigosa
Este é um problema ignorado por muitos, mas extremamente fatal.
Modelos atuais podem:
Ganhar medalhas de ouro em competições de programação
Quebrar recordes de pontuação em benchmarks
Mas no mundo real:
Corrigir um bug, introduzir dois novos
Mudar um cenário pouco visto, e começam a cometer erros
Ilya apontou de forma precisa:
Isso não é inteligência, é overfitting.
Os modelos parecem mais um “faz-tudo” que decorou toda a banca de questões,
Em vez de sistemas com verdadeira capacidade de generalização.
Isso também significa que:
👉 Os caminhos atuais de aprendizagem por reforço podem estar apenas otimizando “habilidades de exame”
👉 E não levam à verdadeira inteligência
3️⃣ A maior revelação: emoções, na essência, são a função de valor mais eficiente
Este foi o ponto mais esclarecedor de toda a entrevista.
Sempre consideramos “emoções” como opostas à inteligência racional,
E até achamos que são uma deficiência humana.
Mas a visão de Ilya é completamente oposta:
As emoções são o algoritmo mais eficiente evoluído pelos seres vivos.
O que elas fazem?
Não precisam de uma quantidade enorme de amostras
Não precisam de uma retrospectiva completa da vida
Dão feedback de decisão em milissegundos
Medo, excitação, aversão, tédio—
São sinais de julgamento de valor altamente comprimidos.
Essa é a razão central pela qual os humanos conseguem aprender habilidades complexas com poucos dados.
👉 Se a IA quiser passar no teste de Turing de verdade
👉 Ela provavelmente precisa entender “a estrutura matemática por trás das emoções”
4️⃣ A escolha do SSI: uma rota “direta para a superinteligência” solitária
Enquanto toda a Vale do Silício está focada em produtos, ARR e implementação,
A nova empresa de Ilya, SSI (Safe Superintelligence), fez uma escolha contra a lógica comum:
Não criar produto.
Fazer apenas uma coisa:
Segurança da superinteligência.
É uma aposta extrema de longo prazo.
Seu julgamento é frio:
👉 A atual loucura de comercialização provavelmente é apenas uma bolha
👉 Quem realmente dominar o futuro será quem resolver a “questão essencial da superinteligência”
5️⃣ Nossa verdadeira lição: a Era da Pesquisa voltou
Se a Escalabilidade realmente atingiu um teto,
Para os gigantes, é uma má notícia,
Mas para os verdadeiramente criativos, é uma oportunidade.
Porque:
Não se trata mais apenas de gastar dinheiro ou poder de processamento
Mas de reinventar algoritmos, arquiteturas e avanços cognitivos
Como Ilya disse:
“Research Age is back.”
A era que pertence aos geeks, às ideias malucas,
Às épocas em que o AlexNet surgiu do nada,
Está retornando silenciosamente.
Cada passo de Ilya—
De ImageNet, à OpenAI, até a SSI—
foi exatamente no ponto-chave da evolução da IA.
Acredito que desta vez não será diferente.
Se você também está pensando seriamente na segunda metade da IA,
Esta entrevista vale a pena ser digerida várias vezes.
As regras do tempo, já mudaram.