【半導体】Até onde a Micron Technology dos EUA pode penetrar no setor sul-coreano? HBM (Memória de Alta Largura de Banda) que impulsiona o crescimento da indústria | 5 ações em tendência do mercado americano por Jun Ishihara | Manekuri, informações de investimento da Monex Securities e mídia útil para o dinheiro.

O desempenho do aprendizado e da inferência da IA é influenciado pela "memória".

DRAM é a memória de "armazenamento temporário", enquanto NAND é a memória de "armazenamento a longo prazo".

A DRAM e a NAND de semicondutores são ambas dispositivos de armazenamento (memória) usados para guardar dados, mas cada uma tem usos e características diferentes. A DRAM é a memória usada para "armazenamento temporário" em computadores e smartphones. É uma "memória volátil" que mantém os dados apenas enquanto a fonte de energia está ligada, e os dados desaparecem quando a fonte de energia é desligada. Possui uma velocidade de leitura e gravação rápida, sendo um componente importante para aumentar a capacidade de processamento.

Por outro lado, o NAND é uma memória utilizada em dispositivos como pen drives, smartphones e SSDs (unidades de estado sólido) que serve para "armazenamento a longo prazo". É uma "memória não volátil" que mantém os dados mesmo quando a energia é desligada, sendo utilizada para armazenar fotos, vídeos, aplicativos e outros dados. Embora a gravação demore um pouco, a sua principal característica é a capacidade de armazenar grandes quantidades de dados.

De acordo com suas características, diz-se que a DRAM tem o papel de "mesa de trabalho", enfatizando a velocidade, enquanto a NAND atua como "gaveta", priorizando o armazenamento. As três principais fabricantes de memória são a Samsung Electronics, SK Hynix da Coreia do Sul e a Micron Technology dos EUA[MU], e a empresa japonesa com a maior participação de mercado é a Kioxia Holdings (285A), anteriormente Toshiba Memory.

A demanda por memória, como DRAM e NAND, está aumentando novamente devido à popularização da IA gerada por inteligência artificial e da nuvem. Em particular, a demanda por HBM (High Bandwidth Memory: Memória de Alta Largura de Banda) entre os DRAMs está se expandindo rapidamente. No desenvolvimento de servidores de IA, aumentar a capacidade de armazenamento e a velocidade de leitura e escrita da memória melhora o desempenho geral, mais do que os semicondutores de processamento de imagem de ponta (GPU), que são caros. Em outras palavras, o desempenho do aprendizado e inferência de IA depende da memória.

A HBM, amplamente utilizada nas GPUs de última geração da NVIDIA [NVDA]

HBM é uma tecnologia de memória de próxima geração que empilha chips de memória verticalmente, alcançando uma largura de banda alta (um caminho de dados largo), resultando em velocidades de transferência de dados mais rápidas em comparação com a DRAM convencional, além de consumir menos energia. Originalmente desenvolvida para processar gráficos de alto desempenho, a demanda por ela como acelerador para IA e HPC (computação de alto desempenho) e centros de dados está em expansão.

As placas gráficas de ponta da NVIDIA [NVDA] são equipadas com uma grande quantidade de HBM (memória de alta largura de banda). De fato, em modelos de IA em grande escala, como o ChatGPT da OpenAI, placas gráficas com HBM tornaram-se indispensáveis.

De acordo com a taxa de crescimento por área de produto do "Relatório de Previsão do Mercado de Semicondutores na Primavera de 2025" divulgado pela WSTS (Estatísticas do Mercado Mundial de Semicondutores) em 3 de junho, foi confirmado novamente que a taxa de crescimento do mercado de memória em 2024 será de 79,3%, mostrando um aumento significativo em comparação com outros produtos. Embora a taxa de crescimento diminua de 2025 a 2026, espera-se que ela ainda seja superior à de analógicos e micro.

【図表1】Evolução da taxa de crescimento do mercado de semicondutores por tipo de produto Fonte: Elaborado pelo autor com dados da WSTS

【Tabela 2】Vendas de DRAM e a proporção de HBM em 2022, 2023 e 2024 (previsão) Fonte: elaborado pelo autor a partir dos dados da TrendForce O que está a impulsionar este crescimento é o HBM. De acordo com a empresa de pesquisa de mercado TrendForce, espera-se que a receita do mercado de memória, que caiu em 2023, recupere novamente para a faixa de 80 bilhões de dólares até 2024. A receita do HBM, que não representava nem 10% do total, expandiu-se mais do que o dobro e espera-se que, em 2024, a receita do HBM represente 20% do total. No futuro, acredita-se que o crescimento do HBM será o principal motor do crescimento de toda a indústria de semicondutores.

A demanda por HBM está a crescer rapidamente, a rentabilidade pode ser até 10 vezes a dos DRAM?

Uma das principais empresas de memória semicondutora, a Micron Technology, anunciou em 25 de junho que os resultados do terceiro trimestre do ano fiscal de 2025 (março a maio de 2025) mostraram uma receita de 9,31 bilhões de dólares, um aumento de 37% em relação ao ano anterior, e um lucro líquido de 1,885 bilhões de dólares, que se expandiu 5,7 vezes. A receita dos centros de dados superou o dobro em relação ao ano anterior, estabelecendo um novo recorde para o trimestre. Em particular, o HBM, utilizado em servidores de IA, atingiu vendas recordes. O HBM é de 5 a 10 vezes mais lucrativo do que outros DRAM.

【Figura 3】Vendas e Resultado Final da Micron Fonte: Elaborado pelo autor a partir dos documentos financeiros As vendas por unidade de negócios da Micron Technology, incluindo HBM e DRAM de alta capacidade para centros de dados, mostraram um aumento de 11% em relação ao trimestre anterior (um aumento de 97% em relação ao mesmo período do ano passado). Além disso, com o aumento dos SSDs (unidades de estado sólido: dispositivos de armazenamento auxiliar que utilizam circuitos integrados) para centros de dados, o armazenamento cresceu 45% em relação ao trimestre anterior (uma redução de 2% em relação ao mesmo período do ano passado).

【Tabela 4】Receitas por unidade de negócio da Micron Technology (Unidade: milhões de dólares) Fonte: elaborado pelo autor a partir de documentos financeiros

Micron Technology[MU]inicia o envio de amostras de produtos de próxima geração, a competição entre os fabricantes de memória semicondutora intensifica-se ainda mais.

A Micron Technology afirmou que a expansão da produção em massa de HBM e o roadmap de desenvolvimento de produtos estão indo bem, prevendo que, no final de 2025, a participação de mercado de HBM atinja um nível semelhante à participação atual do DRAM como um todo. Isso representa uma realização mais antecipada do que o planejado anteriormente. Atualmente, a Micron está enviando HBM em grandes quantidades para quatro clientes, visando tanto plataformas de GPU (circuitos integrados de processamento de imagem) quanto ASIC (circuitos integrados de aplicação específica), mas também há movimentos dos clientes para garantir produtos antes do cronograma normal.

O CEO da Micron Technology, Sanjay Mehrotra, afirmou que há uma demanda sem precedentes por memória e armazenamento de alto desempenho devido à IA, dizendo: "Estamos a caminho de alcançar vendas recordes, margens de lucro sólidas e fluxo de caixa livre no ano fiscal de 2025. Ao mesmo tempo, continuaremos a investir de forma disciplinada para fortalecer a liderança tecnológica e a excelência na fabricação, a fim de atender à crescente demanda por memória impulsionada por IA."

A demanda robusta por memória continuará no quarto trimestre, com uma previsão de receita de 10,7 bilhões de dólares (valor médio da orientação), um aumento de 15% em relação ao trimestre anterior, o que representa um recorde histórico. As condições favoráveis para o crescimento contínuo da IA em centros de dados estão presentes, e há confiança de que será alcançado um aumento significativo na receita no período de agosto de 2025.

A Micron Technology anunciou que começou a enviar amostras do seu produto de próxima geração HBM, o "HBM4", para alguns clientes no início de junho. A produção em massa está prevista para começar em 2026. Diz-se que isso acelera o desempenho de inferência em sistemas de LLM (Modelos de Linguagem de Grande Escala). Em comparação com o "HBM3E", o produto da Micron Technology para AI de geração atual, o desempenho melhorou mais de 60% e a eficiência energética foi aprimorada em 20%.

A Micron Technology iniciou a construção de uma fábrica avançada de embalagem HBM em Cingapura, visando o início das operações em 2026. O investimento total é de 7 bilhões de dólares. Atualmente, a Micron Technology está em uma posição de perseguir as empresas sul-coreanas como SK Hynix e Samsung Electronics, mas até onde conseguirá penetrar? A competição entre os fabricantes de memória semicondutora parece estar prestes a ficar ainda mais intensa, especialmente em relação à captura do crescente mercado voltado para IA.

As 5 Ações de Destaque de Jun Ishihara

Micron Technology [MU] Fonte: TradeStation

NVIDIA [NVDA] Fonte: TradeStation

Amazon.com[AMZN] Fonte: TradeStation

Alfabeto[GOOGL] Fonte: Trade Station

Microsoft [MSFT] Fonte: TradeStation

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)