Portal Mie PORTAL MUNDO
Tech

Meta revela roadmap de chips próprios para IA e amplia aposta em infraestrutura própria

A Meta apresentou um plano com quatro gerações de chips da linha MTIA para treinamento e inferência de inteligência artificial até 2027. A estratégia busca ampliar eficiência, reduzir custos em tarefas internas e dar mais controle à empresa sobre sua infraestrutura de IA.

PM

Portal Mie Editorial

⏱ 4min de leitura
Novos chips da Meta com foco para Inteligência Artificial
Novos chips da Meta com foco para Inteligência Artificial (PM)

A Meta apresentou um novo passo em sua estratégia de infraestrutura para inteligência artificial ao divulgar um roadmap com quatro gerações de chips próprios da linha Meta Training and Inference Accelerator (MTIA). A empresa quer usar esse hardware para sustentar sistemas de recomendação, ranqueamento de conteúdo e, cada vez mais, aplicações de IA generativa em grande escala.

Segundo a companhia, o MTIA 300 já está em produção e será usado no treinamento de sistemas de ranking e recomendação. Já os modelos MTIA 400, 450 e 500 serão lançados de forma gradual entre 2026 e 2027. A Meta afirma que essas novas gerações serão capazes de lidar com diferentes cargas de trabalho, embora o foco mais próximo esteja na inferência de IA generativa, etapa em que os modelos respondem a comandos e solicitações dos usuários.

O que a Meta anunciou

No texto oficial, a empresa diz que acelerou o desenvolvimento do MTIA ao longo de quatro gerações sucessivas:

  • MTIA 300: já em produção, voltado a treinamento de ranking e recomendação
  • MTIA 400: nova geração com foco em ampliar o uso em data centers
  • MTIA 450 e MTIA 500: próximos passos do roadmap até 2027, com foco principal em inferência de IA generativa no curto prazo

Segundo informações divulgadas, Meta pretende lançar novos chips em intervalos de cerca de seis meses, acelerando a cadência de desenvolvimento para acompanhar a expansão de seus data centers e da demanda por IA.

Por que a empresa está investindo nisso

O objetivo central é aumentar a eficiência do uso de inteligência artificial dentro da própria companhia. Chips desenhados para tarefas específicas podem operar com menor consumo de energia e melhor relação de custo do que soluções mais genéricas. A Meta, por sua vez, afirma já usar centenas de milhares de chips MTIA em cargas de inferência ligadas a conteúdo orgânico e anúncios em seus aplicativos.

Na prática, isso significa tentar executar tarefas internas com hardware mais ajustado ao tipo de processamento exigido por seus serviços, especialmente em plataformas de escala massiva como Facebook, Instagram e WhatsApp. Essa leitura decorre do foco declarado da empresa em eficiência e inferência.

Chips próprios não substituem os fornecedores tradicionais

Apesar do avanço, a estratégia da Meta não representa abandono imediato de fornecedores externos. A empresa continua comprando chips da Nvidia e da AMD, além de manter parcerias com a Broadcom em partes do design e com a TSMC na fabricação.

Ou seja, o movimento aponta mais para uma diversificação da base de hardware do que para uma substituição completa dos fornecedores que hoje dominam o mercado de chips para IA. Essa é uma conclusão sustentada pelo fato de a Meta avançar com silício próprio enquanto segue recorrendo a parceiros externos.

O tamanho do investimento

O anúncio vem em meio à forte expansão dos gastos da Meta com infraestrutura. A empresa projetou investimentos de capital entre US$ 115 bilhões e US$ 135 bilhões em 2026, dentro de uma corrida mais ampla para ampliar capacidade computacional e sustentar seus projetos de IA.

Esse volume de investimento mostra que a disputa em inteligência artificial depende cada vez menos apenas de software e modelos, e cada vez mais da capacidade de construir e operar infraestrutura própria em larga escala. Essa é uma inferência baseada no aumento do capex da Meta e no foco explícito em chips e data centers.

O que isso muda fora do setor técnico

Para o público geral, o efeito mais direto é que a corrida por chips influencia o custo e a velocidade com que ferramentas de IA chegam aos aplicativos. Se uma big tech consegue operar inferência com mais eficiência, ela tende a ampliar recursos, atender mais usuários e reduzir parte da pressão de custo provocada por modelos generativos. Essa interpretação é coerente com o foco da Meta em eficiência operacional e expansão de capacidade.

O que o anúncio sinaliza

O roadmap divulgado pela Meta reforça uma tendência já visível entre grandes empresas de tecnologia: o avanço no desenvolvimento de chips próprios para IA, ao lado da manutenção de compras de hardware de fornecedores especializados. No caso da Meta, o movimento parece menos uma ruptura imediata com Nvidia e AMD e mais uma tentativa de ganhar eficiência, previsibilidade e controle sobre sua própria infraestrutura.

Fontes: Meta, Wired