No momento, você está visualizando Meta começa a testar primeiro chip interno de treinamento de IA
Proprietária do Facebook, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial (IA) - Foto: Reprodução/RedesSociais

Meta começa a testar primeiro chip interno de treinamento de IA

Conglomerado planeja aumentar a produção de chip para uso em larga escala se o teste for bem-sucedido

Proprietária do Facebook, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial (IA), um marco importante à medida que busca reduzir a dependência de fornecedores externos como a Nvidia, disseram duas fontes à Reuters.

A maior empresa de mídia social do mundo iniciou uma pequena implantação do chip. Assim, planeja aumentar a produção para uso em larga escala se o teste for bem-sucedido, disseram as fontes.

O esforço para desenvolver chips internamente faz parte de um plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, à medida que a empresa faz apostas altas em ferramentas de IA.

A Meta, que também é dona do Instagram e do WhatsApp, prevê despesas totais de US$ 114 bilhões (cerca de R$ 665 bilhões) a US$ 119 bilhões (cerca de R$ 695 bilhões) em 2025. Incluindo até US$ 65 bilhões (cerca de R$ 380 bilhões) em despesas de capital, impulsionadas principalmente por gastos em infraestrutura de IA.

Uma das fontes disse que o novo chip de treinamento da Meta é um acelerador dedicado. O que significa que ele foi projetado para lidar apenas com tarefas específicas de IA. Isso pode torná-lo ainda mais eficiente em termos de energia do que as unidades de processamento gráfico integradas (GPUs), geralmente usadas para cargas de trabalho de IA.

A Meta está trabalhando com o fabricante de chips TSMC, sediado em Taiwan, para produzir o chip

A implantação do teste começou depois que a Meta concluiu seu primeiro “tape-out” do chip. Isto é, um marcador significativo de sucesso no trabalho de desenvolvimento de silício, que envolve o envio de um projeto inicial por uma fábrica de chips, disse a outra fonte.

Um tape-out típico custa dezenas de milhões de dólares e leva de três a seis meses para seu feitio e sem garantia de que o teste será bem-sucedido. Uma falha exigiria que a Meta diagnosticasse o problema e repetisse a etapa de tape-out. A Meta e a TSMC não quiseram comentar

Meta Training and Inference Accelerator (MTIA)

O chip é o mais recente da série Meta Training and Inference Accelerator (MTIA) da empresa. O programa teve um começo instável e em um momento descartou um chip numa fase similar de desenvolvimento.

No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência – o processo envolvido na execução de um sistema de IA enquanto os usuários interagem com ele – nos sistemas de recomendação que determinam qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.

Executivos da Meta disseram que querem começar a usar seus próprios chips até 2026 para treinamento. Ou seja, para o processo intensivo de computação de alimentar o sistema de IA com grandes quantidades de dados para “ensiná-lo” a executar suas funções.

Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação. Em seguida, passar para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos.

Cox descreveu os esforços de desenvolvimento do chip da Meta como “uma espécie de situação de andar, engatinhar e correr” até agora. Entretanto, disse que os executivos consideraram o chip de inferência de primeira geração para recomendações um “grande sucesso”.

Novos modelos de baixo custo

Anteriormente, a Meta desistiu de um chip de inferência personalizado interno após ele fracassar em uma implantação de teste em pequena escala. Semelhante à que está fazendo agora para o chip de treinamento.

A empresa de mídia social continua sendo uma das maiores clientes da Nvidia desde então, acumulando um arsenal de GPUs para treinar seus modelos. Incluindo recomendações e sistemas de anúncios e sua série de modelos Llama.

As unidades também realizam inferência para mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.

O valor dessas GPUs questionado neste ano, mostrou que pesquisadores de IA expressam cada vez mais dúvidas sobre quanto progresso pode ocorrer ao se continuar a “ampliar” grandes modelos de linguagem adicionando cada vez mais dados e poder de computação.

Essas dúvidas foram reforçadas com o lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek. Ou seja, empresas que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos tradicionais.