Ler para transferir a aplicação Gate
qrCode
Mais opções de transferência
Não me lembre disso novamente hoje.

As diferenças tecnológicas entre a GPU da NVIDIA e os chips de IA desenvolvidos pela Google e Amazon AWS, e a direção futura do mercado.

Na era em que a IA gerativa está a varrer o mundo, o motor central desta onda de inovação é um conjunto de chipsets de inteligência artificial de alto desempenho. Nos últimos dez anos, a NVIDIA plantou as sementes da revolução industrial da IA com as suas GPUs, e agora a Blackwell GPU, projetada especificamente para o treinamento e raciocínio de IA mais avançados, tornou-se o equipamento padrão dos centros de dados globais, com um volume de 6 milhões de unidades enviadas no ano passado. Em grandes racks de servidores, 72 GPUs podem ser agregadas através da tecnologia NVLink para funcionar como uma única unidade de computação gigante. Atualmente, o mercado de chips de IA já não é mais um palco exclusivo das GPUs da NVIDIA; ASICs personalizados e FPGAs estão a ser adotados por grandes empresas de tecnologia. Quais são as diferenças entre esses chips de IA? Como isso afetará o desenvolvimento da IA no futuro, e poderá até abalar a posição dominante da NVIDIA? Este artigo é uma compilação e tradução dos pontos-chave do vídeo da CNBC.

GPU: O início da era dourada da IA

A GPU passou de placa de jogo a núcleo de IA, remontando a AlexNet de 2012. A equipe de pesquisa foi a primeira a utilizar a capacidade de computação paralela da GPU da NVIDIA para treinar redes neurais, conseguindo uma grande vantagem sobre outros concorrentes em competições de reconhecimento de imagem, além de inaugurar a era do aprendizado profundo.

A principal vantagem das GPUs vem de seus milhares de núcleos de processamento paralelo, capazes de executar eficientemente operações tensorais como multiplicação de matrizes, sendo ideal para treinamento e inferência de IA. Hoje em dia, a Nvidia não apenas fornece GPUs para a OpenAI, governos e empresas de vários países, mas também constrói diretamente todo o sistema de servidores. Um único servidor Blackwell em um rack custa até 3 milhões de dólares, e a Nvidia até revelou que está fazendo um dump de 1000 unidades por semana, evidenciando a demanda fervorosa por poder computacional de IA. A concorrente da Nvidia, AMD, está acelerando seu progresso com as GPUs Instinct e um ecossistema de software de código aberto, tendo recentemente recebido apoio da OpenAI e da Oracle, tornando-se um impulsionador importante no mercado de infraestrutura de IA. A diferença das GPUs da AMD está no uso principal de software de código aberto, enquanto as GPUs da Nvidia são otimizadas em torno do CUDA, que é a plataforma de software proprietária da Nvidia.

Os ASIC projetados para um único propósito tornaram-se uma nova tendência.

Desde o Google, Amazon, Meta, Microsoft, até o OpenAI e Broadcom, os grandes gigantes da nuvem estão investindo no desenvolvimento de ASICs personalizados (circuitos integrados de aplicação específica). Esses chips projetados para um único propósito devem se tornar a categoria de chips de IA de crescimento mais rápido nos próximos anos.

À medida que os grandes modelos de linguagem entram em uma fase madura, a demanda por inferência está rapidamente superando o treinamento. O custo, o consumo de energia e a estabilidade da inferência tornaram-se pontos críticos para as plataformas de nuvem, e este é precisamente o campo de batalha dos ASICs. Diferente das GPUs versáteis, os ASICs funcionam como uma “ferramenta de precisão dedicada”, otimizando de forma codificada para um único tipo de carga de trabalho de IA, resultando em maior velocidade e menor consumo de energia. A desvantagem é a menor flexibilidade e o alto custo de desenvolvimento; o custo de design de um chip personalizado pode facilmente ultrapassar bilhões de dólares, tornando-o acessível apenas para gigantes da nuvem.

O custo de ASIC personalizados para IA é mais alto. Extremamente caro, requer pelo menos milhares ou até bilhões de dólares. Mas para aqueles grandes fornecedores de serviços em nuvem que não podem arcar com ASIC personalizados, o AS6 personalizado pode trazer retorno, pois tem maior eficiência energética e reduz a dependência da NVIDIA.

A ASIC da Broadcom desafia fortemente a quota de mercado da IA

A Broadcom e empresas de design de chips como a Marvell são parceiros estratégicos essenciais para grandes empresas de nuvem. O TPU do Google, o acelerador desenvolvido pela Meta, e o ASIC que a OpenAI está prestes a lançar, todos têm a Broadcom envolvida de forma profunda. A Broadcom ajuda a construir o TPU do Google e o treinamento de raciocínio da IA da Meta, e os analistas estimam que a Broadcom pode alcançar uma participação de mercado de 70% a 80% no mercado de ASIC personalizados.

FPGA: uma opção flexível entre ASIC e GPU

FPGA é um chip utilizado para fornecer suporte a IA de borda no lado do dispositivo em vez de na nuvem. A maior vantagem do FPGA é a “reconfigurabilidade”. Quando as empresas precisam testar a arquitetura antes que o hardware esteja finalizado, o FPGA oferece uma opção entre a versatilidade do GPU e o alto desempenho do ASIC. Embora o desempenho não seja tão bom quanto o do ASIC, a flexibilidade ainda faz com que seja preferido por data centers e dispositivos embarcados. A AMD (que adquiriu a Xilinx) e a Intel (que adquiriu a Altera) são os dois principais players do mercado de FPGA.

Google TPU

O Google foi o primeiro grande jogador em ASIC, sendo pioneiro na criação de circuitos integrados de aplicação específica (ASIC) personalizados para aceleração de inteligência artificial, e ao lançar seu primeiro ASIC em 2015, criou o termo Tensor Processing Unit (unidade de processamento de tensor, TPU). A TPU também levou o Google a inventar a arquitetura Transformer em 2017, que se tornou a base comum para IA como ChatGPT e Claude. Hoje, o Google já desenvolveu a 7ª geração da TPU Ironwood e ajudou a Anthropologie a treinar modelos da série Claude com milhões de TPUs. Há rumores de que a TPU, em certas situações, supera até mesmo as GPUs da NVIDIA, mas o Google tradicionalmente a utiliza apenas internamente, portanto, o verdadeiro potencial da TPU ainda não foi totalmente liberado.

AWS Tranium: matriz de inferência na nuvem

A AWS, após adquirir a Annapurna Labs, está totalmente investida em seus próprios chips de IA. O Tranium e o Inferentia tornaram-se pilares importantes da plataforma de treinamento e inferência da AWS. O Tranium é composto por um grande número de pequenos motores de tensor, altamente flexíveis, e, segundo a AWS, oferece uma relação custo-benefício 30% a 40% superior à de outros hardwares na nuvem. Em 2024, a Anthropic treinou modelos com 500 mil Tranium 2 no data center da AWS em North Indiana, onde nem mesmo GPUs da NVIDIA foram utilizadas, mostrando que a posição dos ASICs está em ascensão.

NPU (Processador de Rede Neural): Chips de IA de borda para telemóveis, computadores e dispositivos automóveis

Além dos centros de dados, os chips de IA também se estendem aos dispositivos pessoais. O NPU (processador de rede neural) é um chip projetado especificamente para executar inteligência artificial na borda em dispositivos, em vez de operar na nuvem, garantindo a privacidade pessoal. Já está integrado nos SoCs Snapdragon da Qualcomm, AMD, Intel e na série M da Apple, usados em smartphones, laptops, casas inteligentes, automóveis e até robôs. A IA no dispositivo proporcionará maior proteção de privacidade, menor latência e maior controle, sendo um impulso importante para a próxima onda de popularização da IA.

A TSMC tornou-se o núcleo da luta por chips

Quer se trate da Blackwell da Nvidia, do Google TPU ou do AWS Tranium, a maioria dos chips de IA acaba sendo fabricada pela TSMC. Isso vincula estreitamente a oferta de capacidade de computação de IA à geopolítica global. Os EUA estão tentando trazer parte da capacidade de fabricação de chips de volta para casa através da fábrica da TSMC no Arizona e do processo 18A da Intel. No entanto, empresas chinesas como a Huawei e a Alibaba também estão ativamente desenvolvendo seus próprios ASICs, buscando soluções locais sob o controle de exportação.

A era dos chips de IA chegou.

Quer seja o forte domínio das GPUs da NVIDIA, ou o fato de empresas como Google, AWS, Meta e OpenAI estarem a impulsionar a IA de borda para cada telemóvel e carro com os seus ASICs e NPUs, a guerra dos chips continua a aquecer. Embora não seja fácil desafiar a posição da NVIDIA, o mercado de IA é enorme, novos jogadores estão constantemente a entrar, e o mapa dos chips na próxima década será certamente mais intenso.

Este artigo sobre as diferenças tecnológicas entre a GPU da Nvidia e os chips de IA desenvolvidos internamente pelo Google e Amazon AWS, bem como a direção futura do mercado, apareceu pela primeira vez na ABMedia.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)