banner

blog

Sep 28, 2023

Google diz que seu supercomputador AI é mais rápido e mais ecológico que o chip Nvidia A100

4 Abr (Reuters) - O Google, da Alphabet Inc (GOOGL.O), divulgou nesta terça-feira novos detalhes sobre os supercomputadores que usa para treinar seus modelos de inteligência artificial, dizendo que os sistemas são mais rápidos e mais eficientes em termos de energia do que os sistemas comparáveis ​​da Nvidia Corp (NVDA .O).

O Google projetou seu próprio chip personalizado chamado Tensor Processing Unit, ou TPU. Ele usa esses chips para mais de 90% do trabalho da empresa em treinamento de inteligência artificial, o processo de alimentação de dados por meio de modelos para torná-los úteis em tarefas como responder a consultas com texto semelhante ao humano ou gerar imagens.

O Google TPU está agora em sua quarta geração. O Google publicou na terça-feira um artigo científico detalhando como juntou mais de 4.000 chips em um supercomputador usando seus próprios interruptores ópticos personalizados para ajudar a conectar máquinas individuais.

Melhorar essas conexões tornou-se um ponto-chave da competição entre as empresas que constroem supercomputadores de IA porque os chamados modelos de linguagem grandes que alimentam tecnologias como o Bard do Google ou o ChatGPT da OpenAI explodiram em tamanho, o que significa que são grandes demais para serem armazenados em um único chip.

Em vez disso, os modelos devem ser divididos em milhares de chips, que devem trabalhar juntos por semanas ou mais para treinar o modelo. O modelo PaLM do Google - seu maior modelo de linguagem divulgado publicamente até o momento - foi treinado dividindo-o em dois dos supercomputadores de 4.000 chips durante 50 dias.

O Google disse que seus supercomputadores facilitam a reconfiguração instantânea de conexões entre chips, ajudando a evitar problemas e ajustar para ganhos de desempenho.

“A comutação de circuitos facilita o roteamento de componentes com falha”, escreveram o Google Fellow Norm Jouppi e o Google Distinguished Engineer David Patterson em um post de blog sobre o sistema. "Essa flexibilidade permite até mesmo alterar a topologia da interconexão do supercomputador para acelerar o desempenho de um modelo de ML (aprendizado de máquina)".

Embora o Google só agora esteja divulgando detalhes sobre seu supercomputador, ele está online dentro da empresa desde 2020 em um data center no condado de Mayes, Oklahoma. O Google disse que a startup Midjourney usou o sistema para treinar seu modelo, que gera novas imagens após receber algumas palavras de texto.

No jornal, o Google disse que, para sistemas de tamanho comparável, seus chips são até 1,7 vezes mais rápidos e 1,9 vezes mais eficientes em termos de energia do que um sistema baseado no chip A100 da Nvidia que estava no mercado ao mesmo tempo que o TPU de quarta geração. .

Um porta-voz da Nvidia se recusou a comentar.

O Google disse que não comparou sua quarta geração com o atual chip H100 da Nvidia porque o H100 chegou ao mercado depois do chip do Google e é feito com tecnologia mais recente.

O Google deu a entender que poderia estar trabalhando em um novo TPU que competiria com o Nvidia H100, mas não forneceu detalhes, com Jouppi dizendo à Reuters que o Google tem "um pipeline saudável de chips futuros".

Nossos padrões: Princípios de confiança da Thomson Reuters.

COMPARTILHAR