Amazon afirma que os seus mais recentes chips são 4 vezes mais rápidos para o treino de IA

A Amazon Web Services (AWS) iniciou a sua conferência re:Invent, sediada em Las Vegas, com uma série de anúncios, a maioria dos quais envolvendo a tecnologia mais popular do ano, a IA. Estas notícias, consideradas no seu conjunto, dão-nos uma ideia dos objetivos a longo prazo da empresa para os chips de inteligência artificial.

O Trainium2 foi concebido para ter um desempenho 4 vezes melhor

A AWS revelou a sua última geração de chips de IA destinados à formação de modelos e à execução de modelos formados. O Trainium2, que se destina obviamente ao treino de modelos, foi concebido para proporcionar 💥️um desempenho até 4 vezes melhor e uma eficiência energética 2 vezes superior em comparação com o seu antecessor.

A Amazon promete que estes chips permitirão aos programadores treinar modelos rapidamente e a um custo inferior, devido à redução do consumo de energia. A Anthropic, uma concorrente da OpenAI apoiada pela Amazon,💥️ já anunciou planos para construir modelos com chips Trainium2.

O Graviton4, por outro lado, é mais para uso geral. Estes processadores são baseados na arquitetura Arm, mas consomem menos energia do que os chips Intel ou AMD. A Amazon promete 💥️um aumento de 30 % no desempenho geral ao utilizar um modelo de IA treinado incorporado num processador Graviton4.

Isso deve reduzir os custos de computação em nuvem para organizações que empregam regularmente modelos de IA e oferecer um ligeiro aumento na velocidade para utilizadores regulares 💥️que procuram apenas fazer algumas fotos falsas.

Amazon

Ao todo, o Graviton4 deve permitir que os clientes da AWS "processem grandes quantidades de dados, dimensionem as suas cargas de trabalho, melhorem o tempo para resultados e reduzam o seu custo total de propriedade".

Normalmente, quando uma empresa anuncia novos chips internos, 💥️isso significa problemas para os atuais fornecedores terceiros, como a NVIDIA. A empresa é um grande player no espaço de IA corporativa, graças às empresas que usam as suas GPUs para treino e a sua CPU Grace de datacenter baseada em Arm.

Em vez de evitar a parceria em favor de chips proprietários, a Amazon está a consolidar ainda mais o relacionamento, oferecendo aos clientes corporativos acesso à nuvem para as mais recentes GPUs H200 AI da NVIDIA. Também irá operar mais de 16.000 Nvidia GH200 Grace Hopper Superchips 💥️expressamente para a equipa de investigação e desenvolvimento da NVIDIA.

💥️Leia também...

Amazon vai demitir “várias centenas” de trabalhadores no seu setor da assistente Alexa

O que você está lendo é [Amazon afirma que os seus mais recentes chips são 4 vezes mais rápidos para o treino de IA].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...