A MLCommons publicou os resultados de seu benchmark de desempenho de IA do setor, MLPerf Training 3.0, no qual tanto o acelerador de aprendizagem profunda Habana Gaudi 2 quanto o processador escalável Intel Xeon de 4ª geração forneceram resultados de treinamento impressionantes.
“Os últimos resultados do MLPerf publicados pela MLCommons validam o valor do TCO que os processadores Intel Xeon e os aceleradores de aprendizagem profunda Intel Gaudi fornecem aos clientes na área de IA”, disse Sandra Rivera, vice-presidente executiva da Intel e gerente geral do Data Center e Grupo de IA.
Ela acrescentou: “Os aceleradores integrados do Xeon o tornam uma solução ideal para executar cargas de trabalho de IA de volume em processadores de uso geral, enquanto Gaudi oferece desempenho competitivo para grandes modelos de linguagem e IA generativa. Os sistemas escaláveis da Intel com software aberto otimizado e fácil de programar reduzem a barreira para clientes e parceiros implantarem uma ampla gama de soluções baseadas em IA no data center, da nuvem até a borda inteligente.”
Por que isso importa
A narrativa atual da indústria é que a IA generativa e os modelos de linguagem grande (LLMs) podem ser executados apenas em GPUs Nvidia. Novos dados mostram que o portfólio de soluções de IA da Intel oferece opções competitivas e atraentes para clientes que buscam se libertar de ecossistemas fechados que limitam a eficiência e a escala.
Os resultados mais recentes do MLPerf Training 3.0 destacam o desempenho dos produtos da Intel em uma série de modelos de aprendizagem profunda. A maturidade do software e dos sistemas de formação baseados em Gaudi2 foi demonstrada em escala no grande modelo de linguagem, GPT-3. Gaudi2 é uma das duas únicas soluções de semicondutores a submeter resultados de desempenho ao benchmark para treinamento LLM do GPT-3.
Gaudi2 também oferece vantagens de custo substancialmente competitivas aos clientes, tanto em custos de servidores quanto de sistemas. O desempenho validado pelo MLPerf do acelerador em GPT-3, visão computacional e modelos de linguagem natural, além dos próximos avanços de software tornam o Gaudi2 uma alternativa de preço/desempenho extremamente atraente ao H100 da Nvidia.
No que diz respeito à CPU, o desempenho do treinamento de aprendizagem profunda dos processadores Xeon de 4ª geração com motores Intel AI demonstrou que os clientes podem construir com servidores baseados em Xeon um único sistema universal de IA para pré-processamento de dados, treinamento de modelo e implantação para fornecer a combinação certa de Desempenho, eficiência, precisão e escalabilidade da IA.
Os resultados de Habana Gaudi2
O treinamento de IA generativa e de grandes modelos de linguagem requer clusters de servidores para atender a enormes requisitos de computação em escala. Esses resultados do MLPerf fornecem validação tangível do excelente desempenho e escalabilidade eficiente do Habana Gaudi2 no modelo mais exigente testado, o parâmetro de 175 bilhões GPT-3.
Destaques dos resultados:
- Gaudi2 apresentou um tempo de treinamento impressionante no GPT-31: 311 minutos em 384 aceleradores.
- Escala quase linear de 95% de 256 a 384 aceleradores no modelo GPT-3.
- Excelentes resultados de treinamento em visão computacional — aceleradores ResNet-50 8 e aceleradores Unet3D 8 — e modelos de processamento de linguagem natural — aceleradores BERT 8 e 64.
- Aumentos de desempenho de 10% e 4%, respectivamente, para os modelos BERT e ResNet em comparação com a apresentação de novembro, evidência da crescente maturidade do software Gaudi2.
- Os resultados do Gaudi2 foram enviados “prontos para uso”, o que significa que os clientes podem obter resultados de desempenho comparáveis ao implementar o Gaudi2 no local ou na nuvem.