MLCommons ha publicado los resultados de su punto de referencia de rendimiento de IA líder en la industria, MLPerf Training 3.0, en el que tanto el acelerador de aprendizaje profundo Habana Gaudi 2 como el procesador escalable Intel Xeon de cuarta generación arrojaron resultados de capacitación impresionantes.
"Los últimos resultados de MLPerf publicados por MLCommons validan el valor TCO que los procesadores Intel Xeon y los aceleradores de aprendizaje profundo Intel Gaudi brindan a los clientes de IA", dijo Sandra Rivera, vicepresidenta ejecutiva y gerente general de Centro de Datos y Grupo de IA de Intel.
Y añadió: “Los aceleradores integrados de Xeon lo convierten en una solución ideal para ejecutar cargas de trabajo de IA de gran volumen en procesadores de uso general, mientras que Gaudi ofrece un rendimiento competitivo para modelos de lenguajes grandes e IA generativa. Los sistemas escalables de Intel con software abierto optimizado y fácil de programar reducen la barrera para que los clientes y socios implementen una amplia gama de soluciones basadas en IA en todo el centro de datos, desde la nube hasta el borde inteligente”.
¿Por qué esto importa?
La narrativa actual de la industria es que la IA generativa y los modelos de lenguaje grande (LLM) solo pueden ejecutarse en GPU de Nvidia. Nuevos datos muestran que el portafolio de soluciones de IA de Intel ofrece opciones competitivas y atractivas para los clientes que buscan liberarse de ecosistemas cerrados que limitan la eficiencia y la escala.
Los últimos resultados de MLPerf Training 3.0 destacan el rendimiento de los productos Intel en una variedad de modelos de aprendizaje profundo. La madurez del software y los sistemas de formación basados en Gaudí2 ha quedado demostrada a escala en el modelo de lenguaje grande, GPT-3. Gaudi2 es una de las dos únicas soluciones de semiconductores que presenta resultados de rendimiento al punto de referencia de capacitación GPT-3 LLM.
Gaudi2 también ofrece ventajas de costos sustancialmente competitivas a los clientes, tanto en costos de servidores como de sistemas. El rendimiento validado por MLPerf del acelerador en modelos GPT-3, visión por computadora y lenguaje natural, además de los próximos avances de software, hacen de Gaudi2 una alternativa extremadamente atractiva en relación precio/rendimiento al H100 de Nvidia.
En lo que respecta a la CPU, el rendimiento del entrenamiento de aprendizaje profundo de los procesadores Xeon de cuarta generación con motores Intel AI demostró que los clientes pueden construir con servidores basados en Xeon un único sistema universal de AI para el preprocesamiento de datos, el modelo de entrenamiento y la implementación para ofrecer la combinación adecuada de rendimiento de AI. , eficiencia, precisión y escalabilidad.
Los resultados de Habana Gaudí2
Entrenar IA generativa y grandes modelos de lenguaje requiere grupos de servidores para cumplir con enormes requisitos informáticos a escala. Estos resultados de MLPerf proporcionan una validación tangible del excelente rendimiento y la escalabilidad eficiente de Habana Gaudi2 en el modelo más exigente probado, el GPT-3 de 175 mil millones de parámetros.
Aspectos destacados de los resultados:
- Gaudi2 mostró un impresionante tiempo de entrenamiento en GPT-3 1 :311 minutos con 384 aceleradores.
- 95% de escalado casi lineal de 256 a 384 aceleradores en el modelo GPT-3.
- Excelentes resultados de capacitación en visión por computadora (aceleradores ResNet-50 8 y aceleradores Unet3D 8) y modelos de procesamiento de lenguaje natural (aceleradores BERT 8 y 64).
- Aumentos de rendimiento del 10% y 4% respectivamente para los modelos BERT y ResNet en comparación con la presentación de noviembre, prueba de la creciente madurez del software Gaudi2.
- Los resultados de Gaudi2 se enviaron "listos para usar", lo que significa que los clientes pueden lograr resultados de rendimiento comparables al implementar Gaudi2 en las instalaciones o en la nube.