Os resultados do benchmark MLCommons mostram os ganhos da Intel AI

Los resultados de las pruebas comparativas de MLCommons muestran ganancias en la IA de Intel

MLCommons ha publicado los resultados de su punto de referencia de rendimiento de IA líder en la industria, MLPerf Training 3.0, en el que tanto el acelerador de aprendizaje profundo Habana Gaudi 2 como el procesador escalable Intel Xeon de cuarta generación arrojaron resultados de capacitación impresionantes.

Procesador escalable Intel Xeon de cuarta generación, con nombre en código Sapphire Rapids. (Crédito: Corporación Intel)

"Los últimos resultados de MLPerf publicados por MLCommons validan el valor TCO que los procesadores Intel Xeon y los aceleradores de aprendizaje profundo Intel Gaudi brindan a los clientes de IA", dijo Sandra Rivera, vicepresidenta ejecutiva y gerente general de Centro de Datos y Grupo de IA de Intel.

Y añadió: “Los aceleradores integrados de Xeon lo convierten en una solución ideal para ejecutar cargas de trabajo de IA de gran volumen en procesadores de uso general, mientras que Gaudi ofrece un rendimiento competitivo para modelos de lenguajes grandes e IA generativa. Los sistemas escalables de Intel con software abierto optimizado y fácil de programar reducen la barrera para que los clientes y socios implementen una amplia gama de soluciones basadas en IA en todo el centro de datos, desde la nube hasta el borde inteligente”.

¿Por qué esto importa?

La narrativa actual de la industria es que la IA generativa y los modelos de lenguaje grande (LLM) solo pueden ejecutarse en GPU de Nvidia. Nuevos datos muestran que el portafolio de soluciones de IA de Intel ofrece opciones competitivas y atractivas para los clientes que buscan liberarse de ecosistemas cerrados que limitan la eficiencia y la escala.

Los últimos resultados de MLPerf Training 3.0 destacan el rendimiento de los productos Intel en una variedad de modelos de aprendizaje profundo. La madurez del software y los sistemas de formación basados ​​en Gaudí2 ha quedado demostrada a escala en el modelo de lenguaje grande, GPT-3. Gaudi2 es una de las dos únicas soluciones de semiconductores que presenta resultados de rendimiento al punto de referencia de capacitación GPT-3 LLM.

Gaudi2 también ofrece ventajas de costos sustancialmente competitivas a los clientes, tanto en costos de servidores como de sistemas. El rendimiento validado por MLPerf del acelerador en modelos GPT-3, visión por computadora y lenguaje natural, además de los próximos avances de software, hacen de Gaudi2 una alternativa extremadamente atractiva en relación precio/rendimiento al H100 de Nvidia.

En lo que respecta a la CPU, el rendimiento del entrenamiento de aprendizaje profundo de los procesadores Xeon de cuarta generación con motores Intel AI demostró que los clientes pueden construir con servidores basados ​​en Xeon un único sistema universal de AI para el preprocesamiento de datos, el modelo de entrenamiento y la implementación para ofrecer la combinación adecuada de rendimiento de AI. , eficiencia, precisión y escalabilidad.

Los resultados de Habana Gaudí2
Entrenar IA generativa y grandes modelos de lenguaje requiere grupos de servidores para cumplir con enormes requisitos informáticos a escala. Estos resultados de MLPerf proporcionan una validación tangible del excelente rendimiento y la escalabilidad eficiente de Habana Gaudi2 en el modelo más exigente probado, el GPT-3 de 175 mil millones de parámetros.

Aspectos destacados de los resultados:

  • Gaudi2 mostró un impresionante tiempo de entrenamiento en GPT-3 1 :311 minutos con 384 aceleradores.
  • 95% de escalado casi lineal de 256 a 384 aceleradores en el modelo GPT-3.
  • Excelentes resultados de capacitación en visión por computadora (aceleradores ResNet-50 8 y aceleradores Unet3D 8) y modelos de procesamiento de lenguaje natural (aceleradores BERT 8 ​​y 64).
  • Aumentos de rendimiento del 10% y 4% respectivamente para los modelos BERT y ResNet en comparación con la presentación de noviembre, prueba de la creciente madurez del software Gaudi2.
  • Los resultados de Gaudi2 se enviaron "listos para usar", lo que significa que los clientes pueden lograr resultados de rendimiento comparables al implementar Gaudi2 en las instalaciones o en la nube.
Los resultados de los procesadores Xeon de cuarta generación.
Como la única CPU presentada entre numerosas soluciones alternativas, los resultados de MLPerf demuestran que los procesadores Intel Xeon brindan a las empresas capacidades listas para usar para implementar IA en sistemas de uso general y evitar el costo y la complejidad de introducir sistemas de IA dedicados.

Para un pequeño número de clientes que entrenan modelos grandes de forma intermitente desde cero, pueden usar CPU de uso general y, a menudo, en los servidores basados ​​en Intel que ya están implementando para administrar su negocio. Sin embargo, la mayoría utilizará modelos previamente entrenados y los ajustará con sus propios conjuntos de datos más pequeños y seleccionados. Intel publicó anteriormente resultados que demuestran que este ajuste se puede lograr en solo minutos utilizando el software Intel AI y el software de código abierto estándar de la industria.

Aspectos destacados de los resultados de MLPerf:

  • En la división cerrada, los Xeons de cuarta generación podrían entrenar los modelos BERT y ResNet-50 en menos de 50 minutos. (47,93 minutos) y menos de 90 minutos. (88,17 minutos), respectivamente.
  • Con BERT en la división abierta, los resultados muestran que Xeon pudo entrenar el modelo en aproximadamente 30 minutos (31,06 minutos) al escalar hasta 16 nodos.
  • Para el modelo RetinaNet más grande, el Xeon logró alcanzar un tiempo de 232 minutos. en 16 nodos, lo que permite a los clientes la flexibilidad de utilizar ciclos Xeon fuera de las horas pico para entrenar sus modelos durante la mañana, durante el almuerzo o durante la noche.
  • El Xeon de cuarta generación con Intel Advanced Matrix Extensions (Intel® AMX) ofrece importantes mejoras de rendimiento listas para usar que abarcan múltiples marcos, herramientas completas de ciencia de datos y un amplio ecosistema de soluciones inteligentes.

Regresar al blog

Deja un comentario

Ten en cuenta que los comentarios deben aprobarse antes de que se publiquen.