Red Hat OpenShift AI 2.15: Avanços em Segurança, Rastreamento de Modelos e ajuste fino de LLMs

Red Hat OpenShift AI 2.15: Avanços em Segurança, Rastreamento de Modelos e ajuste fino de LLMs

A Red Hat, líder em soluções de software empresarial de código aberto, acaba de lançar a versão 2.15 de sua plataforma de IA e machine learning baseada em nuvem, o Red Hat OpenShift AI. Essa nova versão traz avanços significativos em recursos de segurança, rastreamento de modelos e ajuste fino de Modelos de Linguagem de Grande Porte (LLMs).

Registro de Modelo e Rastreamento

Um dos destaques da atualização é o novo registro de modelo, atualmente em estado de pré-visualização tecnológica. Esse recurso fornece uma maneira estruturada de compartilhar, versionar, implantar e rastrear modelos, metadados e artefatos de modelo. Isso permite que as equipes de ciência de dados e engenharia de IA gerenciem de forma mais eficiente o ciclo de vida dos modelos de machine learning, desde o desenvolvimento até a implantação em produção.

Detecção de Desvio de Dados e Viés

Outro recurso importante é a detecção de desvio de dados, que permite monitorar alterações na distribuição dos dados de entrada usados ​​para inferência de modelos implantados. Essa funcionalidade ajuda a verificar a confiabilidade dos modelos, alertando os cientistas de dados quando os dados ativos se desviam significativamente dos dados de treinamento.

Além disso, o Red Hat OpenShift AI 2.15 inclui ferramentas de detecção de viés, da comunidade de código aberto TrustyAI. Essas ferramentas ajudam a monitorar a imparcialidade dos modelos durante implantações no mundo real, garantindo que eles sejam justos e imparciais.

Ajuste Fino de LLMs com LoRA

Uma das principais melhorias desta versão é o suporte ao ajuste fino de Modelos de Linguagem de Grande Porte (LLMs) usando a técnica LoRA (Adaptação de Baixa Classificação). Essa abordagem permite um ajuste fino mais eficiente de LLMs, como o Llama 3, possibilitando que as organizações dimensionem cargas de trabalho de IA com custos e consumo de recursos reduzidos.

Suporte a Aceleradores de IA

O Red Hat OpenShift AI 2.15 também adiciona suporte para a Nvidia NIM, um conjunto de microsserviços de interface para acelerar a entrega de aplicativos de IA generativa. Além disso, foi adicionado suporte para GPUs AMD, com acesso a uma imagem do AMD ROCm Workbench para uso de GPUs AMD no desenvolvimento de modelos.

Recursos de Inferência de Modelos Generativos

A nova versão também traz melhorias para a inferência de modelos de IA generativos, incluindo o tempo de execução de serviço vLLM para o KServe, uma plataforma de inferência de modelo baseada em Kubernetes. Além disso, o suporte para o KServe Modelcars adiciona repositórios Open Container Initiative (OCI) como uma opção para armazenar e acessar versões de modelo.

Aprimoramentos em Ciência de Dados e Rastreamento de Experimentos

O Red Hat OpenShift AI 2.15 também adiciona aprimoramentos de IA preditiva e generativa aos pipelines de ciência de dados e rastreamento de experimentos. Isso permite que os cientistas de dados gerenciem e analisem mais facilmente as execuções de pipeline agrupadas em uma estrutura lógica. Além disso, o ajuste de hiperparâmetros com Ray Tune fornece algoritmos de otimização avançados para melhorar a precisão e treinar modelos de forma mais eficiente.

Em resumo, a versão 2.15 do Red Hat OpenShift AI traz avanços significativos em segurança, rastreamento de modelos, ajuste fino de LLMs e recursos de inferência de modelos generativos. Essas melhorias ajudarão as organizações a impulsionar a inovação em IA e a tomar decisões estratégicas com base em dados mais confiáveis ​​e seguros.

Conteúdo Relacionado

O Rails 8 sempre foi um divisor de águas...
Na era do declínio do império dos Estados Unidos...
Os aplicativos da Web são uma pedra fundamental da...
O mundo da tecnologia tem estado agitado com discussões...
Os desenvolvedores Java enfrentam uma variedade de erros relacionados...
Com várias décadas de experiência, adoro criar aplicativos corporativos...
A escalabilidade é um fator crítico quando se trata...
Ao trabalhar em um projeto de código aberto no...
A Inteligência Artificial (IA) tem se tornado cada vez...
A maioria das organizações enfrenta desafios ao se adaptar...
Quando nós, desenvolvedores, encontramos alguns bugs em nossos logs,...
A cibersegurança é um tópico cada vez mais importante...
A experiência do desenvolvedor (DX) é um tópico cada...
Ao relatar estatísticas resumidas para resultados de testes de...
Explorando as Engrenagens do Kernel Semântico Falei um pouco...
返回網誌

發表留言

請注意,留言須先通過審核才能發佈。