A corrida pela supremacia da IA não é apenas uma competição entre as grandes empresas de tecnologia, mas também inclui nações soberanas. O Fórum Econômico Mundial define IA soberana como "a capacidade de uma nação de construir IA com talentos locais... com base em sua política local ou estratégia nacional de IA". De um ponto de vista macroeconômico, político e de segurança, fica claro por que os países precisam construir capacidades avançadas de IA dentro dos limites de suas fronteiras.
A definição de IA soberana no nível da empresa
No nível micro, a definição de IA soberana é um tanto análoga à competência de uma empresa de tecnologia. Pegue a definição acima e troque as palavras "nação" por "organização", e o significado confina a IA soberana às fronteiras de empresas individuais. A IA soberana então se torna uma vantagem competitiva da empresa, como mostrado por sua capacidade de ajustar modelos e incutir segurança e confiança em aplicações de IA.
Mas como você garante a privacidade dos dados quando a maneira mais fácil de consumirIA generativa(GenAI) está usando um modelo fechado sobre uma API de nuvem?
Problema de privacidade de dados da GenAI
Considere como um desenvolvedor de software pode construir um chatbot simples de perguntas e respostas hoje. Eles provavelmente começariam baixando uma estrutura de modelo de linguagem grande (LLM) como o LangChain e seguindo um dos tutoriais do LangChain . Em pouco tempo, os dados confidenciais da sua empresa e talvez até mesmo as informações de identificação pessoal (PII) dos seus clientes são enviados para a OpenAI para recuperar embeddings de texto e gerar respostas de chat, então armazenados em um banco de dados vetorial também hospedado na nuvem.
Agentes e sistemas de IA agênticos sem dúvida tornam a privacidade de dados ainda mais difícil. Eles têm autonomia para tomar decisões e executar ações sem serem solicitados por um humano. Então, sem governança adequada, seria difícil rastrear quais dados sensíveis estão sendo compartilhados fora da sua organização.
Para ser claro, isso não é necessariamente um problema. Depende de quão permissiva é a política de privacidade e proteção de dados da sua empresa. Mesmo assim, empresas como a OpenAI levam a privacidade de dados muito a sério e cumprem com padrões de segurança de dados reconhecidos internacionalmente, como SOC2 e General Data Protection Regulation (GDPR) para manter os dados seguros dentro de seus sistemas. Isso pode ser o suficiente para satisfazer sua equipe de InfoSec, mas quais são suas opções se seus dados confidenciais devem permanecer estritamente dentro dos limites de sua rede?
Invertendo o paradigma: traga o modelo para seus dados
Mark Zuckerberg diz: " A IA de código aberto é o caminho a seguir ". Em seu artigo, ele defende o uso dos modelos Llama da Meta, que ela define como de código aberto , como a melhor opção para aproveitar o poder do GenAI porque o software de código aberto, por sua natureza transparente, é mais seguro e confiável do que alternativas de código fechado.
O ponto saliente aqui é que modelos como o Llama podem ser executados em qualquer lugar. Isso é bom para empresas que não querem dar seus dados proprietários porque elas podem levar o modelo para seus dados, e não o contrário. A chave para que isso permaneça verdadeiro é que não haja modelos de breakout que sejam 10 vezes melhores que os demais, essencialmente desbloqueando novos casos de uso que não eram possíveis antes.
O compromisso declarado da Meta com o código aberto destaca o Llama como uma das principais escolhas hoje, mas outros modelos chamados de código aberto merecem uma menção honrosa, incluindo o Gemma e o Mistral do Google, entre outros. No entanto, os modelos abertos não são a única maneira de resolver o problema de privacidade de dados com o GenAI.
Empresas como a Cohere dão suporte a implantações privadas e implantações " traga sua própria nuvem " (BYOC) que permitem que você implante seus LLMs em sua conta de nuvem e nuvem privada virtual (VPC). Se seus dados confidenciais já estiverem protegidos na nuvem, então BYOC é outra maneira de levar o modelo e outras ferramentas de plataforma de dados para onde seus dados já residem.
Grátis Vs. Livre
Llama e outros modelos similares podem ser gratuitos para baixar e usar, mas o custo prático de executar um LLM de fronteira em sua própria infraestrutura certamente não é gratuito. Não vou calcular os custos de processamento de tokens neste artigo, mas basta dizer que as GPUs Nvidia H100 não são baratas, e você precisará de mais de uma H100 para executar o modelo de parâmetro 405B do Llama em uma escala útil.
Então, esse é o preço que você deve pagar pela privacidade de dados na era GenAI?
Há sempre um equilíbrio, e o contra-argumento é que nem todo modelo precisa executar inferência em GPUs para ter um bom desempenho. Llama é, na verdade, uma coleção de modelos — um rebanho de lhamas, se preferir — que são pré-treinados e ajustados em vários tamanhos. O menor é um modelo de parâmetro 1B leve o suficiente para ser executado em um dispositivo móvel para coisas como resumo de texto. As pessoas salvam muitos dados confidenciais em seus celulares, então ser capaz de executar inferência diretamente em um dispositivo é importante do ponto de vista da privacidade.
O modo e o tamanho do modelo que você usa dependem do caso de uso, mas saiba que há opções para criar aplicativos GenAI que nem sempre exigem hardware muito caro para inferência.
O veredito: a privacidade não está morta
Claro, a privacidade de dados não está morta na era da IA. A solução para o problema da privacidade de dados sempre foi a mesma. Se você tem dados sensíveis e sua política de privacidade de dados determina que os dados não podem ser compartilhados fora da sua organização, então o software que entra em contato com esses dados tem que rodar dentro da sua rede, GenAI ou não.
O que muda é a economia. Se você não pode compartilhar dados com um modelo fechado por uma API de nuvem ou simplesmente não confia no provedor de modelo fechado, então você tem que descobrir uma maneira de fornecer acesso a um LLM dentro de sua rede. Existem provedores de modelo fechado como o Cohere que suportam implantações privadas na nuvem ou no local, e o Meta apresenta um argumento convincente para os chamados modelos de código aberto como o Llama.
Segurança de dados, privacidade de dados e soberania de dados não devem proibir a adoção da tecnologia GenAI na empresa. Modelos de código aberto estão constantemente melhorando e, à medida que modelos menores se tornam mais poderosos e o ecossistema de ferramentas ao redor deles cresce, aplicativos construídos na tecnologia GenAI podem ser os ativos mais poderosos da sua organização.