Responsabilidade da IA: Navegando pelos Riscos da Era da Inteligência Artificial

Responsabilidade da IA: Navegando pelos Riscos da Era da Inteligência Artificial

Não importa se você está no mundo da tecnologia ou aproveitando o jantar com sua família, não há como escapar da IA ​​atualmente. Muitos de nós passamos por vários ciclos de evolução da IA, e cada novo estágio de crescimento evoca muitas perguntas sobre como chegamos aqui e para onde estamos indo. Anos atrás, ao construir os produtos de ML na ARM, enfrentamos muitas dessas perguntas também, e estava bem claro como a inovação e a independência da IA ​​são conceitos profundamente interligados.

Avançando para hoje na Era da IA, e embora ainda não tenhamos sido dominados pela Skynet, há uma preocupação crescente entre pessoas, empresas e sociedades sobre a nova superfície de ataque que se abriu recentemente com a última fase de adoção generalizada da Gen AI.

Quer você esteja preocupado com ataques de engenharia social impulsionados por deep-fake, ataques de phishing com tecnologia de IA ou ataques de injeção rápida, há motivos reais para se preocupar com os novos riscos à espreita em pilhas de aplicativos de IA; afinal, a IA não vive no vácuo — ela é integrada ao coração da pilha de aplicativos em todas as camadas, processando grandes quantidades de dados, incluindo dados altamente confidenciais, e trocando esses dados com todos os tipos de terceiros, sejam APIs de IA como OpenAI ou modelos caseiros da Hugging Face.

Promessa da IA e os novos desafios

Apesar das falhas da IA, não há como negar sua enorme promessa em relação à produtividade e inovação. Embora imperfeitos, os agentes de IA estão prestes a se tornar muito mais prevalentes. De acordo com uma pesquisa da Capgemini, 82% dos executivos de tecnologia "pretendem integrar agentes baseados em IA em suas organizações nos próximos três anos — acima dos 10% com agentes funcionais no momento atual".

À medida que os agentes de IA se tornam mais difundidos, o potencial de perigo cresce em importantes indústrias que os usam. À luz disso, os executivos de alto escalão enfrentam uma questão crítica: quem é o responsável quando a IA se torna desonesta?

Responsabilidade da IA: um cenário em mudança

A proliferação da IA ​​está abalando a estrutura organizacional das empresas modernas. Um relatório da Pearl Meyer revelou que 30% das empresas optaram por incorporar responsabilidades relacionadas à IA em funções executivas existentes. Enquanto isso, "32% estão adotando uma abordagem descentralizada para a supervisão da IA ​​e esperam que os esforços de IA sejam liderados por vários líderes em múltiplas funções".

Na maioria das organizações hoje, CISOs, CIOs e CTOs carregam o peso da responsabilidade pelo comportamento e segurança da IA. Isso pode criar tensão entre as diferentes funções de liderança, já que os CISOs não têm controle sobre os sistemas de IA, mas são encarregados de manter a segurança.

Como a IA é uma responsabilidade compartilhada, as organizações devem adotar estratégias e ferramentas que definam claramente a responsabilidade e, ao mesmo tempo, reduzam a lacuna entre as diferentes áreas de liderança.

Trazendo transparência à "caixa preta" da IA

Transparência é um primeiro passo significativo em direção à responsabilização. Como engenheiro, sou inatamente alegre ao desconstruir como os sistemas funcionam. Fazendo a ponte entre os mundos dos sistemas operacionais e da criptografia, aprendi como transparência e confiança são estabelecidas entre esses sistemas de software complexos.

Mas não é uma tarefa trivial para aqueles nas trincheiras de desenvolvimento de IA. A engenharia de software tradicional se inclina para sistemas determinísticos que dependem de regras predefinidas que podem ser escritas e auditadas. Em contraste, os modernos sistemas Gen AI probabilísticos fazem previsões (frequentemente imprevisíveis) com base em seus cálculos complexos e multidimensionais de probabilidades. Os sistemas probabilísticos, por sua própria natureza, não são transparentes.

Então, se um agente de IA se torna desonesto e não consegue explicar suas decisões, determinar o que deu errado pode ser desafiador (se não impossível). Então, como os líderes encarregados dos sistemas de IA obtêm o máximo de transparência e controle possível neste mundo imperfeito?

A IA é tão boa quanto os dados que a alimentam — "lixo entra, lixo sai", como diz o ditado — então manter registros claros de quais dados de treinamento estão alimentando o modelo é essencial. Limpar e redigir o mais frequentemente possível para proteger informações privadas que podem ser intencionalmente ou não varridas para sua modelagem também é essencial.

Quando a IA é implantada por meio de APIs de IA, as equipes devem ter uma visão completa de como seus dados e comportamento do aplicativo interagem com a entidade externa (como a Open AI). Elas precisam entender quais dados devem fluir pelo modelo (e quais dados não devem) e ter acesso em tempo real a como seus agentes de IA ativos estão operando para que comportamentos inesperados possam ser capturados e bloqueados instantaneamente antes que eles tenham a chance de roubar dados ou derrubar o sistema inteiro.

Melhorando a supervisão humana com tecnologia

Alguns acreditam que os humanos precisam interagir com a IA para mantê-la responsável, mas como podemos evitar que a supervisão humana se torne um obstáculo à inovação?

Projetar IA para interagir com especialistas humanos para aumentar sua capacidade em vez de substituí- los é um bom ponto de partida. Então, as equipes devem usar a tecnologia para limitar proativamente o acesso a agentes de IA para reduzir ou eliminar as consequências do caos desonesto.

Assim como aplicamos confiança zero em um contexto de segurança cibernética para que os controles de acesso e privilégios sejam atribuídos a indivíduos específicos com base em um modelo seguro de " privilégio mínimo ", a lógica de "privilégio mínimo" também deve ser aplicada a agentes de IA. Dessa forma, as tarefas atribuídas ao agente de IA podem ser contidas e a superfície de ataque será reduzida. Ao mesmo tempo, a supervisão humana em momentos-chave oferece transparência e controle cruciais às equipes e líderes que são, em última análise, responsáveis ​​por suas ações.

A revolução da IA ​​está bem encaminhada, mas ainda estamos apenas no começo. As organizações devem estabelecer quem é responsável pelo comportamento da IA, seja preenchendo a lacuna entre CISOs, CIOs e CTOs ou contratando um executivo totalmente focado em IA. Ao estabelecer responsabilidade, aumentar a transparência e usar a tecnologia para aprimorar a supervisão humana, as empresas estarão bem posicionadas para colher os benefícios da IA ​​e impulsionar a inovação com segurança.

Conteúdo Relacionado

A Google acaba de anunciar o lançamento da versão...
O mundo do trabalho está passando por uma transformação...
Na era do declínio do império dos Estados Unidos...
A explosão de interesse em IA, particularmente IA generativa,...
No mundo atual, orientado por dados, a recuperação de...
GenAI no Marketing: Transformando as Operações de Receita em...
Nos últimos anos, os modelos de IA centralizados baseados...
A emergência de robôs conversacionais desenvolvidos especificamente para crianças,...
Em qualquer lugar da internet, as pessoas reclamam que...
O modo de voz rapidamente se tornou um recurso...
A IA Generativa (também conhecida como GenAI) está transformando...
Com o avanço da inteligência artificial (IA), uma das...
Em uma era em que vulnerabilidades de software podem...
A Inteligência Artificial (IA) está modernizando as indústrias ao...
Graças ao langchaingo, é possível construir aplicativos de IA...
Os dados são frequentemente chamados de a força vital...
Como desenvolvedores, muitos de nós somos céticos em relação...
Nos últimos anos, houve um aumento significativo na adoção...
Tillbaka till blogg

Lämna en kommentar

Notera att kommentarer behöver godkännas innan de publiceras.