Os Riscos do Medo da Inteligência Artificial

Os Riscos do Medo da Inteligência Artificial

Dentre os diferentes riscos trazidos pela inteligência artificial, talvez o maior seja o de subutilização, desprovendo pacientes de diagnósticos precoces de doenças graves, permitindo o desperdício de alimentos em logísticas ineficientes, aproveitando melhores oportunidades para planejamento e colheita, perpetuando o acúmulo de processos nos tribunais, obtendo a disponibilidade ou o custo do crédito etc.

Esse risco parece inadvertido quando impulsos de autoridades reagem a alarmes contra a tecnologia. Vou chamar de risco do medo tais impulsos de intervenção, que podem limitar o desenvolvimento da IA, e dar três exemplos.

Proteção de Dados e Desenvolvimento da IA

Recentemente, a ANPD reverteu medida preventiva que determinava a suspensão do treinamento do Meta AI, a partir de dados de usuários das redes sociais operadas por aquela companhia. A justificativa estaria na ameaça de "dano irreparável" à proteção de dados desses usuários. Mas qual seria o dano à personalidade individual no jogo, quando os dados são empregados para desenvolver modelo computacional de larga escala, que, por sua natureza, a partir de suplementos matemáticos de textos usados ​​no treinamento, extrai padrões de escrita absolutamente gerais e despersonalizados?

A proteção de dados pessoal nasceu para garantir a proteção individual da personalidade na esfera pública, que poderia ser ameaçada pela remoção de informações personalizadas de dados processados ​​por terceiros. No caso famoso do censo, a Corte Constitucional alemã apenas limita a coleta e processamento de dados pessoais, inclusive sensíveis, dos cidadãos alemães para elaborar políticas públicas despersonalizadas.

O problema reside em apenas um artigo da legislação do censo, que prevê o uso dos dados pelos municípios para alocar crianças nas escolas. Desde aquele marco fundamental, a proteção de dados segue para uma legislação que exige justificativa para cada etapa de tratamento desde a coleta, mesmo que nas etapas subsequentes os dados sejam anonimizados, podendo-se perder de vista especificamente da aplicação final.

Por isso, a ANPD estabeleceu base legal para as etapas de coleta, armazenamento e processamento dos textos dos usuários nas redes, mas sem focar o propósito de desenvolvimento de um modelo de linguagem que, ao cabo, seria despersonalizado. Nada contra o tratamento da adequação das etapas anteriores ao tratamento, mas não a ponto de se suspender o desenvolvimento daquela aplicação, fundado numa ameaça inexistente à personalidade individual dos usuários das redes sociais.

Afinal, empregar grandes volumes de escritos locais no treinamento da IA ​​traz não só mais eficiência ao usuário da ferramenta, mas permite sua adequação à cultura local, mitigando o risco de "colonialismo digital" (imersão da tecnologia digital ou IA em dados e valores da cultura ocidental dominante). O ponto não se reduz à caracterização de "interesse legítimo", mas questiona a própria aplicabilidade da LGPD sobre a implementação de IAs que possuem os dados despersonalizados em determinada faixa de desenvolvimento.

A proteção de dados pessoais pode limitar o avanço da inteligência artificial? Esta questão, feita pelo Parlamento Europeu à academia, obteve a seguinte resposta: não, desde que a sua interpretação se volte para a finalidade das reutilizações e inferências a serem produzidas pela ferramenta. Tal preocupação tornou-se urgente, por exemplo, pelos limites que a legislação impunha ao desenvolvimento e emprego de ferramentas de IA para combate à pandemia de Covid-19, a partir do processamento de dados pessoais de saúde ou geolocalização.

Em vez da privacidade ser uma condicionante para a IA, ela deve ser lida como apenas mais um dos valores, ao lado do benefício social, não maleficência, não-discriminação, transparência, confiabilidade, que compõe a ética no tratamento de dados para o desenvolvimento responsável de IA. A intervenção da ANPD decorreu de leitura da IA ​​responsável pelos óculos da proteção de dados, e não, como se deveria fazer, uma leitura da proteção de dados à luz da IA ​​responsável.

Concentração de Mercados de IA

Outra manifestação do risco do medo não é alarmante quanto à concentração nos mercados de IAs generativas. Em julho de 2024, seguindo-se os relatórios da OCDE e das autoridades antitruste internacionais, a Comissão Europeia, a Competition Markets Authority britânica e a Federal Trade Commission dos EUA publicaram uma declaração conjunta , alertando para o risco de plataformização dos mercados de IA pelas grandes techs, à semelhança do que ocorreu nos mercados digitais.

Tal alerta motivou o Cade, no Brasil, a notificar big techs para coletar informações sobre parcerias recentes com startups desenvolvedoras de IA, independentemente de seu enquadramento nos critérios de notificação de atos de concentração. Tais iniciativas parecem buscar prevenir, para os mercados de IA, algo semelhante às chamadas killer aquisições (aquisições que levaram à concentração em mercados digitais, como a compra do WhatsApp pelo Facebook, não antecipadas pelas autoridades antitruste).

O recebimento de concentração deve-se às exigências para o desenvolvimento de IAs generativas, que incluem detalhes de dados, escassos peritos enormes e recursos computacionais em larga escala, cuja implementação é a. No entanto, os paralelos com a plataforma de mercados digitais podem estar sendo superestimados, pois alguns fatores chave considerados responsáveis ​​pela concentração em serviços digitais não estão presentes.

Por exemplo, como economias de escala nos mercados de IA podem não levar a custos marginais mínimos ou nulos, como nos mercados digitais, uma vez que cada usuário de sistemas de IA aumenta a necessidade de capacidade computacional.

Do mesmo modo, parece não haver efeitos de rede significativos entre os usuários de sistemas (diferentemente de redes sociais, a adição de novos usuários do ChatGPT não traz valor adicional à ferramenta para quem a utiliza). Também o desenvolvimento de modelos de IA em regime aberto pode trazer impactos à dinâmica da concorrência.

Nada contra estudar potenciais impactos concorrenciais de aquisições de startups por big techs, mas considere aplicações matadoras num perigoso movimento de plataformaformização que pode precipitar disciplinas.

Regulação da IA e o Risco do Medo

O terceiro risco está na revisão do AI Act europeu, diante da explosão das IAs generativas. Nas versões anteriores, a avaliação de IAs como de alto risco considerou impactos específicos das aplicações de IA sobre direitos individuais e coletivos em setores de atividade, como a medicina.

Mas como avaliar o risco de IAs de propósito geral? A solução do AI Act foi introduzir o conceito de risco sistêmico medido pelo volume de dados e processamento computacional envolvido no treinamento da IA. De novo, olhe para o procedimento de tratamento e não para a finalidade específica da aplicação.

Avalia-se as IAs generativas como de alto risco pelo medo do seu tamanho, mesmo sem uma visão clara do seu impacto específico. Por exemplo, um dos maiores fatores de burnout de médicos(as) não é tempo excessivamente gasto com preenchimento de formulários e prontuários. O uso de IAs generativas pode reduzir significativamente esse fardo. E o preenchimento automatizado, revisado pelo profissional de saúde, não parece trazer risco significativo. Entretanto, por se tratar de uso de IA generativa no campo da medicina, teríamos aqui alto risco, o que exigiria medidas de governança rigorosas para sua disponibilização.

A regulação da IA ​​e a intervenção por deve sempre olhar especificamente para a aplicação, seus benefícios e riscos efetivos, sob pena de concretizar o risco maior: o medo paralisante da tecnologia.

Conteúdo Relacionado

A Google acaba de anunciar o lançamento da versão...
O mundo do trabalho está passando por uma transformação...
Na era do declínio do império dos Estados Unidos...
A explosão de interesse em IA, particularmente IA generativa,...
No mundo atual, orientado por dados, a recuperação de...
GenAI no Marketing: Transformando as Operações de Receita em...
Nos últimos anos, os modelos de IA centralizados baseados...
A emergência de robôs conversacionais desenvolvidos especificamente para crianças,...
Em qualquer lugar da internet, as pessoas reclamam que...
O modo de voz rapidamente se tornou um recurso...
A IA Generativa (também conhecida como GenAI) está transformando...
Com o avanço da inteligência artificial (IA), uma das...
Em uma era em que vulnerabilidades de software podem...
A Inteligência Artificial (IA) está modernizando as indústrias ao...
Graças ao langchaingo, é possível construir aplicativos de IA...
Os dados são frequentemente chamados de a força vital...
Como desenvolvedores, muitos de nós somos céticos em relação...
Nos últimos anos, houve um aumento significativo na adoção...
Powrót do blogu

Zostaw komentarz

Pamiętaj, że komentarze muszą zostać zatwierdzone przed ich opublikowaniem.