A Ética da IA: Um Desafio para a Próxima Década?

A Ética da IA: Um Desafio para a Próxima Década?

A IA está em todo o lado, mas embora haja muito entusiasmo e incerteza sobre o seu futuro, temos de começar a perguntar-nos: o que estamos a fazer é ético? Para onde as IAs nos levarão a seguir?

Imagem em destaque

A natureza da inteligência artificial (IA) é um campo complexo e em constante evolução. IA é a ciência que cria máquinas inteligentes que podem pensar, aprender e agir de forma autônoma. Ele tem sido usado em muitas áreas, como robótica, visão computacional, processamento de linguagem natural e aprendizado de máquina.

A IA tem o potencial de revolucionar a forma como interagimos com a tecnologia e como vivemos as nossas vidas. Basicamente, a IA trata da criação de sistemas que podem tomar decisões com base em dados ou informações que receberam. Isso pode ser qualquer coisa, desde reconhecer objetos em uma imagem até jogar xadrez contra um oponente humano.

A IA visa criar máquinas que possam entender seu ambiente, prever resultadose pegue ações apropriadas sem ser explicitamente programado por humanos. No entanto, existem implicações éticas associadas à implementação de tecnologias de IA. Por exemplo, quem seria responsabilizado se um veículo autônomo causasse um acidente devido a um erro de programação ou se uma pessoa fosse erroneamente pontuada (esperada) para cometer um crime futuro?

Da mesma forma, que salvaguardas deveriam ser implementadas para garantir um resultado positivo ou justo se um sistema de IA fosse utilizado para a tomada de decisões em contextos de cuidados de saúde, sequenciação genética ou justiça criminal? Estas questões levantam considerações éticas importantes quando se trata de utilizar tecnologias de IA em aplicações do mundo real.

Já estamos vendo de tudo, desde a geração de texto e imagem ChatGPT até classificadores nas mídias sociais, auxiliando processos de negócios e moldando nossa cultura e sociedades de maneiras que ainda não podemos prever. Considerando isto, não é importante compreender as questões éticas subjacentes e ver como elas podem impactar os nossos projetos?

Problemas com IA

Vieses

Automatizar processos e tomar decisões com IA são propensos a preconceitos porque os sistemas de IA são baseados em algoritmos e conjuntos de dados que são não transparente ou facilmente compreendido pelos humanos. Como tal, existe um risco inerente de que estas decisões possam ser tendenciosas ou imprecisas devido a erros nos dados subjacentes ou algoritmos utilizados pelo sistema.

Talvez o maior exemplo tenha sido o catastrófico projeto secreto de IA da Amazon. Em 2014, a Amazon começou a criar programas de computador para revisar os currículos dos candidatos a empregos, a fim de mecanizar a busca pelos melhores talentos. A ferramenta experimental de contratação da empresa usou IA para dar aos candidatos pontuações que variam de uma a cinco estrelas.

No entanto, em 2015, descobriu-se que o sistema de IA não classificava os candidatos de forma neutra em termos de género, uma vez que a maioria dos currículos vinha de homens. A Amazon editou o algoritmo para tornar as pontuações neutras, mas não pôde garantir que as máquinas não criariam outras formas de classificar os candidatos que pudessem ser discriminatórias.

No final das contas, em 2016, a Amazon dissolveu a equipe porque os executivos perderam a confiança no projeto e os recrutadores nunca confiaram apenas em suas classificações. Este experimento serve de lição para empresas que buscam automatizar partes de seu processo de contratação e destaca as limitações do aprendizado de máquina.

O problema da caixa preta

O problema da caixa preta da IA ​​é uma preocupação no mundo da computação, pois se refere ao fato de que, com a maioria das ferramentas baseadas em IA, não sabemos como elas fazem o que fazem. Podemos ver a entrada e a saída dessas ferramentas, mas não os processos e o funcionamento entre elas. Esta falta de compreensão torna difícil confiar nas decisões da IA, uma vez que erros podem ser cometidos sem qualquer código moral ou compreensão fundamentada do resultado.

A causa desse problema está nas redes neurais artificiais e no aprendizado profundo, que consistem em camadas ocultas de nós que processam dados e passam sua saída para a próxima camada. Efetivamente, nenhum engenheiro pode contar como um modelo chegou a uma conclusão. É como pedir a um neurologista que observe a atividade cerebral e nos diga o que alguém está pensando.

Embora o valor dos sistemas de IA seja inegável, sem uma compreensão da lógica subjacente, os nossos modelos poderiam levar a erros dispendiosos e não seríamos capazes de dizer o que aconteceu, exceto por “bem, parece estar errado”.

Por exemplo, se um sistema de IA for utilizado num ambiente médico para diagnosticar pacientes ou recomendar tratamentos, quem será responsabilizado se algo correr mal? Esta questão destaca a necessidade de maior supervisão e regulamentação na utilização da IA ​​em aplicações críticas onde os erros podem ter consequências graves.

Para resolver esse problema, os desenvolvedores estão se concentrando em IA explicável, que produz resultados que os humanos podem compreender e explicar. Mas é mais fácil falar do que fazer. Até que possamos criar interfaces que nos permitam entender como as caixas pretas de IA tomam decisões, devemos ser extremamente cuidadosos com seus resultados.

Também sabemos que há sabedoria nas multidões. As explicações e decisões são melhor tomadas por um grupo de indivíduos bem-intencionados e informados do que por qualquer membro liberal do grupo.

Erro humano

Às vezes, não é uma questão de “podemos?” mas sim “deveríamos?” Só porque alguma mente brilhante pensa numa nova aplicação para a IA, não significa que ela tenha a base ética para ver as ramificações das suas ações. Por exemplo, a Universidade de Harrisburg, na Pensilvânia, propôs um sistema automatizado de reconhecimento facial que poderia prever a criminalidade a partir de um única fotografia.

Isso provocou uma reação do Coalizão para Tecnologia Crítica, que escreveu uma carta à editora da Springer Nature instando-os a não publicar o estudo devido ao seu potencial para amplificar a discriminação. A editora respondeu não divulgando o livro e a Universidade de Harrisburg removeu seu comunicado à imprensa.

Por mais atraente que o projecto possa parecer, não há duas maneiras de o fazer: é discriminatório, na melhor das hipóteses, e, na pior, um caminho seguro para a definição de perfis étnicos. Temos que ser extremamente cuidadosos com as nossas soluções, mesmo que sejam construídas com a melhor das intenções. Às vezes somos tão tentados pela novidade ou utilidade da tecnologia que esquecemos as suas ramificações éticas e o impacto social.

Privacidade

A utilização de IA no processamento e análise de dados pode levar à recolha de grandes quantidades de dados pessoais sem a permissão do utilizador. Esses dados podem então ser usados ​​para treinar algoritmos de IA, que podem então ser aplicados a diversos fins, como publicidade direcionada ou análise preditiva.

Isto levanta sérias questões éticas sobre como estes dados são recolhidos e utilizados sem o consentimento do utilizador. Além disso, a utilização da IA ​​também representa um risco para a privacidade devido à sua capacidade de processar grandes quantidades de dados com rapidez e precisão. Isso significa que os algoritmos de IA podem ser capazes de identificar padrões no comportamento do usuário que poderiam revelar informações confidenciais sobre indivíduos ou grupos.

Por exemplo, um algoritmo de IA pode ser capaz de detectar padrões nos hábitos de compras online que possam revelar as tendências políticas ou crenças religiosas de alguém. Para responder a estas preocupações, é importante que as organizações que utilizam tecnologias de IA cumpram o Regulamento Geral de Proteção de Dados (RGPD) ao recolherem e processarem dados pessoais.

O GDPR exige que as organizações obtenham o consentimento explícito dos usuários antes de coletar seus dados e forneçam aos usuários informações claras sobre como seus dados serão usados. Além disso, as organizações devem garantir que possuem medidas de segurança adequadas para proteger os dados dos usuários contra acesso não autorizado ou uso indevido.

Agora é muito importante entender que um modelo não salva as informações do usuário, mas sim, os pesos (a relação entre dois neurônios no modelo) são calculados com base nessas informações. Esta é uma área cinzenta nos regulamentos de recolha de dados, mas que representa um desafio difícil.

Lembra do que mencionamos sobre a caixa preta? Bem, como um engenheiro pode saber se um determinado peso foi baseado nas preferências de alguém? A resposta é; é muito difícil saber. Então, o que acontece quando um usuário deseja ser removido de uma amostra? Mentes brilhantes em todo o planeta estão trabalhando neste problema sob a égide de esquecimento intencionalmas nem a ética nem a tecnologia estão claras ainda.

Finalmente, é importante que as organizações que utilizam tecnologias de IA considerem as implicações éticas da utilização de dados de utilizadores sem permissão para treinar algoritmos de IA. As organizações devem lutar pela transparência no que diz respeito à forma como utilizam os dados pessoais e devem garantir que quaisquer decisões tomadas pelo seu sistema de IA sejam justas, imparciais, protejam a privacidade e sejam utilizadas para o bem da nossa sociedade. Os sistemas de IA não devem prejudicar indivíduos ou grupos com base na sua raça, género, filiação política, religião, etc., pois isso pode levar à discriminação ou a outras formas de injustiça.

Segurança

À medida que mais dados são recolhidos e analisados ​​pelos sistemas de IA, existe o risco de as informações pessoais serem utilizadas indevidamente ou abusadas por intervenientes maliciosos. Algumas práticas prejudiciais incluem:

  • Roubo de identidade automatizado: Atores maliciosos usam IA para coletar e analisar dados pessoais de fontes on-line, como contas de redes sociais, para criar identidades falsas para obter ganhos financeiros.
  • Análise preditiva: Atores maliciosos usam IA para prever o comportamento ou as preferências de um indivíduo com base em sua localização ou histórico de compras, para direcioná-lo a anúncios ou serviços indesejados.
  • Vigilância: Atores maliciosos usam tecnologia de reconhecimento facial alimentada por IA para rastrear indivíduos sem o seu conhecimento ou consentimento.
  • Manipulação da opinião pública: Atores maliciosos usam algoritmos baseados em IA para espalhar informações falsas sobre uma pessoa ou grupo para influenciar a opinião pública ou influenciar eleições.
  • Mineração de dados: Atores maliciosos usam algoritmos baseados em IA para coletar grandes quantidades de dados pessoais de usuários inocentes para marketing vergonhoso ou outras atividades nefastas.

As organizações precisam garantir que sejam tomadas medidas de segurança adequadas para que os dados dos usuários (e todos os dados) permaneçam seguros e privados. Deveríamos nos preocupar com IAs generativas imparáveis? Ainda não. Esses sistemas são incríveis, mas ainda são muito limitados em seu escopo. No entanto, todas as “melhores práticas” em segurança cibernética devem ser aplicadas diligentemente à IA (por exemplo, autenticação multifatorial, encriptação, utilização de IA para detetar anomalias no tráfego de rede, etc.) porque podem criar problemas muito mais rapidamente do que um ser humano. Por exemplo, uma IA poderia pegar uma senha vazada e tentar combiná-la com possíveis empresas onde a vítima está trabalhando – assim como qualquer outro ataque cibernético, com a exceção de que pode fazer isso em uma fração do tempo que levaria para um ser humano. .

Os efeitos da IA ​​na demissão de empregos

Outra preocupação ética relacionada com a utilização de tecnologias de IA é a deslocação do emprego. À medida que mais tarefas se tornam automatizadas através da utilização de sistemas de IA, poderá haver menos empregos disponíveis para os humanos, à medida que as máquinas assumem certas funções repetitivas tradicionalmente desempenhadas pelas pessoas. Isto poderá levar ao aumento das taxas de desemprego e à instabilidade económica, à medida que as pessoas lutam para encontrar novas oportunidades de emprego num mundo cada vez mais automatizado.

Embora possa haver motivos para preocupação, temos de lembrar que esta não é a primeira vez que algo perturbador como isto acontece. Não vamos esquecer a revolução industrial. Enquanto a classe artesão e comerciante, em geral, sofreu com a industrialização da economia, a maioria das pessoas conseguiu se adaptar, o que levou à divisão do trabalho como a conhecemos hoje. Então, o que podemos fazer para mitigar a substituição de empregos?

Em primeiro lugar, é importante manter-se atualizado sobre os mais recentes desenvolvimentos na tecnologia de IA para identificar potenciais áreas onde o seu trabalho pode ser substituído por um sistema de IA e como evoluir para permanecer competitivo no mercado de trabalho.

Em segundo lugar, os profissionais precisam de se concentrar no desenvolvimento de competências que não são facilmente replicadas por máquinas ou algoritmos. Por exemplo, criatividade e resolução de problemas são duas habilidades difíceis de serem replicadas pelas máquinas.

Tal como as calculadoras substituíram a necessidade de cálculo manual, mas ao mesmo tempo abriram a possibilidade para cientistas e engenheiros passarem mais tempo a inovar, a IA pode libertar-nos do trabalho repetitivo e fornecer o poder de processamento extra para aumentar a nossa produtividade.

Qual é o próximo

À medida que a IA se torna mais difundida na nossa sociedade, há necessidade de uma maior educação pública sobre a aplicação, as implicações pessoais e os riscos desta tecnologia. Devemos promover uma cultura consciente da IA ​​que compreenda como a IA está a moldar as nossas vidas e os nossos negócios.

Também será importante que as organizações que implementam soluções de IA garantam que estão a tomar medidas para proteger a privacidade e a segurança dos utilizadores, ao mesmo tempo que permitem aos utilizadores o acesso aos benefícios oferecidos por esta tecnologia. Com supervisão e regulamentação adequadas, as questões de responsabilização e responsabilização podem ser abordadas antes de se tornarem problemas graves.

Por último, devemos criar um quadro regulamentar que responsabilize as empresas pela utilização da IA ​​e garanta que quaisquer decisões tomadas pelos sistemas de IA sejam justificadas, virtuosas, justas e éticas. Com estas medidas em vigor, podemos garantir que a inteligência artificial seja utilizada de forma responsável para o benefício de toda a sociedade.

Se você gostou disso, não deixe de conferir nossos outros artigos sobre IA.

  • Um guia para inserir IA em seu fluxo de trabalho
  • Adoção de IA no desenvolvimento de software – uma perspectiva interna.
  • Mitos sobre IA e segurança no emprego: os robôs acabarão com nossos empregos?
  • Ferramentas de teste de software de IA e aprendizado de máquina em entrega contínua
  • Os obstáculos da implementação de IA e robótica no setor de saúde

Fonte: BairesDev

Conteúdo Relacionado

Vídeos deep fake ao vivo cada vez mais sofisticados...
Aprenda como os processos baseados em IA aprimoram o...
O Rails 8 sempre foi um divisor de águas...
A GenAI está transformando a força de trabalho com...
A otimização de processos industriais é um desafio constante...
Entenda o papel fundamental dos testes unitários na validação...
Aprenda como os testes de carga garantem que seu...
Aprofunde-se nas funções complementares dos testes positivos e negativos...
Entenda a metodologia por trás dos testes de estresse...
Descubra a imprevisibilidade dos testes ad hoc e seu...
A nomeação de Nacho De Marco para o Fast...
O mercado embarcado tem uma necessidade de soluções de...
A Inteligência Artificial (IA) tem se tornado cada vez...
Ao relatar estatísticas resumidas para resultados de testes de...
Como você previne alucinações de grandes modelos de linguagem...
Nos últimos anos, a Inteligência Artificial Generativa (Generative AI)...
Domain-Driven Design (DDD) é uma abordagem estratégica importante para...
No atual cenário tecnológico, a escolha do framework adequado...
Vissza a blogba

Hozzászólás írása

Felhívjuk a figyelmedet, hogy a hozzászólásokat jóvá kell hagyni a közzétételük előtt.