Como a IA deve ser regulamentada?

Como a IA deve ser regulamentada?

A adoção de diretrizes inconsistentes por empresas aleatórias pode não ser suficiente para garantir que o desenvolvimento da IA ​​não coloque a inovação ou os lucros à frente dos direitos e necessidades humanos.

Imagem em destaque

A inteligência artificial (IA) é uma tecnologia com potencial para contribuir para ganhos incríveis em diversos campos, como medicina, educação e saúde ambiental. Mas também inclui o potencial para muitos tipos de utilização indevida, incluindo discriminação, preconceito, mudança do papel da responsabilidade humana e outras considerações éticas. É por isso que muitos especialistas apelam ao desenvolvimento de regras e leis responsáveis ​​em matéria de IA.

Algumas empresas desenvolveram seu próprio conjunto de princípios de IA. Para Microsoft, eles são Justiça, Confiabilidade e Segurança, Privacidade e Proteção, Inclusão, Transparência e Responsabilidade. O vídeo a seguir explica a abordagem da Microsoft sobre IA responsável:

No entanto, a adoção de diretrizes inconsistentes por empresas aleatórias pode não ser suficiente para garantir que o desenvolvimento da IA ​​não coloque a inovação ou os lucros à frente dos direitos e necessidades humanas. No entanto, quem deve determinar as regras que todos devem seguir? Quais valores essas regras refletirão? E quais deveriam ser as regras? Estas são questões importantes que não podem ser completamente examinadas aqui. Mas a seguir oferecemos uma introdução a algumas das questões importantes e damos uma olhada no que já está sendo feito.

Reconhecimento de IA Responsável

IA responsável significa coisas diferentes para pessoas diferentes. Várias interpretações destacam a transparência, a responsabilidade e a prestação de contas ou o cumprimento de leis, regulamentos e valores organizacionais e de clientes.

Outra abordagem é evitar o uso de dados ou algoritmos tendenciosos e garantir que as decisões automatizadas sejam explicáveis. O conceito de explicabilidade é especialmente importante. De acordo com IBMa inteligência artificial explicável (XAI) é “um conjunto de processos e métodos que permitem aos usuários humanos compreender e confiar nos resultados e resultados criados por algoritmos de aprendizado de máquina”.

Devido a estes diferentes significados, as entidades que produzem regras e directrizes para a utilização da IA ​​devem definir cuidadosamente o que esperam alcançar. Mesmo depois de tomarem essa decisão, estas entidades devem refletir sobre o complexo conjunto de questões envolvidas no estabelecimento das regras. Eles devem considerar questões como:

  • Os padrões éticos deveriam ser incorporados aos sistemas de IA?
  • Em caso afirmativo, que conjunto de valores deveriam refletir?
  • Quem decide qual conjunto será usado?
  • Como os desenvolvedores devem resolver as diferenças entre vários conjuntos de valores?
  • Como podem os reguladores e outros determinar se o sistema reflecte os valores declarados?

Deve ser dada mais atenção às considerações relacionadas com os dados que os sistemas de IA utilizam e ao potencial de enviesamento. Por exemplo:

  • Quem está coletando os dados?
  • Quais dados serão coletados e quais não serão coletados intencionalmente?
  • Quem está rotulando os dados e que método está usando para fazer isso?
  • Como o custo da coleta de dados afeta quais dados são usados?
  • Quais sistemas são usados ​​para supervisionar o processo e identificar preconceitos?

A UE lidera

Em 2018, a União Europeia (UE) aprovou medidas que garantem aos utilizadores de serviços online algum controlo sobre os seus próprios dados tecnológicos pessoais. O mais conhecido é o Regulamento Geral de Proteção de Dados (RGPD). A UE está novamente na vanguarda da garantia da utilização ética da IA, que pode gerar algoritmos que tratam informações muito pessoais, como a saúde ou a situação financeira.

Alguns esforços da UE estão a encontrar resistência. De acordo com Brookings“A União Europeia proposto A regulamentação da inteligência artificial (IA), lançada em 21 de abril, é um desafio direto à visão comum do Vale do Silício de que a lei deveria deixar a tecnologia emergente de lado. A proposta estabelece uma estrutura regulatória diferenciada que proíbe alguns usos de IA, regula fortemente os usos de alto risco e regula levemente os sistemas de IA menos arriscados.”

O regulamento inclui orientações sobre como gerir dados e governação de dados, documentação e manutenção de registos, transparência e fornecimento de informações aos utilizadores, supervisão humana e robustez, precisão e segurança. No entanto, o regulamento centra-se mais nos sistemas de IA e menos nas empresas que os desenvolvem. Ainda assim, as diretrizes são um passo importante para a criação de padrões mundiais de IA.

Outras iniciativas

Além da UE, muitas outras entidades estão a desenvolver regulamentos e normas. Aqui estão alguns exemplos.

  • IEEE. O Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) publicou um artigo intitulado Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems. Aborda questões como direitos humanos, responsabilidade, prestação de contas, transparência e minimização dos riscos de uso indevido.
  • OCDE. O Organização para Cooperação e Desenvolvimento Econômico (DCE) estabeleceu princípios sobre IA que se concentram nos benefícios para as pessoas e respeitam o Estado de direito, os direitos humanos e os valores democráticos. Eles também adotam transparência, segurança e responsabilidade.
  • FEM. O Fórum Econômico Mundial (WEF) desenvolveu um white paper intitulado Governança de IA: uma abordagem holística para implementar a ética na IA. A sua introdução afirma: “O objetivo (deste Livro Branco) é delinear abordagens para determinar um regime de governação da IA ​​que promova os benefícios da IA, ao mesmo tempo que considera os riscos relevantes que surgem da utilização da IA ​​e de sistemas autónomos”.

Nos EUA, o Departamento de Defesa adotou um conjunto de princípios éticos para a utilização da IA. Incluem cinco áreas principais, afirmando que a utilização da IA ​​deve ser responsável, equitativa, rastreável, fiável e governável.

Os governos e outras entidades também podem considerar alternativas e complementos à regulamentação, tais como normas, painéis consultivos, responsáveis ​​pela ética, listas de avaliação, educação e formação, e pedidos de automonitorização.

E quanto à conformidade?

Outra consideração nesta discussão é: “Mesmo que os governos e outras entidades criem regras e leis éticas sobre IA, as empresas irão cooperar?” De acordo com um recente Retrabalhado artigo, “Daqui a 10 anos, é improvável que o design ético de IA seja amplamente adotado”. O artigo prossegue explicando que os líderes empresariais e políticos, investigadores e ativistas estão preocupados com o facto de a evolução da IA ​​“continuar a concentrar-se principalmente na otimização dos lucros e no controlo social”.

No entanto, os líderes e outras pessoas preocupadas com esta questão devem continuar a definir o que é a IA ética e a criar regras e directrizes para ajudar outros a adoptar esses princípios. Embora o mecanismo dos valores da empresa determine o quanto eles irão abraçar esses conceitos, o mecanismo de escolha do consumidor determinará se aqueles que não permanecerão à tona.

Se você gostou disso, não deixe de conferir nossos outros artigos sobre IA.

  • Como criar um sistema de IA em 5 etapas
  • Hiperautomação
  • O impacto da IA ​​nos testes de software: desafios e oportunidades
  • É realmente mais fácil implementar IA hoje?
  • Como a IoT, a IA e o Blockchain lideram o caminho para um setor de energia mais inteligente

Fonte: BairesDev

Conteúdo Relacionado

Deepfakes de IA: uma ameaça à autenticação biométrica facial
Vídeos deep fake ao vivo cada vez mais sofisticados...
Desenvolvimento de produtos orientado por IA: da ideação à prototipagem
Aprenda como os processos baseados em IA aprimoram o...
O Rails 8 está pronto para redefinir o Desenvolvimento Web
O Rails 8 sempre foi um divisor de águas...
Como os trabalhadores da Silver aproveitam o GenAI para qualificação
A GenAI está transformando a força de trabalho com...
Otimizando Processos Industriais: Técnicas Avançadas para maior eficiência
A otimização de processos industriais é um desafio constante...
Testes Unitários: Definição, Tipos e Melhores Práticas
Entenda o papel fundamental dos testes unitários na validação...
Teste de carga: definição, ferramentas e melhores práticas
Aprenda como os testes de carga garantem que seu...
Comparação entre testes positivos e negativos: estratégias e métodos
Aprofunde-se nas funções complementares dos testes positivos e negativos...
O que é teste de estresse? Levando o teste de software ao seu limite
Entenda a metodologia por trás dos testes de estresse...
Testes Ad Hoc: Adotando a espontaneidade no controle de qualidade
Descubra a imprevisibilidade dos testes ad hoc e seu...
Nacho De Marco agora é membro do Fast Company Impact Council
A nomeação de Nacho De Marco para o Fast...
Primeiro MPU single-core com interface de câmera MIPI CSI-2 e áudio
O mercado embarcado tem uma necessidade de soluções de...
A Importância da Inteligência Artificial Explicável (XAI) para Desenvolvedores
A Inteligência Artificial (IA) tem se tornado cada vez...
Entendendo Distribuições Multimodais em Testes de Desempenho
Ao relatar estatísticas resumidas para resultados de testes de...
Como Prevenir Alucinações em Aplicativos GenAI com Streaming de Dados em Tempo Real
Como você previne alucinações de grandes modelos de linguagem...
Roteamento de Consulta: Otimizando Aplicativos Generative AI Avançados
Nos últimos anos, a Inteligência Artificial Generativa (Generative AI)...
10 Armadilhas Comuns do Domain-Driven Design (DDD) que Você Deve Evitar
Domain-Driven Design (DDD) é uma abordagem estratégica importante para...
Framework mais utilizado no mercado atualmente: Explorando o Poder do Ionic
No atual cenário tecnológico, a escolha do framework adequado...
Bloga dön

Yorum yapın

Yorumların yayınlanabilmesi için onaylanması gerektiğini lütfen unutmayın.