A adoção de diretrizes inconsistentes por empresas aleatórias pode não ser suficiente para garantir que o desenvolvimento da IA não coloque a inovação ou os lucros à frente dos direitos e necessidades humanos.
A inteligência artificial (IA) é uma tecnologia com potencial para contribuir para ganhos incríveis em diversos campos, como medicina, educação e saúde ambiental. Mas também inclui o potencial para muitos tipos de utilização indevida, incluindo discriminação, preconceito, mudança do papel da responsabilidade humana e outras considerações éticas. É por isso que muitos especialistas apelam ao desenvolvimento de regras e leis responsáveis em matéria de IA.
Algumas empresas desenvolveram seu próprio conjunto de princípios de IA. Para Microsoft, eles são Justiça, Confiabilidade e Segurança, Privacidade e Proteção, Inclusão, Transparência e Responsabilidade. O vídeo a seguir explica a abordagem da Microsoft sobre IA responsável:
No entanto, a adoção de diretrizes inconsistentes por empresas aleatórias pode não ser suficiente para garantir que o desenvolvimento da IA não coloque a inovação ou os lucros à frente dos direitos e necessidades humanas. No entanto, quem deve determinar as regras que todos devem seguir? Quais valores essas regras refletirão? E quais deveriam ser as regras? Estas são questões importantes que não podem ser completamente examinadas aqui. Mas a seguir oferecemos uma introdução a algumas das questões importantes e damos uma olhada no que já está sendo feito.
Reconhecimento de IA Responsável
IA responsável significa coisas diferentes para pessoas diferentes. Várias interpretações destacam a transparência, a responsabilidade e a prestação de contas ou o cumprimento de leis, regulamentos e valores organizacionais e de clientes.
Outra abordagem é evitar o uso de dados ou algoritmos tendenciosos e garantir que as decisões automatizadas sejam explicáveis. O conceito de explicabilidade é especialmente importante. De acordo com IBMa inteligência artificial explicável (XAI) é “um conjunto de processos e métodos que permitem aos usuários humanos compreender e confiar nos resultados e resultados criados por algoritmos de aprendizado de máquina”.
Devido a estes diferentes significados, as entidades que produzem regras e directrizes para a utilização da IA devem definir cuidadosamente o que esperam alcançar. Mesmo depois de tomarem essa decisão, estas entidades devem refletir sobre o complexo conjunto de questões envolvidas no estabelecimento das regras. Eles devem considerar questões como:
- Os padrões éticos deveriam ser incorporados aos sistemas de IA?
- Em caso afirmativo, que conjunto de valores deveriam refletir?
- Quem decide qual conjunto será usado?
- Como os desenvolvedores devem resolver as diferenças entre vários conjuntos de valores?
- Como podem os reguladores e outros determinar se o sistema reflecte os valores declarados?
Deve ser dada mais atenção às considerações relacionadas com os dados que os sistemas de IA utilizam e ao potencial de enviesamento. Por exemplo:
- Quem está coletando os dados?
- Quais dados serão coletados e quais não serão coletados intencionalmente?
- Quem está rotulando os dados e que método está usando para fazer isso?
- Como o custo da coleta de dados afeta quais dados são usados?
- Quais sistemas são usados para supervisionar o processo e identificar preconceitos?
A UE lidera
Em 2018, a União Europeia (UE) aprovou medidas que garantem aos utilizadores de serviços online algum controlo sobre os seus próprios dados tecnológicos pessoais. O mais conhecido é o Regulamento Geral de Proteção de Dados (RGPD). A UE está novamente na vanguarda da garantia da utilização ética da IA, que pode gerar algoritmos que tratam informações muito pessoais, como a saúde ou a situação financeira.
Alguns esforços da UE estão a encontrar resistência. De acordo com Brookings“A União Europeia proposto A regulamentação da inteligência artificial (IA), lançada em 21 de abril, é um desafio direto à visão comum do Vale do Silício de que a lei deveria deixar a tecnologia emergente de lado. A proposta estabelece uma estrutura regulatória diferenciada que proíbe alguns usos de IA, regula fortemente os usos de alto risco e regula levemente os sistemas de IA menos arriscados.”
O regulamento inclui orientações sobre como gerir dados e governação de dados, documentação e manutenção de registos, transparência e fornecimento de informações aos utilizadores, supervisão humana e robustez, precisão e segurança. No entanto, o regulamento centra-se mais nos sistemas de IA e menos nas empresas que os desenvolvem. Ainda assim, as diretrizes são um passo importante para a criação de padrões mundiais de IA.
Outras iniciativas
Além da UE, muitas outras entidades estão a desenvolver regulamentos e normas. Aqui estão alguns exemplos.
- IEEE. O Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) publicou um artigo intitulado Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems. Aborda questões como direitos humanos, responsabilidade, prestação de contas, transparência e minimização dos riscos de uso indevido.
- OCDE. O Organização para Cooperação e Desenvolvimento Econômico (DCE) estabeleceu princípios sobre IA que se concentram nos benefícios para as pessoas e respeitam o Estado de direito, os direitos humanos e os valores democráticos. Eles também adotam transparência, segurança e responsabilidade.
- FEM. O Fórum Econômico Mundial (WEF) desenvolveu um white paper intitulado Governança de IA: uma abordagem holística para implementar a ética na IA. A sua introdução afirma: “O objetivo (deste Livro Branco) é delinear abordagens para determinar um regime de governação da IA que promova os benefícios da IA, ao mesmo tempo que considera os riscos relevantes que surgem da utilização da IA e de sistemas autónomos”.
Nos EUA, o Departamento de Defesa adotou um conjunto de princípios éticos para a utilização da IA. Incluem cinco áreas principais, afirmando que a utilização da IA deve ser responsável, equitativa, rastreável, fiável e governável.
Os governos e outras entidades também podem considerar alternativas e complementos à regulamentação, tais como normas, painéis consultivos, responsáveis pela ética, listas de avaliação, educação e formação, e pedidos de automonitorização.
E quanto à conformidade?
Outra consideração nesta discussão é: “Mesmo que os governos e outras entidades criem regras e leis éticas sobre IA, as empresas irão cooperar?” De acordo com um recente Retrabalhado artigo, “Daqui a 10 anos, é improvável que o design ético de IA seja amplamente adotado”. O artigo prossegue explicando que os líderes empresariais e políticos, investigadores e ativistas estão preocupados com o facto de a evolução da IA “continuar a concentrar-se principalmente na otimização dos lucros e no controlo social”.
No entanto, os líderes e outras pessoas preocupadas com esta questão devem continuar a definir o que é a IA ética e a criar regras e directrizes para ajudar outros a adoptar esses princípios. Embora o mecanismo dos valores da empresa determine o quanto eles irão abraçar esses conceitos, o mecanismo de escolha do consumidor determinará se aqueles que não permanecerão à tona.
Se você gostou disso, não deixe de conferir nossos outros artigos sobre IA.
- Como criar um sistema de IA em 5 etapas
- Hiperautomação
- O impacto da IA nos testes de software: desafios e oportunidades
- É realmente mais fácil implementar IA hoje?
- Como a IoT, a IA e o Blockchain lideram o caminho para um setor de energia mais inteligente
Fonte: BairesDev