La adopción de directrices inconsistentes por parte de empresas aleatorias puede no ser suficiente para garantizar que el desarrollo de la IA no anteponga la innovación o las ganancias a los derechos y necesidades humanos.
La inteligencia artificial (IA) es una tecnología con el potencial de contribuir a avances increíbles en diversos campos, como la medicina, la educación y la salud ambiental. Pero también incluye la posibilidad de que se produzcan muchos tipos de uso indebido, incluida la discriminación, los prejuicios, el cambio del papel de la responsabilidad humana y otras consideraciones éticas. Es por eso que muchos expertos piden el desarrollo de normas y leyes responsables sobre la IA.
Algunas empresas han desarrollado su propio conjunto de principios de IA. ParaMicrosoft , son Equidad, Confianza y Seguridad, Privacidad y Protección, Inclusión, Transparencia y Responsabilidad. El siguiente vídeo explica el enfoque de Microsoft hacia la IA responsable:
Sin embargo, la adopción de directrices inconsistentes por parte de empresas aleatorias puede no ser suficiente para garantizar que el desarrollo de la IA no anteponga la innovación o las ganancias a los derechos y necesidades humanos. Sin embargo, ¿quién debería determinar las reglas que todos deben seguir? ¿Qué valores reflejarán estas reglas? ¿Y cuáles deberían ser las reglas? Éstas son cuestiones importantes que no pueden examinarse aquí en su totalidad. Pero a continuación ofrecemos una introducción a algunas de las cuestiones importantes y echamos un vistazo a lo que ya se está haciendo.
Reconocimiento de IA responsable
La IA responsable significa cosas diferentes para diferentes personas. Varias interpretaciones destacan la transparencia, la responsabilidad y la rendición de cuentas o el cumplimiento de las leyes, regulaciones y valores organizacionales y del cliente.
Otro enfoque es evitar el uso de datos o algoritmos sesgados y garantizar que las decisiones automatizadas sean explicables. El concepto de explicabilidad es especialmente importante. Según IBM, la inteligencia artificial explicable (XAI) es "un conjunto de procesos y métodos que permiten a los usuarios humanos comprender y confiar en los resultados creados por los algoritmos de aprendizaje automático".
Debido a estos diferentes significados, las entidades que producen reglas y directrices para el uso de la IA deben definir cuidadosamente lo que esperan lograr. Incluso después de tomar esta decisión, estas entidades deben reflexionar sobre el complejo conjunto de cuestiones involucradas en el establecimiento de las reglas. Deben considerar preguntas como:
- ¿Deberían incorporarse normas éticas a los sistemas de IA?
- Si es así, ¿qué conjunto de valores deberían reflejar?
- ¿Quién decide qué conjunto se utilizará?
- ¿Cómo deberían los desarrolladores resolver las diferencias entre varios conjuntos de valores?
- ¿Cómo pueden los reguladores y otros determinar si el sistema refleja los valores declarados?
Se debe prestar más atención a las consideraciones relacionadas con los datos que utilizan los sistemas de IA y el potencial de sesgo. Por ejemplo:
- ¿Quién recopila los datos?
- ¿Qué datos se recogerán y cuáles no se recogerán intencionadamente?
- ¿Quién etiqueta los datos y qué método utilizan para hacerlo?
- ¿Cómo afecta el costo de la recopilación de datos a los datos que se utilizan?
- ¿Qué sistemas se utilizan para supervisar el proceso e identificar sesgos?
La UE lidera
En 2018, la Unión Europea (UE) aprobó medidas que garantizan a los usuarios de servicios en línea cierto control sobre sus propios datos tecnológicos personales. El más conocido es el Reglamento General de Protección de Datos (GDPR). La UE vuelve a estar a la vanguardia a la hora de garantizar el uso ético de la IA, que puede generar algoritmos que procesan información muy personal, como la salud o la situación financiera.
Algunos esfuerzos de la UE están encontrando resistencia. Según Brookings , “la regulación de la inteligencia artificial (IA) propuesta por la Unión Europea, lanzada el 21 de abril, es un desafío directo a la opinión común de Silicon Valley de que la ley debería dejar de lado la tecnología emergente. La propuesta establece un marco regulatorio matizado que prohíbe algunos usos de la IA, regula en gran medida los usos de alto riesgo y regula ligeramente los sistemas de IA menos riesgosos”.
El reglamento incluye orientación sobre la gestión de datos y la gobernanza de datos, documentación y mantenimiento de registros, transparencia y suministro de información a los usuarios, supervisión humana y solidez, precisión y seguridad. Sin embargo, la regulación se centra más en los sistemas de IA y menos en las empresas que los desarrollan. Aun así, las directrices son un paso importante hacia la creación de estándares globales de IA.
Otras iniciativas
Además de la UE, muchas otras entidades están desarrollando regulaciones y estándares. Aquí hay unos ejemplos.
- IEEE. El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) publicó un artículo titulado Diseño éticamente alineado: una visión para priorizar el bienestar humano con sistemas autónomos e inteligentes. Aborda cuestiones como los derechos humanos, la responsabilidad, la rendición de cuentas, la transparencia y la minimización de los riesgos de uso indebido.
- OCDE. La Organización para la Cooperación y el Desarrollo Económico (DCE) ha establecido principios sobre la IA que se centran en los beneficios para las personas y respetan el estado de derecho, los derechos humanos y los valores democráticos. También adoptan la transparencia, la seguridad y la rendición de cuentas.
- FEM. El Foro Económico Mundial (WEF) ha elaborado un documento técnico titulado Gobernanza de la IA: un enfoque holístico para la implementación de la ética en la IA. Su introducción dice: "El objetivo (de este Libro Blanco) es esbozar enfoques para determinar un régimen de gobernanza de la IA que promueva los beneficios de la IA, considerando al mismo tiempo los riesgos relevantes que surgen del uso de la IA y de los sistemas autónomos".
En Estados Unidos, el Departamento de Defensa ha adoptado un conjunto de principios éticos para el uso de la IA. Incluyen cinco áreas clave y establecen que el uso de la IA debe ser responsable, equitativo, rastreable, confiable y gobernable.
Los gobiernos y otras entidades también pueden considerar alternativas y complementos a la regulación, como estándares, paneles asesores, funcionarios de ética, listas de evaluación, educación y capacitación, y solicitudes de autocontrol.
¿Qué pasa con el cumplimiento?
Otra consideración en esta discusión es: "Incluso si los gobiernos y otras entidades crean reglas y leyes éticas sobre la IA, ¿cooperarán las empresas?" Según un artículo reciente de Reworked , “dentro de 10 años, es poco probable que el diseño ético de IA sea ampliamente adoptado”. El artículo continúa explicando que a los líderes empresariales y políticos, investigadores y activistas les preocupa que la evolución de la IA "continúe centrándose principalmente en la optimización de las ganancias y el control social".
Sin embargo, los líderes y otras personas preocupadas por este tema deben continuar definiendo qué es la IA ética y crear reglas y pautas para ayudar a otros a adoptar estos principios. Si bien el motor de valores de la empresa determinará en qué medida adoptarán estos conceptos, el motor de elección del consumidor determinará si no se mantendrán a flote.
Si le gustó esto, asegúrese de consultar nuestros otros artículos sobre IA.
- Cómo crear un sistema de IA en 5 pasos
- Hiperautomatización
- El impacto de la IA en las pruebas de software: desafíos y oportunidades
- ¿Es realmente más fácil implementar la IA hoy?
- Cómo IoT, AI y Blockchain abren el camino hacia un sector energético más inteligente
Fuente: BairesDev