La Inteligencia Artificial ha traído muchas oportunidades y desafíos en el desarrollo de software. Sin embargo, la mayoría de la gente olvida las implicaciones éticas de esto.
Según un panel de expertos convocado por la Unión Europea:
- Control humano: la IA no debe verse como un sustituto ni una limitación de la autonomía humana. Todos los sistemas deberían ser supervisados por humanos que deberían ser quienes decidieran si las decisiones tomadas por el software son “correctas o incorrectas”.
- Seguridad sólida: debido a que la IA trabaja con datos confidenciales y toma decisiones basadas en ellos, todos los sistemas deben ser extremadamente seguros y precisos. Esto significa que deben ser fuertes frente a los ataques externos y fiables en su proceso de toma de decisiones.
- Datos privados: La seguridad afecta a los datos recopilados, ya que se debe garantizar que toda la información recopilada sea privada y lo siga siendo.
- Transparencia: Los sistemas de IA, incluso los más complejos, deben ser fácilmente comprensibles para cualquier ser humano. Las empresas que los utilizan deben explicar cómo funciona el software de IA y cómo toma sus decisiones y dejarlo muy claro para que los usuarios finales lo entiendan.
- Diversos e imparciales: Todos los sistemas de IA deben estar disponibles para toda la humanidad, sin importar edad, género, raza o cualquier otra característica. Además, ninguna de estas características debe utilizarse para influir en los resultados y las decisiones tomadas por la IA.
- Bienestar social: los sistemas de IA deben perseguir cualquier objetivo siempre que promuevan un cambio social positivo. El panel de expertos destacó la necesidad de que todas ellas sean sostenibles, lo que significa que las soluciones de IA deben ser ambientalmente responsables como aspecto central de este cambio social.
- Responsabilidad: Todo lo relacionado con las acciones de IA debe ser auditable. La idea es garantizar que el impacto negativo de estos sistemas se reduzca al mínimo. Además, esto también significa que cualquier impacto negativo que pueda surgir deberá ser informado a su debido tiempo.
Enfrentar semejante desafío no será fácil. Mientras los gobiernos luchan por seguir el ritmo del desarrollo extremadamente dinámico de la IA y las empresas mantienen su poder sobre estos avances, los valores fundamentales propuestos parecen buenas pautas para empezar, pero hoy esto parece más una utopía que una realidad.
En este sentido, se sienten más cerca de las reglas simplistas de Asimov que de un marco ético maduro en la era de la IA. Sin embargo, comparten la intención del escritor de controlar el desarrollo de la inteligencia artificial para que no acabe siendo sólo una herramienta de lucro y control, sino un avance para todas las personas.
El camino que tenemos por delante promete ser difícil y nos pide permanecer vigilantes y activos para garantizar que la inteligencia artificial redunde en cambios positivos para todos y no sólo en el futuro distópico del que algunos nos advierten.
Si le gustó esto, asegúrese de consultar nuestros otros artículos sobre IA.
- ¿Podríamos desarrollar un sistema similar a JARVIS?
- ¿La IA ha matado a la estrella desarrolladora? ¡No, nos dio superpoderes!
- Por qué Edge AI es el futuro
- Tres consejos para encontrar un gran socio de desarrollo de IA
Fuente: BairesDev