Scroll to top
© 2019, SYNTONIZE Digital Pulse

La ética de la IA basada en los derechos humanos

¿Quién debería estar en la junta de ética de una empresa de tecnología que se dedica al negocio de la inteligencia artificial (IA)?

Después del fracaso devastador del Consejo Asesor Externo de Tecnología Avanzada (ATEAC) propuesto por Google a principios de este año, que se anunció y luego se canceló en una semana, es crucial volver a hacernos esta pregunta.

Las compañías tecnológicas se están dando cuenta de que deben considerar de manera proactiva los impactos éticos de sus innovaciones en IAEs por eso que las empresas que trabajan en este sector están publicando documentos públicos como “Principios para IA“. 

¿Pero, qué versión de ética se debería seguir?

 

Normas éticas, principios y juicios que no dependen de cuestiones sobre tiempo, lugar o cultura. Sin embargo, hay desacuerdos en estas líneas. Que no definen fácilmente como influye esto en el entorno de la inteligencia artificial.

Existen también complicaciones adicionales porque las empresas, a diferencia de los propios individuos o los gobiernos, responden ante los accionistas. Por este motivo, cumplir con las obligaciones fiduciarias puede significar priorizar el crecimiento de la compañía y enfatizar en las ganancias por encima de la ética.

Trabajar en estas líneas ha producido un escepticismo global sobre la sinceridad en la ética corporativa. Cada vez que las empresas tecnológicas hablan sobre ética, se les critica por temor a que se trate de una estrategia para evitar regulaciones gubernamentales estrictas.

Actualmente, la IA tiene el potencial de impactar en la vida de todo el mundo. Afecta a varios sectores: militar, policial, bancario, legal, transporte, etc. Por este motivo, es fundamental establecer un control. Los sistemas de algoritmos pueden amenazar los derechos humanos cuando se emplea la inteligencia artificial para limitar el acceso a la información y servicios públicos, por ejemplo.

En este sentido, la Unión Europea ha publicado 7 principios para el desarrollo ético de la Inteligencia Artificial. Las compañías deben supervisar el desarrollo de los programas que incluyan este tipo de tecnología y han de establecer medidas para no limitar la autoridad humana.

Estándares éticos propuestos por la Unión Europea para el desarrollo de IA

 

  • La supervisión humana. Los sistemas desarrollados de IA deben favorecer sociedades equitativas. Apoyando la acción humana y los derechos fundamentales, sin limitar la autonomía humana.
  • Seguridad. Los algoritmos deben ser seguros y lo suficientemente sólidos como para atender a los posibles errores que se den durante todas las fases del ciclo de vida del sistema de IA.
  • Privacidad y control de datos. El ciudadanos debe poder tener un control total sobre sus propios datos. Los datos que se conciernen, no pueden ser utilizados en su perjuicio o discriminación.
  • Transparencia. Garantizar la trazabilidad de los sistemas de IA.
  • No discriminación y equidad. Los sistemas de IA deben considerar las habilidades y requisitos humanos, garantizando la accesibilidad de todos.
  • Bienestar social y ambiental. Los sistemas de inteligencia artificial deben mejorar el cambio social de manera positiva. Apoyando la sostenibilidad y responsabilidad con el medio ambiente.
  • Responsabilidad. Se deben establecer una serie de mecanismos para garantizar la rendición de cuentas en los sistemas de IA y en sus resultados.

Los derechos humanos componen unos ideales imperfectos, sujetos a interpretaciones e integrados en agendas de cooperación con grandes expectativas. Aunque en teoría son globales,  los derechos humanos no se respetan en todas las partes del mundo. Sin embargo, la Declaración Universal de los Derechos Humanos de las Naciones Unidas establece la igualdad social, legal y las libertades individuales fundamentales.

Las empresas de tecnología deben adoptar estos estándares comprometiéndose explícitamente. Incluyendo los derechos humanos como base en la estrategia corporativa respecto a la inteligencia artificial.

 

ia

Consenso internacional para una IA enfocada en el hombre

 

La Comisión Europea pretende llevar el enfoque de la ética en la IA al panorama internacional. Porque la tecnología, los datos y los algoritmos no tienen fronteras. Persiguiendo este fin, la Comisión reforzará la cooperación entre socios que comparten las mismas ideas, como Japón, Canadá o Singapur. Desempeñando un papel activo en los debates e iniciativas internacionales.

Para garantizar este desarrollo ético en el sector de desarrollo, la Comisión hará público en 2019 un conjunto de redes de centros de investigación de inteligencia artificial. Comenzando a crear redes de centros de innovación digital a través de estados miembros e instituciones interesadas. Se han iniciado así discusiones para desarrollar e implementar un modelo para compartir datos y utilizar de manera eficiente los datos comunes.

Para garantizar la seguridad y transparencia, y que la IA se ajuste a los principios éticos establecidos, los desarrollos basados en inteligencia artificial se someterán a auditorias externas e internas.
Con el fin de la que la inteligencia artificial se integre de manera ética dentro de los procesos diarios de las empresas, existen tres pasos clave:
En un principio, centrarnos en los datos que se proporcionan.

En el caso de que los algoritmos no estén tomando decisiones correctas o éticas, debe ser porque el factor humano ha proporcionado datos en esta línea. Hay que asegurarse de que los datos proporcionados son correctos para el aprendizaje de los algoritmos.

Por otro lado, con el objetivo de garantizar la ética, hay que realizar una vigilancia adecuada.

Asignando responsabilidades a las distintas personas involucradas en los procesos para identificar a los responsables de actuaciones incorrectas. Este proceso se agiliza si la propia compañía tiene un responsable ético. Que sea capaz de desempeñar una profunda supervisión de las acciones y resultados de los algoritmos de IA desarrollados.

Por último, se debe considerar el papel de los responsables de esta tecnología.

Que tienen que estar preparados para actuar sobre los algoritmos en el momento en el que estén sobrepasando los límites considerados como éticos. Poner controles en el aprendizaje automático, incluir parámetros que apoyen las decisiones éticas o que identifiquen la toma de decisiones no ética puede ser muy útil en los procesos.

 

Actualmente, la mayoría de las compañías tienen como prioridad la definición de un código ético. Que aporte transparencia en las acciones llevadas a cabo por sus sistemas y desarrollos de IA. Sirviendo de ejemplo para los próximos avances y siendo una solución a los posibles dilemas que surjan sobre el uso y desarrollo de esta tecnología.

Por lo tanto, aplicar una base ética en los desarrollos de procesos de IA es determinante para que esta tecnología esté bien dirigida en la toma de decisiones. La correcta y completa formación en ética hacia programadores y responsables de innovación, con un riguroso control de los procesos, será fundamental para una actuación éticamente responsable.