Scroll to top
© 2019, SYNTONIZE Digital Pulse

¿Cómo se debería medir la responsabilidad legal de la IA?

¿Es necesario un maro jurídico para medir la responsabilidad legal de la IA? La Inteligencia Artificial (IA) es una realidad desde los años 50 del siglo pasado. Desde entonces ha experimentado una evolución exponencial que ha modificado la manera en la que interactuamos con la tecnología. La IA ha sido considerada siempre como una tecnología futurista, rozando siempre la ciencia ficción. Grandes títulos cinematográficos se nos vienen a la cabeza, cuya trama principal es la supremacía de la IA sobre la raza humana. Por ello no es de extrañar que para muchos suponga incluso una amenaza.

¿Qué es la Inteligencia Artificial?

No existe una definición establecida y unánimemente aceptada respecto a qué ha de entenderse por “inteligencia artificial». El Comité Económico Europeo en su informe «Inteligencia artificial: anticipar su impacto en el trabajo para garantizar una transición justa (2018/C 440/01)» lo define en sus textos.

Una disciplina tendente a utilizar las tecnologías digitales para crear sistemas capaces de reproducir de forma autónoma las funciones cognitivas humanas, incluida la captación de datos y formas de comprensión y adaptación.

Conviene hacer referencia a los considerados padres de la IA, John McCarthy y Marvin Minsky. El primero, la definió en como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”. El segundo como “la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran las personas”. Por tanto, hablando de una manera más coloquial, la inteligencia artificial es la capacidad en un software de imitar la inteligencia y el razonamiento cognitivo humano.

 

¿Pensar cómo un humano, responsabilidad como un humano?

Como una tecnología disruptiva, la Inteligencia Artificial entraña riesgos en múltiple áreas ( seguridad, controlabilidad, ética, etc.). La responsabilidad legal de la IA, debiese abarcar también posible amenazas al derecho a la vida y la integridad física de la persona. Según las normas vigentes, la consecuencia de la actuación de un robot o la IA, recae sobre un agente humano concretos, pero no sobre el robot o la IA en sí. Es cierto que existe una regulación ya dictaminada sobre la IA sencilla. Pero el problema viene por las Inteligencias Artificiales más desarrolladas. También aquellas en las que el usuario es capaz de programar determinadas acciones.

Sin embargo, la mayor causa de la necesidad de dictaminar la responsabilidad legal de la IA, es en aquellos casos de mayor autonomía. ¿Qué ocurre si la IA aprende conductas por si solo? o ¿Qué pasa si la IA toma decisiones de manera automática o auto-aprendida? Ante estas cuestiones, salta a la evidencia que las normas actuales no son suficientes.

Al mismo tiempo, el grado en que nuestra sociedad depende del uso de estos dispositivos se incrementa muy rápido. Afrontamos cada vez una mayor brecha de responsabilidad. Si esta responsabilidad legal de la IA  no se aborda correctamente supone una amenaza.

 

responsabilidad legal de la ia

La e-personality

Existen varios académicos que consideran que para medir la responsabilidad legal de la IA sería necesario, en primer lugar diferenciarla. Un marco legal de responsabilidad propia sería solo aplicable a un grupo de Inteligencia Artifical de cuarta generación. Esta es la que es capaz de razonar, auto aprender y actuar de manera totalmente autónoma. De este modo, a los robots equipados con este tipo de IA, puede otorgársele una personalidad digital. Se les considera personas electrónicas responsables. Este es el único sistema donde se le puede otorgar algún tipo de responsabilidad a la IA.

Esta postura posee varios detractores, pero otros muchos seguidores, que apoyan la idea de la creación de un ente digital con la capacidad de adquirir la responsabilidad legal.

 

¿Cómo se distribuye la responsabilidad legal de la IA?

Partimos de una premisa. La IA no deja de ser una herramienta creada para el servicio del hombre por el propio hombre. Por tanto, está en la mano del programador la de realizar una adecuada labor de determinación de los patrones de actuación y limitar en base a los derechos fundamentales y libertades humanas a la máquina. Con esta premisa, se puede determinar entonces que los diferentes agentes sobre los que puede recaer la responsabilidad legal de la IA son:

  • El productor/fabricantes. El productor sería responsable en caso de detrimento de las cualidades de sus productos (producto defectuoso) y en base al comportamiento del producto (negligencia).
  • El programador. Será responsable por los daños causados por los robots cuando se encuentren relacionados con defectos en el software, fallos o errores.
  • El usuario-programador. Responsable cuando el producto ofrezca la opción de programación por el usuario final, y la cuestión legal sea responsable de la programación final de este.
  • El dueño. La responsabilidad recaerá sobre este cuando el caso sea producido por un mal mantenimiento del producto o por un uso inadecuado del mismo.

 

¿Podría llegar la Inteligencia Artificial a poseer responsabilidad penal?

En un futuro probable, los robots pueden llegar a adquirir autoconciencia de su relación con el entorno y tomar decisiones autónomamente. Entonces, podríamos llegar a plantearnos una reinterpretación de los preceptos del Código Penal. Por ejemplo, cuando el doliente de la acción de un robot, recayese sobre una persona humana. En este caso, no debería permitírsele seguir funcionando. Sería necesario su desactivación o eliminación. Los robots deberían entonces contar con una especie de «kill switch» o botón de la muerte.