Los retos de la Inteligencia Artificial

Los retos de la Inteligencia Artificial

El pasado 1 de diciembre, el gobierno español anunció una inversión pública de 600 millones de euros para el periodo 2021-2023 con el fin de impulsar la Estrategia Nacional de Inteligencia Artificial (ENIA), que incluye 30 medidas, entre ellas, el impulso a la investigación en IA, la promoción de nuevos centros nacionales de desarrollo tecnológico multidisciplinar con especial foco en neuro tecnologías y la creación de programas de ayudas a empresas para el desarrollo de soluciones en inteligencia artificial y datos.

Asimismo, el pasado 20 de octubre de 2020, los eurodiputados aprobaron propuestas para regular la inteligencia artificial en la UE con el fin de promover la innovación, la ética y la confianza en la tecnología de la IA en el ámbito de la UE.

Cualquier ley futura en IA tendrá que atenerse a los siguientes principios:

  • Acción y supervisión humana
  • Solidez técnica y seguridad
  • Gestión de la privacidad y de los datos
  • Transparencia
  • Diversidad, no discriminación y equidad
  • Bienestar social y medioambiental
  • Rendición de cuentas

La Iniciativa legislativa pide un marco de responsabilidad civil pensando en el futuro, que haga responsables a quienes trabajan con una IA de riesgo de cualquier perjuicio que esta pudiera causar. Las normas se aplicarán a cualquier actividad de inteligencia artificial, física o virtual, que provoque daños o perjuicios a la vida, la salud, la integridad física o la propiedad, o que provoque daños inmateriales significativos que den lugar a una «pérdida económica verificable».

Los principales riesgos relacionados con el uso de la inteligencia artificial afectan a derechos fundamentales (como la protección de datos personales y la privacidad, o la no discriminación) y la seguridad, así como cuestiones relativas a la responsabilidad civil.

Las tecnologías de inteligencia artificial que presenten un riesgo elevado (por ejemplo, que sean capaces de aprender de manera autónoma) habrán de diseñarse de tal modo que permitan en cualquier momento la supervisión humana. Cuando se utilice una función que pudiera atentar gravemente contra los principios éticos y resultar peligrosa, las capacidades de autoaprendizaje deberán desactivarse y se deberá restaurar plenamente el control humano.

Una de las cuestiones a resolver, es a quién pertenece la propiedad intelectual de algo que se ha desarrollado íntegramente con inteligencia artificial.

Los objetivos de la Inteligencia Artificial son los siguientes:

  1. Mejorar los servicios a los ciudadanos.
  2. Aumentar la eficiencia, competitividad y seguridad jurídica para las empresas que utilicen IA y les permita seguir innovando en el campo de la energía, seguridad, asistencia sanitaria, maquinaria, transporte y economía circular.
  3. Las administraciones públicas puedan ofrecer servicios públicos más eficientes, sostenibles y económicos en sectores estratégicos como el transporte, energía, educación y gestión de residuos.

Los usos de la Inteligencia Artificial

La IA se puede utilizar para múltiples finalidades que, en principio, tienen ventajas en la sociedad, para realizar diagnósticos médicos más precisos y rápidos, realizar tareas peligrosas y repetitivas y ahorro de tiempos para el ser humano. También puede ayudar en la lucha contra la ciberdelincuencia y minimizar el uso de electricidad. La UE está facilitando y mejorando la cooperación sobre IA en toda la Unión para impulsar su competitividad y garantizar la confianza basada en los valores de la UE. El enfoque de la IA y la robótica aborda los aspectos tecnológicos, éticos, legales y socioeconómicos para impulsar la capacidad industrial e investigadora de la UE y poner la IA al servicio de los ciudadanos y la economía europea.

Anteriormente, el 19 de febrero de 2020, la Comisión Europea publicó un Libro Blanco sobre la IA con el objetivo de fomentar un ecosistema europeo de excelencia y confianza en la IA y un Informe sobre los aspectos de seguridad y responsabilidad de la IA.

El Libro Blanco propone medidas para agilizar la investigación, fomentar la colaboración entre los Estados miembros y aumentar la inversión en el desarrollo y despliegue de la IA; Opciones políticas para un futuro marco regulador de la UE que determinaría los requisitos legales que se aplicarían a los actores relevantes, con un enfoque particular en las aplicaciones de alto riesgo.

Los sesgos en la Inteligencia Artificial

De acuerdo con la definición de la RAE, un sesgo es un «error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras«.

El posible uso de sesgos con finalidades discriminatorias ha sido una de las cuestiones que más preocupaciones ha suscitado esta tecnología, es decir, el uso de un conjunto de datos en los que determinados grupos de población están infrarrepresentados y que el uso de dicha tecnología puede dar lugar a discriminaciones efectivas.

Estos sesgos integrados en los sistemas de Inteligencia Artificial pueden tener repercusiones negativas en forma de discriminación contra muchas personas y, para ello, resulta fundamental conseguir que los sistemas de aprendizaje o learning machine de los algoritmos se nutran de datos de calidad exentos de sesgos en todas las etapas del proceso, cuyo resultado podría ser perjudicial, discriminatorio y con consecuencias jurídicas perniciosas e irreparables para los individuos afectados, por ej. denegación de un crédito financiero, prima más alta para el acceso a un seguro médico privado, que la tecnología identifique erróneamente la comisión de un delito, o el rechazo automático a un empleo para el que se está cualificado, etc.

Asimismo, las propuestas aprobadas en la Eurocámara se orientan a que la IA de alto riesgo, es decir aquellos que conciernen a un uso crítico (ej. Que tengan efectos jurídicos, riesgos para la salud, etc.) en el contexto de un sector crítico (ej. Sanidad, policía, ordenamiento jurídico, etc.) estará sujeta a normas estrictas (ensayos de conformidad, controles, sanciones).

Con relación a los tratamientos de datos personales que incorporan las tecnologías de IA, hay que tener en cuenta la Guía de la AEPD, publicada el 13 de febrero de 2020; en ella se pone foco en el principio de calidad de los datos, la transparencia, el análisis de riesgos, la implementación de medidas de seguridad, y las auditorías que monitoricen y aseguren la privacidad por defecto de los usuarios de acuerdo con el RGPD. Con todo ello, y a pesar del contexto actual de crisis sanitaria, se espera que sea a comienzos de 2021, cuando se apruebe la más que esperada regulación europea de Inteligencia Artificial, lo cual reforzará la seguridad jurídica en la materia, acelerando los procesos de innovación y regulando los límites legales en la protección de los derechos de consumidores y usuarios.

Tania P. Muñoz
Abogada Senior del Área de Nuevas Tecnologías y Protección de Datos

Si desea ampliar la presente información, no dude en ponerse en contacto con nuestro despacho llamando al 91.205.44.25 o enviando un email a contacto@alierabogados.com

Deja un comentario

Cerrar