Europa empieza a aplicar ya a la IA prohibiciones por prácticas abusivas

Los desafíos de la inteligencia artificial

La ley veta los principales usos que vayan contra los derechos de los ciudadanos

Foto ANDREA MARTÍNEZ PASTOR 24/10/2024. Barcelona estudia la instalación de más cámaras de vigilancia en las calles para disuadir la delincuencia. En el año 2000 se instaló la primera cámara en Barcelona en la plaza George Orwell.

Las cámaras en lugares públicos no podrá combinarse con IA excepto en algunas excepciones policiales

Andrea Martínez / ARCHIVO

Mientras en Estados Unidos el presidente Donald Trump ha derogado la orden ejecutiva de su predecesor, Joe Biden, que establecía una serie de normas de control de riesgos de la inteligencia artificial, en Europa el panorama entra en una nueva fase de gobernanza que se caracteriza por la protección de los derechos humanos. La ley europea de IA, que tiene aún por delante un largo calendario de aplicación, alcanzó el domingo una primera fase de prohibiciones sobre lo que se puede hacer con esta tecnología.

Las primeras aplicaciones prácticas que prohíbe la ley europea afectan a las IAs que emplean técnicas subliminales para manipular las decisiones de las personas, los sistemas predictivos de crimen a partir de perfiles individuales, el reconocimiento psicológico en el puesto de trabajo y la escuela, la categorización biométrica para identificar personas, además del reconocimiento facial en tiempo real en espacios públicos. En este último caso hay algunas excepciones que los eurodiputados cedieron ante la presión de los gobiernos durante la negociación final de la ley.

Entre esas salvedades en el reconocimiento mediante IA a partir de imágenes de cámaras de vigilancia se encuentra la persecución de delitos de especial gravedad como el terrorismo u otro tipo de misiones policiales como la localización de menores desaparecidos.

Los organismos encargados de velar por el cumplimiento de la ley serán oficinas independientes creadas por cada uno de los gobiernos de los países europeos. En España, la nueva Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), está ubicada en A Coruña y dirigida por el ingeniero informático Ignasi Belda.

Las agencias de supervisión de cada país asumirán las competencias para sancionar en agosto

La agencia comenzará a inspeccionar la supervisión de posibles prácticas prohibidas por la ley y a partir del próximo mes de agosto asumirá la competencias que le permitirán sancionar las que detecten, aunque su misión no será sólo punitiva. La Aesia también ofrecerá apoyo a startups y pymes sobre entornos de IA seguros.

Las infracciones detectadas podrán sancionarse multas por un volumen de hasta el 7% de las ventas globales de la empresa que ejecute prácticas prohibidas por la ley y del 3% por otras infracciones.

El calendario de aplicación de la ley europea de inteligencia artificial es muy gradual. El siguiente paso llegará a principios de agosto próximo, cuando los modelos de IA que tengan un uso general deberán mostrar transparencia a las autoridades mediante documentación técnica y datos de entrenamiento. Los modelos de mayor peso deberán pasar las auditorías de seguridad más rigurosas.

Una vez consolidado el control de las prácticas prohibidas y del control de transparencia de los diferentes modelos, los reguladores deberán controlar los sistemas de IA de alto riesgo en funciones como las infraestructuras, la banca, la educación o la justicia, entre otros.

Son estos modelos que figuran en la parte alta de la escala de riesgos los que van a estar en el centro del debate en los próximos meses. El gobierno francés ha solicitado a la Comisión Europea que, antes de que se apliquen las siguientes disposiciones de la ley el próximo 2 de agosto ser revise el umbral por el que se considera que un modelo de IA de uso general conlleva un riesgo sistémico.

Lee también

Según la plataforma jurídica MLex, el ejecutivo francés quiere poner en marcha un proceso de simplificación que equilibre “la protección de las libertades fundamentales, el desarrollo de la IA” y una “aplicación equilibrada de la protección de los derechos de autor al desarrollo de la IA generativa”.

La ambigüedad calculada del lenguaje del texto del gobierno de Francia refleja, según MLex, división entre el ministerio de cultura, “tradicionalmente cercano a los intereses de los titulares de derechos, y el ministerio de economía, que está tratando de promover empresas emergentes de IA como Mistral AI”.

La otra gran cuestión pendiente en cuanto a los siguientes pasos de la aplicación de la ley centra las miradas en las grandes compañías de IA de fuera de la Unión Europea y las dudas de que este marco legal no regule adecuadamente las relaciones entre las partes.

Mostrar comentarios
Cargando siguiente contenido...