Identificando sistemas de IA prohibidos: ¿cómo saber si mi sistema de IA se encuentra prohibido por el Reglamento de IA?

Identificando sistemas de IA prohibidos: ¿cómo saber si mi sistema de IA se encuentra prohibido por el Reglamento de IA?

El pasado 1 de agosto de 2024, entró en vigor el 
Reglamento (UE) 2024/1689, que establecen normas armonizadas sobre la inteligencia artificial
(“Reglamento de IA”) cuyo objetivo es establecer un marco legal para garantizar que los sistemas de IA en la UE sean seguros, transparentes, éticos y respeten los derechos fundamentales.

Aunque dicha normativa haya entrado en vigor, la aplicación de algunas de sus disposiciones se irá haciendo de forma escalonada, de manera que su obligatoriedad será aplicable por fases.

Desde el pasado 2 de febrero de 2024, entramos en lo que vendría siendo la primera fase de despliegue del Reglamento de IA: lo que implica que ya es de aplicación la prohibición de sistemas de IA de riesgo inaceptable.

En consecuencia, a partir de esta fecha, existe una prohibición absoluta, en el territorio de la UE, de comercializar, poner a disposición y utilizar los sistemas de IA que constituyen un riesgo inaceptable para los derechos fundamentales y seguridad de las personas.

Resulta esencial, poder determinar si el sistema de IA que queremos comercializar, introducir o utilizar en el mercado, se encuentra dentro de los sistemas prohibidos (artículo 5) del Reglamento de IA.

Sistemas de IA prohibidos

A continuación, expondremos los sistemas de IA prohibidos, en qué consisten y algunos ejemplos extraídos de las Directrices sobre prácticas prohibidas de inteligencia artificial (IA) de la Comisión Europea.

Manipulación encubierta, art. 5.1 (a)

Son aquellos sistemas de IA que despliegan técnicas subliminales que escapan de la conciencia de una persona técnicas intencionadamente manipuladoras o engañosas, con el fin de distorsionar el comportamiento.

Uso de mensajes subliminales visuales, auditivos, imágenes incrustadas que no se perciben conscientemente pero que pueden ser procesadas por el cerebro humano.

Ejemplo: Chatbot que se hace pasar por un amigo o familiar con voz sintética e intenta simular que es una persona provocando una estafa o daños importantes.

Explotación de vulnerabilidades, art. 5.1 (b)

Son aquellos sistemas de IA que explotan vulnerabilidades debidas a la edad, discapacidad o situación económica o social especifica, con el fin de distorsionar el comportamiento.

Ejemplo: Chatbot destinado a proporcionar apoyo en salud mental a personas con discapacidad que explota sus capacidades para influirles en la compra de productos médicos costosos.

Social Scoring, art. 5.1 (c)

Son aquellos sistemas de IA que evalúan o clasifican a personas en función de su comportamiento social o de características personales y en las que la puntuación social produce un trato perjudicial.

Ejemplo: Sistema de crédito social de China. Sistemas que evalúan a los ciudadanos en función de su comportamiento, historial financiero, interacción social, etc. Las puntuaciones resultantes pueden influir significativamente en la vida de una persona, afectando su capacidad para acceder a servicios básicos, oportunidades laborales, etc.

Predicción delictiva, art. 5.1 (d)

Son aquellos sistemas de IA que evalúan o predicen el riesgo de que las personas cometan un delito basándose únicamente en perfiles o rasgos y características de la personalidad.

Ejemplo: Sistema de IA utilizado por la autoridad policial para predecir el comportamiento delictivo en delitos como el terrorismo basándose únicamente en la edad, la nacionalidad, la dirección, el tipo de coche y el estado civil de las personas.

Reconocimiento biométrico masivo, art. 5.1 (e)

Sistemas de IA que crean o amplían bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de Internet o de grabaciones de circuito cerrado de televisión (CCTV).

Ejemplo: Clearview AI que es un sistema de IA, que ha generado mucha controversia al utilizar una base de datos extensa, compuesta por miles de millones de fotos extraídas de redes sociales y otros sitios web públicos.

Reconocimiento de emociones, art. 5.1 (f)

Sistemas de IA que infieran en las emociones en el lugar de trabajo o en centros educativos (excepto por razones médicas o de seguridad).

Ejemplo: Uso de un sistema de IA de reconocimiento de emociones durante el proceso de contratación.

Categorización biométrica con fines discriminatorios, art. 5.1 (g)

Sistemas de IA que categorizan a las personas basándose en sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, creencias religiosas (excepto los adquiridos legalmente).

Ejemplo: Sistema de IA que clasifica a las personas activas en una plataforma de medios sociales según su supuesta orientación política, analizando los datos biométricos de las fotos que han subido a la plataforma, para enviarles mensajes políticos dirigidos.

Identificación biométrica remota “en tiempo real” en espacios públicos, art. 5.1 (g)

Sistemas de IA para la identificación biométrica remota en tiempo real en espacios de acceso público con fines policiales, excepto para:

  • Búsqueda selectiva de víctimas de secuestros, trata o explotación sexual;
  • Prevención de amenazas, como terrorismo, búsqueda de sospechoso de delitos concretos.

Ejemplo: uso de un sistema de identificación biométrica en tiempo real por parte de la policía para identificar a un ladrón en una tienda y comparar sus imágenes faciales con BBDD de delincuentes está prohibido, ya que no entra en ninguno de los objetivos enumerados en el artículo 5.1 (h), incisos i) a iii), del Reglamento.

Aunque el régimen sancionador establecido en el Reglamento de la IA, no será de aplicación hasta el 2 de agosto de 2025, en caso de que se detecte o nos veamos perjudicados por alguno de estos sistemas de IA prohibidos, podemos acudir a la denunciarlo ante la
Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
, que es el organismo responsable de supervisar el cumplimiento de la normativa en España.

La AESIA ha manifestado que procederá ha examinar dichas denuncias, aunque no será hasta el 2 de agosto de 2025 cuando pueda imponer las sanciones por correspondientes.

En Metricson somos especialistas en el asesoramiento jurídico y adaptación al Reglamento de la IA. Nos dedicamos a la elaboración de auditorías de cumplimiento, desarrollo de estrategias efectivas, proporcionar formación especializada, así como a supervisar de proyectos IA, garantizando su alineación con la normativa vigente.

 

Artículo escrito por:

Estefanía AsensioEstefanía Asensio

Abogada especialista en propiedad intelectual e industrial y nuevas tecnologías

estefania.asensio@metricson.com

 

 

 

Sobre Metricson

Con oficinas en Barcelona, Madrid y Valencia y una importante presencia internacional, Metricson es una firma pionera en servicios legales para empresas innovadoras y tecnológicas y especialista en propiedad intelectual. Desde su nacimiento en 2009, ha asesorado a más de 1.400 clientes de 15 países distintos, incluyendo startups, inversores, grandes corporaciones, universidades, instituciones y gobiernos.

Si quieres contactar con nosotros, no dudes en escribirnos a contacto@metricson.com. ¡Estamos deseando hablar contigo!

Habla con nosotros

958 558 442

Oficinas

Tuset, 19 - 2º, 3ª
08006 Barcelona
931 594 620

Javier Ferrero 10,
28002 Madrid

Paseo de Ruzafa 11, 6º, 12ª
46002 Valencia
960 500 761

Av. de la República Argentina, 25
41011 Sevilla

    Responsable: Metricson S.L.P.U.
    · Finalidad: Resolver tu petición o duda.
    · Legitimación:  Interés legítimo en responder cualquier cuestión planteada por ti.
    · Destinatarios: Prestadores de servicios tecnológicos, como encargados del tratamiento, que seguirán siempre nuestras instrucciones.
    · Derechos: Puedes acceder, rectificar, suprimir o solicitar la portabilidad de tus datos personales, así como oponerte o limitar el tratamiento de los mismos dirigiéndote a privacy@metricson.com.