www.elimparcial.es
ic_facebookic_twitteric_google

ENTRARÁ EN VIGOR EN 2026

La ley de IA de la Unión Europea prohibirá el reconocimiento facial y la manipulación del comportamiento humano

La ley de IA de la Unión Europea prohibirá el reconocimiento facial y la manipulación del comportamiento humano
Ampliar
(Foto: EFE)
EL IMPARCIAL/Efe
sábado 09 de diciembre de 2023, 16:10h
Actualizado el: 09 de diciembre de 2023, 16:16h
No se podrá usar para reconocer las emociones en los centros de trabajo y escuelas. Estará prohibida la categorización biométrica por creencias, ideología o raza.

En una maratón de negociaciones que se prolongó durante 36 horas consecutivas, la Unión Europea (UE) ha logrado un acuerdo histórico para establecer la primera Ley sobre Inteligencia Artificial (IA) a nivel mundial. Este hito marca un paso significativo en la regulación de tecnologías emergentes como ChatGPT y sistemas de identificación biométrica en tiempo real, incluido el reconocimiento facial. La norma, que se espera sea ratificada por los gobiernos nacionales y el Parlamento Europeo en las próximas semanas, sienta las bases para un enfoque ético y seguro en el desarrollo y aplicación de la IA en la región.

La presidenta de la Comisión, Ursula von der Leyen, se ha felicitado en redes sociales por "una ley de inteligencia artificial de la UE, que es pionera en el mundo" y que crea "un marco legal único para el desarrollo de la inteligencia artificial el que se puede confiar". "La UE se convierte en el primer continente que pone reglas claras para el uso de la IA", ha afirmado por su parte el comisario de Mercado Interior, Thierry Breton.

Vigilancia en tiempo real

Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional. Las cámaras se podrán utilizar con previa autorización judicial para prevenir una amenaza terrorista "genuina y previsible" o "genuina y presente", es decir que se esté produciendo en ese momento. También se podrán emplear para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo un crimen medioambiental y para buscar a las víctimas de estos delitos.

Durante las negociaciones, los gobiernos han presionado para ampliar la lista de delitos, mientras que la Eurocámara ha intentado limitarla lo máximo posible y obtener fuertes salvaguardas para los derechos fundamentales.

Sistemas prohibidos

La norma, además, prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales ni la inteligencia artificial capaz de manipular el comportamiento humano.

También estarán prohibidos los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales. Además, en los centros de trabajo o las escuelas también estarán prohibidos los sistemas de inteligencia artificial que pueden reconocer las emociones.

IA generativa

El otro gran asunto que ha centrado las negociaciones es la regulación de los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google. Tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado. El reglamento no prohíbe su uso pero sí ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.

Las negociaciones fueron "apasionadas", ya que el objetivo de la ley es regular el uso de una tecnología con grandes posibilidades para la sociedad, que al mismo tiempo genera dudas y algunas preguntas que los desarrolladores de la inteligencia artificial aún no saben responder, según fuentes conocedoras de los debates. El reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.

La entrada en vigor

La norma prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil. Está previsto que la ley entre en vigor en 2026 pero se aplicará por fases: la oficina europea se creará de forma inmediata, la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12.

El reglamento prevé multas con un rango que va desde los 35 millones de euros (37,6 millones de dólares) o el 7 % del volumen global de negocio de las empresas, hasta los 7,5 millones de euros (8 millones de dólares) o el 1,5 % del volumen global de negocio.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
1 comentarios