EUROPA

La UE pacta las primeras reglas para limitar los riesgos de la Inteligencia Artificial

La presidencia española del Consejo la UE ha logrado uno de sus principales objetivos en este semestre con el pacto de esta norma pionera en el mundo.

ondacero.es

Madrid | 09.12.2023 00:27

La presidenta de la Comisión Europea, Ursula von der Leyen, en una foto de archivo
La presidenta de la Comisión Europea, Ursula von der Leyen, en una foto de archivo | Agencia EFE

Los negociadores del Parlamento Europeo y del Consejo (gobiernos) han logrado este viernes, tras más de 35 horas de negociación, cerrar un acuerdo histórico para fijar las primeras reglas con las que limitar los riesgos de la Inteligencia Artificial (IA) que previsiblemente podrá entrar en vigor en 2026.

El objetivo de la nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios, pero sin que se traduzca en una hiperregulación que lastre la competitividad de la Unión Europea.

El pacto se alcanzó tras tres días de intensas negociaciones en las que uno de los puntos sensibles ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica para garantizar la seguridad nacional y prevenir delitos como el terrorismo o la protección de infraestructuras.

La norma prohíbe las cámaras de reconocimiento facial en espacios públicos, pero los gobiernos han presionado para permitirlas en casos concretos, siempre con previa autorización judicial.

El Parlamento Europeo, en cambio, llegó a las negociaciones con una clara intención de prohibir estas cámaras de inteligencia artificial, aunque el ponente de la ley, el socialdemócrata Brando Benifei, abrió a la puerta el pasado miércoles a permitir algunas excepciones si van acompañadas de fuertes salvaguardas para los derechos humanos.

El otro gran asunto que ha centrado las negociaciones es la regulación de los modelos fundacionales de inteligencia artificial, los sistemas en los que se basan programas con ChatGPT, de la empresa OpeanAI, o Bard, de Google.

Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.

Las negociaciones fueron "apasionadas", ya que el objetivo de la ley es regular el uso de una tecnología con grandes posibilidades para la sociedad, que al mismo tiempo genera dudas y algunas preguntas que los desarrolladores de la inteligencia artificial aún no saben responder, según fuentes conocedoras de los debates.