Press "Enter" to skip to content

Consejo y Eurocmara posponen las negociaciones sobre la Ley de la IA tras 24 horas de pelea a puerta cerrada

  • Tecnologa Poco antes del drama de OpenAI, sus cientficos habran logrado un avance sorprendente
  • Innovacin Esto es lo que diferencia a Gemini de ChatGPT

El Parlamento Europeo y el Consejo de la UE, esto es, lo gobiernos nacionales, han interrumpido este jueves las negociaciones sobre la primera legislacin de Inteligencia Artificial tras casi 24 horas encerrados en un trlogo complicado, muy tcnico y con desafos diferentes a los habituales. En el proceso normal de toma de decisiones en la Unin Europea, la Comisin, que es quien tiene la iniciativa legislativa, hace una propuesta. Y sobre esa, a lo largo de muchos meses, van fijando su posicin y luego negocian entre ellos las capitales y los eurodiputados, hasta llegar a un punto intermedio que satisfaga a todas las partes. Con la IA, sin embargo, ha sido diferente. Porque empez en 2021 con la propuesta comunitaria, sigui con los ministros perfilndola un poco, pero sufri un cambio absoluto cuando la pelota estaba en el tejado de la Eurocmara por la irrupcin disruptiva de Chat GTP que cambi la urgencia, las prioridades y el alcance de todas las decisiones.

No ha sido slo el agotamiento, el sueo y las diferencias en los puntos ms delicados, que tambin, sino las regulaciones laborales de las instituciones las que han puesto punto y seguido a las discusiones. Tras casi 24 horas consecutivas se ha forzado una pausa hasta las 09.00 de la maana del viernes, dado que el personal tcnico, los interpretes y diversos funcionarios haban agotado lo que consideran un ciclo mximo aceptable. La presidencia espaola hubiera querido seguir hasta el acuerdo, pero tendrn que esperar.

Es habitual que esos trlogos duren toda la noche, pero ste en particular ha sido muy largo y con desafos muy tcnicos. Desde la aparicin de Chat GTP todo han sido prisas, a este lado del Atlntico, pero tambin al otro, donde Joe Biden le ha visto las orejas al lobo e hizo sus propias propuestas regulatorias hace unas semanas. Todo orbita sobre los riesgos para las libertades por un lado y los llamados modelos fundacionales, el ncleo de herramientas como ChatGPT, por el otro lado. Tras la irrupcin de esos instrumentos generativos de uso muy sencillo y difusin masiva, se gener un consenso inmediato, impulsado por el miedo, sobre la imprescindibilidad de fijar normas muy claras y comprehensivas. Pero recientemente Alemania, Francia e Italia han dado un giro muy claro empujando en direccin contraria, hacia autorregulacin por parte de los gigantes del sector, ms preocupadas ahora por la competitividad y la posibilidad de que Europa quede relegada ante China o EEUU.

El Parlamento, que siempre tiene una posicin ms agresiva en defensa los derechos civiles, en todos los dosieres, pero que tambin tiene que acabar cediendo un poco para lograr acuerdos, haba sufrido unas presiones brutales en las ltimas 12 horas. Para que aceptara una regulacin que ONG, diferentes asociaciones y muchos expertos califican de inadmisible en lo que se refiere a la prohibicin de la categorizacin biomtrica, puesto que en los ltimos borradores propona prohibir algo que ya es ilegal pero permitiendo a las autoridades para perfilar a las personas segn su raza, preferencia sexual y poltica y afiliacin sindical si esas caractersticas tienen un «vnculo directo con un delito especfico o amenaza para la cual el tratamiento de datos sobre aquellas caractersticas sean de relevancia directa y necesarios para establecer ese vnculo», algo que difcilmente puede hacer la IA ahora mismo, y que abre la puerta a discriminaciones.

Igualmente, se recoga una prohibicin del «reconocimiento de emociones», pero se limita al lugar de trabajo y la educacin. El uso policial y en las fronteras pasa a ser slo de alto riesgo e incluso esos casos de uso estn exentos del requisito de transparencia Adems, todava se puede utilizar «por razones mdicas o de seguridad», dicen los papeles. De ah el alivio para que los diputados puedan reagruparse, coger fuerzas, y pactar una lnea slida para intentar evitar cesiones que luego difcilmente sern reversibles.

Las directivas europeas, muy lentas en su concepcin, se prevn para que duren lustros. Con la Inteligencia Artificial, sin embargo, la sensacin es que no ser as. Los responsables de la negociacin aseguran que dada su estructura, la flexibilidad, podr adaptarse sin problemas a lo que vaya apareciendo. Pero tras la irrupcin de los Chat GTP y lo que estn aportando en unos pocos meses, buena parte de los actores creen que es un paso destinado a durar poco. Se parchear, se revisar, pero es muy improbable que este esqueleto se mantenga en el tiempo.

Las partes llegaron a la sala con 22 puntos abiertos, el 15% del texto legislativo. Pero entre ellos, los ms relevantes eran la clasificacin de las aplicaciones prcticas de la tecnologa, con una categora de usos prohibido, recogida en el artculo 5, y una de usos de alto riesgo, que se incorpor al Anexo III. La distincin es crucial. El Consejo, los gobiernos, son ms partidarios de autoregulacin en el sector en lneas generales, con una lista limitada de prohibiciones. Mientras que la Eurocmara lleg a las negociaciones con una lista mucho ms amplia. Todo lo que queda recogido en el Artculo 5 se quedar ah, inamovible, mientras que lo contemplado en el Anexo III puede ser enmendado de una manera razonablemente gil simplemente con un Acto Delegado de la Comisin Europea, que no requiere la aprobacin por unanimidad de cada capital.

Entre los usos prohibidos, los Deep fakes e intentar que haya obligatoriamente algn tipo de marca de agua para que se pueda saber si un contenido es de autora humana o no. El control biomtrico en espacios pblicos como norma general. O el ‘social scoring’, es decir, impedir que como ocurre en China el Estado pueda usar la Inteligencia Artificial para dar una puntuacin a sus nacionales, un carnet de buen o mal compatriota que afecte a todos los elementos de su vida, desde el alquiler de una vivienda a la concesin de un prstamo pasando por el tipo de empleo o educacin que puede tener.

El segundo elemento abierto era el de las salvaguardas, cmo compensar al Parlamento para que acepte sacar de la lista de usos prohibidos ciertas aplicaciones. Y estipular qu exenciones puede tener la Ley Europea, sobre todo en cuestiones de seguridad nacional. Cmo preservar los derechos fundamentales, cmo intentar evitar que la regulacin suponga una carga administrativa inmensa que repercuta negativamente en la productividad, etc. Los gobiernos europeos quieren que se pueda utilizar para evitar delitos como el terrorismo, el abuso sexual o la proteccin de infraestructuras crticas, siempre con previa autorizacin judicial. La Eurocmara, en cambio, se opone a su uso porque considera que la vigilancia biomtrica viola los derechos fundamentales, aunque el ponente de la norma en el Parlamento Europeo, el socialdemcrata italiano Brando Benifei, se abri ayer a permitirla si existen fuertes garantas para proteger los derechos.

Ah est el grueso de la discusin ahora mismo. Con una inclinacin cada vez mayor por la autoregulacin, con un peso creciente de la competitividad sobre las preocupaciones de derechos y libertades y una apuesta ms que arriesgada por la capacidad del sector de controlarse y la primaca de las directrices y recomendaciones sobre las prohibiciones y limitaciones.