Preocupación entre expertos y eurodiputados por el código de conducta para la IA generativa
La última versión del texto rebaja considerablemente las exigencias para los modelos fundacionales como ChatGPT o Gemini, considerados de alto riesgo.
Quince países se han adherido ya a la Convención del Consejo de Europa sobre la IA

Bruselas/Los eurodiputados que redactaron la ley de Inteligencia Artificial de la Unión Europea y varios expertos han mostrado su preocupación con la última versión del código de conducta que la Comisión Europea está elaborando para los modelos de IA generativa, porque no les obliga a evaluar ni a mitigar los riesgos que puedan causar a los derechos fundamentales de los ciudadanos.
Este domingo culmina el plazo que tienen las organizaciones de la sociedad civil para enviar sus comentarios a la Comisión Europea y muchas han denunciado que el tercer borrador del documento rebaja las exigencias para los modelos fundacionales considerados de alto riesgo por su elevada potencia de cálculo, entre los que se pueden encontrar, según los expertos, ChatGPT (OpenAI) o Gemini (Google).
Cambios contrarios al espíritu de la ley
Consideran, en definitiva, que los cambios que ha introducido la Oficina de Inteligencia Artificial de la UE son contrarios al espíritu de la ley, que entró en vigor el año pasado y que permite o prohíbe el uso de la inteligencia artificial en función del peligro que suponga para las personas.
"Nosotros, los representantes de los colegisladores de la ley de IA, nos dirigimos a usted con gran preocupación por el código de conducta, según el cual la evaluación y mitigación de diversos riesgos para los derechos fundamentales y la democracia ahora es, de repente, totalmente voluntaria para los proveedores de modelos de IA generativa con riesgo sistémico", han escrito los eurodiputados en una carta dirigida a la vicepresidenta de Soberanía Digital de la Comisión, Henna Virkkunen.
La misiva, a la que tuvo acceso EFE, la firman siete eurodiputados en activo y otros que no han seguido en esta legislatura pero que redactaron la ley, representantes del Partido Popular Europeo, de los socialdemócratas, de los liberales y los verdes.
También la firma Carme Artigas, copresidenta del Consejo Asesor de Inteligencia Artificial de Naciones Unidas y antigua secretaria de Estado de Digitalización del Gobierno español, que contribuyó a pactar la ley de IA durante la presidencia rotatoria de la UE que España celebró en el último semestre de 2023.
Riesgos para los derechos fundamentales
La reciente versión del código de conducta obliga a los modelos de IA generativa a evaluar y mitigar riesgos existenciales que puedan provocar, como la posibilidad de que los humanos pierdan el control sobre estos sistemas, o accidentes químicos, biológicos y nucleares.
Pero les da la posibilidad de elegir si evaluar o no los riesgos que puedan ocasionar a los derechos fundamentales, al replicar patrones que fomenten la discriminación, que vayan en contra de la libertad de expresión, de la privacidad o que promuevan contenidos de abuso sexual infantil.
"Si los proveedores de los modelos de IA generativa con más impacto adoptaran posturas políticas más extremas, implementaran políticas que minaran la fiabilidad de los modelos, facilitaran la interferencia extranjera o la manipulación electoral, contribuyeran a la discriminación, restringieran la libertad de información o difundieran contenido ilegal, las consecuencias podrían perturbar profundamente la economía y la democracia europeas", señala la carta.
"El tercer borrador no se ajusta a los objetivos de la ley de IA, malinterpreta la legislación de la UE sobre derechos de autor y menoscaba las obligaciones establecidas en la propia Ley", asegura en un comunicado la Coalición Europea de Creadores y Titulares de Derecho de Autor, que participa en la redacción del código de conducta.
La opinión de las grandes tecnológicas
DOT, la patronal de las grandes tecnológicas, que representa, entre otras, a OpenAI, Google, Meta, X o Airbnb, considera que si el tercer borrador del documento "presenta algunas mejoras, ciertas disposiciones aún exceden los requisitos de la ley de IA".
"Por ejemplo, el requisito de realizar evaluaciones de riesgos obligatorias por parte de terceros antes y después del despliegue, aunque no es una obligación en la propia Ley de IA, lamentablemente sigue apareciendo en el nuevo borrador", dijo a EFE Elias Papadopoulos, director de Políticas de la organización.
Bruselas quiere terminar el código de conducta en mayo, para que entre en vigor el próximo 2 de agosto. Aunque de carácter voluntario, el documento debe ayudar a los desarrollos de modelos de IA generativa a cumplir con los requisitos de la ley.
También te puede interesar
Lo último