Europa logra acuerdo sobre normas en materia de IA
Los negociadores de la Unión Europea cerraron un acuerdo sobre las primeras normas de amplio alcance en materia de inteligencia artificial en el mundo
- Por: AP
- 09 Diciembre 2023, 09:15
Los negociadores de la Unión Europea cerraron un acuerdo el viernes sobre las primeras normas de amplio alcance en materia de inteligencia artificial en el mundo, allanando el camino para la supervisión jurídica de la tecnología empleada en plataformas populares como ChatGPT que han prometido transformar la vida cotidiana y han suscitado alarmas por los graves peligros que supondrían para la humanidad.
Los negociadores del Parlamento Europeo y de los 27 países que integran el bloque superaron grandes diferencias sobre puntos controvertidos, como la IA generativa y el uso policial del reconocimiento facial, para firmar un acuerdo político provisional con vistas a la Ley de Inteligencia Artificial.
“¡Trato hecho!”, tuiteó el comisionado europeo Thierry Breton poco antes de medianoche. “La UE se convierte en el primer continente en establecer normas claras para el uso de la IA”.
El resultado se obtuvo tras largas conversaciones a puerta cerrada esta semana, con una sesión que duró 22 horas antes de una segunda ronda que comenzó el viernes por la mañana.
Los funcionarios ofrecieron escasos detalles sobre lo que se incluirá exactamente en la futura ley, que no entrará en vigor al menos hasta 2025. Su objetivo era garantizar una victoria política de esta ley emblemática, pero se esperaba que dejaran la puerta abierta a nuevas conversaciones para concretar la letra pequeña, lo que probablemente conllevarán más presiones internas.
El Parlamento Europeo todavía tendrá que votar el acuerdo a principios del próximo año, pero ya que está cerrado, eso es una formalidad, dijo el viernes a The Associated Press Brando Benifei, un legislador italiano que codirige los esfuerzos de negociación del organismo.
Los sistemas de IA generativa como ChatGPT de OpenAI han deslumbrado a los usuarios con su habilidad de producir textos, fotos y canciones similares a los de los humanos, pero también han suscitado temores por los riesgos que esta tecnología plantea para el empleo, la privacidad y la protección de los derechos de autor, e incluso para la propia vida humana.
Ahora, Estados Unidos, el Reino Unido, China y coaliciones mundiales como el Grupo de los Siete han presentado sus propias propuestas para regular la IA, aunque todavía tienen que alcanzar a Europa.
Según Anu Bradford, profesora de la Facultad de Derecho de la Universidad de Columbia y experta en la UE y la regulación digital, una normativa sólida y exhaustiva de la UE “puede ser un buen ejemplo para muchos gobiernos que se plantean regularla”. Otros países “quizá no copien todas las disposiciones, pero probablemente emularán muchos aspectos”.
Las empresas de IA que tendrán que cumplir las normas de la UE probablemente extenderán también algunas de esas obligaciones a los mercados de fuera del continente, indicó. “Después de todo, no es eficiente entrenar modelos distintos para mercados diferentes”, dijo.
A otros les preocupa que el acuerdo se haya aprobado con prisas.
“El acuerdo político de hoy marca el inicio de un importante y necesario trabajo técnico sobre detalles cruciales de la Ley de Inteligencia Artificial, que todavía faltan”, señaló Daniel Friedlaender, jefe de la oficina europea de la Computer and Communications Industry Association, un grupo de cabildeo de la industria tecnológica.
La Ley de IA se diseñó originalmente para mitigar los peligros de funciones específicas de la IA según su nivel de riesgo, de bajo a inaceptable. Pero los legisladores presionaron para ampliarla a los modelos fundacionales, esto es: los sistemas avanzados que sustentan servicios de IA de propósito general como ChatGPT y el chatbot Bard de Google.
Los modelos fundacionales parecían ser uno de los mayores escollos para Europa. Sin embargo, los negociadores lograron un acuerdo provisional al principio de las conversaciones, a pesar de la oposición de Francia, que abogaba por la autorregulación para ayudar a las empresas europeas de IA generativa a competir con grandes rivales estadounidenses como Microsoft, patrocinador de OpenAI.
Estos sistemas, también conocidos como modelos lingüísticos de gran tamaño, se entrenan con enormes cantidades de obras escritas e imágenes extraídas de internet. Proporcionan a los sistemas de IA generativa la capacidad de crear algo nuevo, a diferencia de la IA tradicional, que procesa datos y completa tareas siguiendo reglas predeterminadas.
En virtud del acuerdo, los modelos fundacionales más avanzados que planteen los mayores “riesgos sistémicos” serán objeto de un escrutinio adicional, que incluirá la obligación de revelar más información, como la potencia de cómputo utilizada para entrenar los sistemas.
Los investigadores han advertido que estos potentes modelos fundacionales, creados por un puñado de grandes empresas tecnológicas, podrían utilizarse para potenciar la desinformación y la manipulación en línea, los ciberataques o la creación de armas biológicas.
El tema más espinoso fueron los sistemas de vigilancia por reconocimiento facial impulsados por IA, y los negociadores llegaron a un compromiso tras intensas negociaciones.
Los legisladores europeos querían prohibir totalmente el uso público del escaneo facial y de otros sistemas de “identificación biométrica remota” por motivos de privacidad, mientras que los gobiernos de los países miembros querían exenciones para que las fuerzas de seguridad pudieran utilizarlos para combatir delitos graves como la explotación sexual infantil o los atentados terroristas.
Los grupos de la sociedad civil se mostraron más escépticos.
“Cualesquiera que hayan sido las victorias en estas negociaciones finales, lo cierto es que el texto final seguirá teniendo enormes defectos”, afirmó Daniel Leufer, analista político del grupo de defensa de los derechos digitales Access Now. Junto a las exenciones para el cumplimiento de la ley, también citó la falta de protección para los sistemas de IA utilizados en migración y control de fronteras, y “grandes lagunas en las prohibiciones de los sistemas de IA más peligrosos”.
Compartir en: