(VOVWORLD) - Los esfuerzos mundiales para construir marcos legales a fin de gestionar y monitorear el desarrollo y uso de la tecnología de inteligencia artificial (IA) han logrado nuevos avances cuando el pasado 21 de mayo Europa completó regulaciones sobre IA. Además, las corporaciones globales de tecnología también asumieron compromisos cada vez más firmes en esta materia.
La aprobación por parte de los estados miembros de la Unión Europea (UE) del borrador final completo de la Ley de IA es un paso histórico para controlar esta herramienta tecnológica, especialmente para los sistemas de IA generativa.
El primer ministro surcoreano, Han Duck-soo, en la ceremonia inaugural de la Cumbre de IA, que tuvo lugar los días 21 y 22 de mayo en Seúl, Corea del Sur. (Foto: Reuters) |
Una ley “histórica” sobre IA
En un comunicado, Mathieu Michel, ministro de Digitalización de Bélgica, país que asume la presidencia rotatoria del Consejo de la UE, afirmó que se trata de una ley histórica, la primera de este tipo en el mundo, que aborda un reto tecnológico global que también crea oportunidades para las economías y comunidades sociales. Con la Ley de Inteligencia Artificial, Europa subraya la importancia de la confianza, la transparencia y la responsabilidad a la hora de abordar las nuevas tecnologías, al tiempo que garantiza que esta tecnología en rápida evolución pueda prosperar e impulsar la innovación europea, añadió.
En consecuencia, esta legislación impone estrictas obligaciones de transparencia a los sistemas de IA de alto riesgo, mientras que los requisitos para los modelos de IA de uso general serán menos estrictos. Las multas por infracciones oscilan entre los 7,5 millones de euros (8,2 millones de dólares) y los 35 millones de euros (38 millones de dólares) o el 7% de los ingresos globales, dependiendo del tipo de falta.
Además, el Parlamento Europeo ha propuesto el establecimiento de una Oficina de IA, encargada de apoyar la aplicación armonizada de esta legislación, proporcionar orientaciones y coordinar investigaciones transfronterizas conjuntas.
Mientras que la nueva ley se aplicará en 2026, las normativas sobre el uso de inteligencia artificial en el análisis social, la vigilancia policial predictiva y el rastreo no selectivo de imágenes faciales de internet o grabaciones de cámaras de seguridad, entrará en vigor dentro de seis meses. Las obligaciones para los modelos de IA de uso general se aplicarán a los 12 meses y las normas para los sistemas de IA integrados en productos regulados, a los 36 meses.
Al evaluar sobre este documento, el Comisario de Industria y Mercado Interior de la UE, Thierry Breton, afirmó: “Nuestra Ley de IA se basa en la evaluación de riesgos. La mayoría de las aplicaciones no tendrán problemas, pero algunas tendrán limitaciones, especialmente en lo que respecta a los paquetes de datos o a su uso para entrenar la IA. Por tanto, algunas aplicaciones, como las de salud, estarán limitadas, otras estarán prohibidas como la puntuación social. Por lo tanto, se trata de normativas muy estrictas y razonables”.
Según muchos expertos, la Ley de IA de la UE se considera más integral que el enfoque basado en el cumplimiento voluntario de Estados Unidos o el centrado en la estabilidad social de China. Este documento es considerado como un modelo para desarrollar regulaciones específicas sobre la IA, como lo hizo anteriormente con el GDPR, una regulación particularmente aplicada por el bloque comunitario para la protección de datos y privacidad para sus ciudadanos.
Seguridad de IA
En paralelo a la aprobación de la Ley de IA, Europa también registró otro hecho destacable relacionado con la gestión de esta herramienta. El Consejo Europeo, una organización que reúne a 46 estados miembros de Europa, incluidos muchos países que no pertenecen a la UE, aprobó el 17 de mayo el primer tratado jurídicamente vinculante sobre las normas que regulan el uso de IA. El Convenio Marco de IA establece el cuerpo legal para todas las etapas del desarrollo y uso de sistemas de IA, así como aborda sus riesgos potenciales y promueve la innovación tecnológica de manera responsable. A diferencia de la Ley de IA de la UE, los países fuera de Europa también pueden participar en el mencionado tratado del Consejo Europeo.
Más recientemente, también se llevaron a cabo en los días 21 y 22 de mayo la Cumbre Mundial sobre IA en Seúl (Corea del Sur), en la cual 16 de las principales corporaciones tecnológicas del mundo, entre ellas: OpenAI (desarrollador de ChatGPT), Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI (Francia) y Zhipu.ai (China) acordaron nuevos compromisos en materia de seguridad de este tipo de tecnología.
En consecuencia, las empresas de tecnología divulgarán públicamente la forma de evaluar los riesgos de la tecnología de IA, incluida la manera de identificar qué riesgos se consideran “inaceptables” y las medidas para garantizar que estos riesgos no excedan el umbral permitido. El primer ministro de Corea del Sur, Han Duck-soo, subrayó: “Damos prioridad a la seguridad de la IA porque ayudará a aumentar la confianza del público en esta herramienta. Nadie puede negar que la seguridad es un factor esencial que ayuda a determinar la ventaja competitiva y la sostenibilidad de los modelos de IA en el mercado global”.
Se espera que los gobiernos y las empresas de tecnología proporcionen prontamente definiciones más claras, específicas y completas de la “seguridad de la IA” antes de que se celebre la Cumbre Mundial de Seguridad de la IA el año que viene.