(VOVWORLD) - Este año la inteligencia artificial surgió como uno de los asuntos más importantes a nivel global. Además de su potencial de aplicación extremadamente amplio en la vida socioeconómica de los países, esta herramienta tecnológica también genera altos riesgos en términos de seguridad. Ello obliga a los países y organizaciones internacionales a buscar, urgentemente, medidas para controlarla.
El 1ro de noviembre, la famosa casa editorial de diccionarios Collins, con sede en el Reino Unido, eligió la palabra “IA”, abreviatura de inteligencia artificial, como palabra clave de este año. Al explicar esta decisión, los expertos en lenguaje de Collins dijeron que el concepto tecnológico tuvo “una masiva cobertura” y se convirtió en el “principal tema de discusión del año”. Mostraron evidencia convincente de que el uso de la palabra “IA” se ha cuadriplicado en el último año.
El secretario general de las Naciones Unidas, António Guterres. (Foto: IRNA/VNA) |
Enorme potencial de aplicación
A principios de este año, el nacimiento de las aplicaciones tecnológicas ChatGPT, un software de IA generativa desarrollado por la compañía OpenAI, se considera un hito en el cambio de la percepción de muchas personas. Resulta que ChatGPT y sus competidores, como Gemini de Google DeepMind o Grok, del multimillonario Elon Musk, marcan el comienzo de la era del conocimiento de la IA. Ya no se trata de aplicaciones tecnológicas que atienden pasivamente a las necesidades de los usuarios, sino que pueden adquirir su pensamiento primario de manera activa, y tienen la capacidad de vincularse con ellos.
La IA generativa como la nueva frontera de la IA está demostrando su potencial y numerosos países buscan aplicarlas en su desarrollo socioeconómico. Entre ellos se encuentra Malasia, nación que aplica esta herramienta en la producción agrícola para ayudar a sus trabajadores a mapear datos agrícolas y monitorear la productividad de los cultivos. En Israel, la comunidad financiera utiliza la IA para establecer modelos de pronóstico. Mientras tanto, los funcionarios gubernamentales de Tailandia la utilizan para verificar los pagos de impuestos y monitorear las transacciones de los contribuyentes en las redes sociales, entre otros. Según el secretario general de las Naciones Unidas, António Guterres, si se utiliza de manera responsable y justa, la IA puede generar avances en el camino del desarrollo de los países: “La IA puede hacer avanzar drásticamente la acción climática y los esfuerzos para cumplir los 17 objetivos de desarrollo sostenible para 2030. Pero todo esto depende de que dichas tecnologías se movilicen de manera responsable y sean accesibles para todos, incluidos los países en desarrollo, que más lo necesitan”.
A nivel global, la IA está comenzando a utilizarse para construir nuevos modelos de predicción de enfermedades y fluctuaciones climáticas. De la misma forma se aplican a sistemas integrados de servicios de salud, y para desarrollar variedades de cultivos capaces de una mayor adaptación al cambio climático, construyendo así un nuevo sistema alimentario global más sostenible.
Desarrollar la IA de forma responsable para limitar riesgos
Además de las enormes potencialidades, la IA también plantea preocupaciones. Con el rápido desarrollo de este tipo de tecnologías, durante el 2023 los países, organizaciones internacionales y expertos en tecnología son cada vez más cautelosos. Observan de forma continua ante sus riesgos para la seguridad nacional, la estabilidad comunitaria y, más aún, la seguridad de la humanidad.
A mediados de este año, los directores ejecutivos de las principales empresas de IA del mundo y cientos de investigadores y expertos firmaron una Declaración, enfatizando que minimizar los riesgos derivados de la IA debe ser una prioridad global. Consideraron esta medida tan urgente como prevenir una guerra nuclear. El multimillonario estadounidense, Elon Musk, uno de los pioneros en el desarrollo de esta tecnología, también advirtió sobre sus peligros si no se controla.
“Creo que la opinión pública fue demasiado optimista acerca de la IA en algún momento. Lo digo como ingeniero tecnológico que debería saberlo bien. Creo que esta herramienta es, principalmente, un buen recurso, pero la posibilidad de que se convierta en una mala tecnología no es de zero. Por lo tanto, necesitamos mitigar las posibles desventajas de esta tecnología”, dijo.
Ante los desafíos que la IA salga de control, impactando negativamente a los humanos, la comunidad mundial ha acelerado el control sobre su desarrollo y uso. A principios de noviembre, por primera vez, se celebró en el Reino Unido una Cumbre Mundial sobre Seguridad de la IA, en la que se adoptó la Declaración de Bletchley con firmas de representantes de 27 países, incluidas las principales potencias mundiales en este campo como Estados Unidos, China y la Unión Europea (UE). Según el documento, las naciones se comprometen a reforzar la responsabilidad y la cooperación internacional en el uso seguro y la investigación de la IA. También, desde esta conferencia, los países han propuesto los principios de seguro por diseño, y los desarrolladores prometen a permitir a los gobiernos comprobar el nivel de seguridad de sus aplicaciones de tecnología de IA antes de lanzarla al público.
Este año también surgió otra serie de mecanismos de control de esta tecnología. A finales de octubre la ONU anunció el establecimiento de un Consejo Asesor de IA, encargado de proporcionar direcciones para la gestión de la IA a nivel internacional. En particular, a principios de diciembre, la UE llegó a un acuerdo político sobre las disposiciones del proyecto de Ley de IA. Esta será la primera y más completa legislación sobre dicho campo en el mundo.
A nivel internacional, Estados Unidos y Reino Unido han creado institutos de seguridad de IA para evaluar y probar nuevos modelos, identificando así todos los riesgos potenciales de esta herramienta. Mientras tanto, China también anunció la “Iniciativa de Gobernanza Global de la IA”, que establece una serie de regulaciones temporales para la tecnología de IA generativa. Además, más de 50 corporaciones y organizaciones de investigación han trabajado junto con la Administración Nacional de Aeronáutica y el Espacio (NASA) para establecer una “Alianza de IA”, dirigida a proteger y garantizar un enfoque colaborativo más abierto y transparente para el desarrollo de esta tecnología.