En la tercera edición de los Diálogos Internacionales sobre la Seguridad de la IA, expertos globales piden medidas urgentes ante los riesgos de la IA y proponen marcos de seguridad internacional.
Entre el 6 y el 8 de septiembre de 2024, destacados científicos y expertos en políticas de inteligencia artificial se reunieron en Venecia para el tercer Diálogo Internacional sobre la Seguridad de la IA, donde lanzaron una advertencia sobre los riesgos catastróficos de esta tecnología. En su declaración, hacen un llamado a la creación de una autoridad internacional encargada de supervisar la IA, subrayando la necesidad de actuar antes de que surjan amenazas inminentes.
La reunión, organizada por el Safe AI Forum en colaboración con el Berggruen Institute, reunió a laureados con el Premio Turing como Yoshua Bengio, Andrew Yao y Geoffrey Hinton, junto a expertos en gobernanza como Gillian Hadfield y Xue Lan. Durante el evento, se discutieron mecanismos de aplicación para prevenir que las “líneas rojas” en el desarrollo de la IA sean cruzadas, acordando tres propuestas clave.
La primera propuesta enfatiza la Preparación ante Emergencias, sugiriendo que los países deben establecer acuerdos internacionales que coordinen la seguridad de la IA, incluyendo registro de modelos y planes de contingencia. La segunda, Aseguramiento de Seguridad, aboga por un marco exhaustivo que exija a los desarrolladores presentar casos de seguridad antes de desplegar sistemas avanzados, con auditorías independientes. La tercera, Investigación en Seguridad y Verificación, subraya la necesidad de desarrollar técnicas que permitan verificar las afirmaciones de seguridad hechas por los desarrolladores de IA.
Gillian Hadfield expresó su preocupación por la capacidad actual de las naciones para gestionar posibles crisis derivadas de la IA, y destacó la importancia de un enfoque global. La analogía hecha por Bengio con los diálogos durante la Guerra Fría subraya la urgencia de estos esfuerzos, indicando que los científicos deben asumir la responsabilidad de mitigar los riesgos asociados con sus investigaciones.
Detalles de fondo: Este foro se celebra en un contexto de creciente competencia tecnológica entre Estados Unidos y China, donde ambos países han tomado medidas significativas hacia la regulación de la IA. Mientras China propone un marco de seguridad nacional para la IA, Estados Unidos ha implementado directrices que requieren a las empresas informar sobre los riesgos asociados.
“IDAIS ha desempeñado un papel fundamental en comprender los riesgos extremos de la IA”, afirmó Ya-Qin Zhang, ex presidente de Baidu y actual profesor en Tsinghua. “Los resultados de IDAIS se han utilizado como referencia crítica para que muchos gobiernos formulen políticas y regulaciones”.
La reunión en Venecia subraya la urgencia de crear una autoridad internacional para regular la inteligencia artificial, en un momento en que la tecnología avanza rápidamente y los riesgos potenciales aumentan. La colaboración global será esencial para abordar estos desafíos y garantizar un desarrollo seguro de la IA.
Información adicional: Los Diálogos Internacionales sobre la Seguridad de la IA son una iniciativa que reúne a científicos de todo el mundo para colaborar en la mitigación de los riesgos asociados con la inteligencia artificial. Este tercer evento destacó la necesidad de un enfoque coordinado y la creación de marcos regulatorios robustos.
Visita la página de FAR.AI