“La IA es una tecnología que ya no forma parte de la historia de la humanidad”, dijo el miércoles en San Francisco la secretaria de Comercio de Estados Unidos, Gina Raimondo. “Avanzar en la IA es lo correcto, pero avanzar lo más rápido que podamos, sin pensar en las consecuencias, no es lo más inteligente”.
Los comentarios de Raimondo llegaron en la ceremonia inaugural. la invitación La Red Internacional de Institutos de Seguridad de IA, una red de Institutos de Seguridad de Inteligencia Artificial (AISI) de 9 países, así como la Comisión Europea reunida por el Departamento de Comercio y Estado de EE. UU. El evento reunió a expertos en tecnología del gobierno, la industria, el mundo académico y la sociedad civil para discutir cómo gestionar los riesgos que plantean los sistemas de IA cada vez más capaces.
Raimondo aconsejó a los participantes tener en cuenta dos principios: “No podemos publicar modelos que pongan en peligro a las personas”, afirmó. “En segundo lugar, asegurémonos de que la IA sirva a las personas y no al revés”.
Leer más: Cómo la secretaria de Comercio, Gina Raimondo, se convirtió en la mujer clave de Estados Unidos en materia de IA
Esta convocatoria marca un importante paso adelante en la cooperación internacional sobre la gobernanza de la IA. Los primeros AISI surgieron durante la Cumbre inaugural de Seguridad de la IA organizada en el Reino Unido en noviembre pasado. Ambos Reino Unido Y A NOSOTROS Los gobiernos han anunciado la formación de sus respectivos AISI como una forma de brindarles la capacidad técnica para evaluar la seguridad de modelos sofisticados de IA. Otros países siguieron; En mayo, en otra cumbre de IA en Seúl, Raimondo anunció la creación de la red.
A Declaración conjuntaLos miembros de la Red Internacional de Institutos de Seguridad de IA, que incluye AISI en EE. UU., Reino Unido, Australia, Canadá, Francia, Japón, Kenia, Corea del Sur y Singapur, han fijado su misión: “Ser un foro que reúna a personas de todo el mundo. experiencia técnica mundial, “…para facilitar una comprensión técnica común de los riesgos y mitigaciones de seguridad de la IA basada en el trabajo de nuestro Instituto en la comunidad científica más amplia”, y “…fomentar una comprensión y una visión comunes de la seguridad de la IA a nivel mundial , que es la fuerza impulsora detrás de la innovación en IA. permitirá que los beneficios sean compartidos entre países en todas las etapas de desarrollo”.
En el período previo a la conferencia, el AISI estadounidense, que actúa como presidente inaugural de la red, también anunció un nuevo gobierno. grupo de trabajo Se centra en los riesgos de seguridad nacional de la tecnología. El Grupo de Trabajo de Prueba de Riesgos de la IA para la Seguridad Nacional (TRAINS) reúne a representantes de los Departamentos de Defensa, Energía, Seguridad Nacional y Salud y Servicios Humanos. Estará presidido por el AISI de EE. UU. y tiene como objetivo “identificar, medir y gestionar las implicaciones emergentes para la seguridad nacional y la seguridad pública de las tecnologías de inteligencia artificial en rápida evolución”, con un enfoque particular en la seguridad radiológica y nuclear, la seguridad química y biológica, la seguridad cibernética. . , infraestructura crítica y capacidades militares convencionales.
El impulso a la cooperación internacional se produce en un momento de crecientes tensiones en torno al desarrollo de la IA entre Estados Unidos y China, cuyo Ausencia Destacado de la red. En comentarios pregrabados para la convocatoria, el líder de la mayoría del Senado, Chuck Schumer, enfatizó la importancia de garantizar que el Partido de la Comunidad China no “escriba las reglas del camino”. Más temprano el miércoles, el laboratorio chino Dipsik Dr. anuncio Se dice que un nuevo modelo de “razonamiento” es el primero en rivalizar con el propio modelo de razonamiento de OpenAI, o1, que según la compañía está “diseñado para pensar más” antes de reaccionar.
El martes, la Comisión de Revisión Económica y de Seguridad entre Estados Unidos y China, que ha proporcionado recomendaciones anuales al Congreso desde 2000, recomendó que el Congreso establezca y financie un “programa similar al Proyecto Manhattan dedicado a lograr una capacidad de Inteligencia General Artificial (AGI)”, que Comisión Definido Como “un sistema tan bueno o mejor que las capacidades humanas en todos los dominios cognitivos” que “superará a la mente humana más aguda en cada tarea”.
Muchos expertos en este campo, como Geoffrey Hinton, que a principios de este año ganó el Premio Nobel de Física por su trabajar Sobre Inteligencia Artificial, publicado inquietud Que, si se desarrolla AGI, la humanidad no podrá controlarlo, lo que podría provocar pérdidas catastróficas. En un panel de discusión en el evento del miércoles, el CEO de Anthropic, Dario Amodei cree Los sistemas similares a los AGI podrían llegar tan pronto como en 2026; los riesgos de “pérdida de control” se citan como una preocupación grave, junto con los riesgos de que futuros modelos más capaces sean utilizados indebidamente por actores maliciosos para el bioterrorismo o para socavar la ciberseguridad. Amodei Dr. en respuesta a una pregunta revelar Apoyo inequívoco a la exigencia de pruebas de sistemas avanzados de IA, señalando que “también debemos tener mucho cuidado con la forma en que lo hacemos”.
Mientras tanto, avanza una verdadera cooperación internacional en materia de seguridad de la IA. A principios de semana, AISI en EE.UU. y el Reino Unido compartieron la información preliminar. resultado De su evaluación previa a la implementación de un modelo avanzado de IA: la versión mejorada de Anthropic de Claude 3.5 Sonnet. La evaluación se centra en evaluar las capacidades biológicas y cibernéticas del modelo, así como su efectividad en las tareas de desarrollo y software y la efectividad de las salvaguardas incorporadas para evitar que el modelo responda a solicitudes maliciosas. Tanto el AISI del Reino Unido como el de EE. UU. descubrieron que estas salvaguardas podían “eludirse rutinariamente”, lo que, según señalaron, era “consistente con investigaciones previas sobre las vulnerabilidades de las salvaguardias de otros sistemas de IA”.
La convocatoria de San Francisco identificó tres cuestiones prioritarias que “se beneficiarán urgentemente de la colaboración internacional”: gestionar los riesgos del contenido sintético, probar modelos fundamentales y evaluar los riesgos de los sistemas avanzados de IA. Antes de la convocatoria, se anunció una financiación de 11 millones de dólares para apoyar la investigación sobre la mejor manera de reducir los riesgos del contenido sintético (como la creación y distribución de material de abuso sexual infantil y facilidades para el fraude y la suplantación de identidad). La financiación fue proporcionada por una combinación de agencias gubernamentales y organizaciones filantrópicas, incluidas la República de Corea y la Fundación Knight.
Si bien no está claro cómo afectará la victoria electoral de Donald Trump al futuro del AISI estadounidense y a la política estadounidense de IA en términos más generales, la cooperación internacional en materia de seguridad de la IA continuará. El AISI del Reino Unido acoge otro con sede en San Francisco conferencia Esta semana, asóciese con Centro para la gobernanza de la IA“Frontier AI para acelerar el diseño y la implementación de marcos de seguridad”. Y en febrero, Francia anunció su “Cumbre de acción de IA”, tras las cumbres celebradas en Seúl en mayo y en el Reino Unido en noviembre pasado. La Cumbre de Acción sobre IA de 2025 reunirá a líderes de los sectores público y privado, el mundo académico y la sociedad civil, mientras actores de todo el mundo intentan encontrar formas de gestionar el poder de la tecnología a medida que se acelera.
Raimondo destacó el miércoles la importancia de integrar la seguridad con la innovación cuando se trata de algo tan rápido y poderoso como la IA. “Tiene el potencial de reemplazar la mente de las personas”, afirmó. “La seguridad es buena para la innovación. La seguridad genera confianza. La confianza genera impulso. La adopción conduce a más innovación. Necesitamos ese círculo virtuoso”.