OpenAI ha contratado al gobierno de EE. UU. para investigar y probar la IA de signos antropomórficos

Los acuerdos también permitirán la investigación colaborativa para evaluar las capacidades y riesgos de los modelos de IA.

Las nuevas empresas de inteligencia artificial OpenAI y Anthropic han firmado contratos con el gobierno de EE. UU. para investigar, probar y evaluar sus modelos de inteligencia artificial, dijo el jueves el Instituto de Seguridad de Inteligencia Artificial de EE. UU.

Sus acuerdos, primeros en su tipo, llegan en un momento en que las empresas enfrentan un escrutinio regulatorio sobre el uso seguro y ético de la tecnología de inteligencia artificial.

Los legisladores de California votarán esta semana un proyecto de ley para regular ampliamente cómo se desarrolla y despliega la IA en el estado.

“La IA segura y confiable es fundamental para el impacto positivo de la tecnología. Nuestra colaboración con el Instituto de Seguridad de IA de EE. UU. aprovecha su amplia experiencia para probar rigurosamente nuestros modelos antes de su implementación generalizada”, dijo Jack Clark, cofundador y director de políticas de Anthropic Supported. por Amazon y Alphabet.

Según el acuerdo, el Instituto de Seguridad de IA de EE. UU. tendrá acceso a nuevos modelos clave de OpenAI y Anthropic antes y después de su lanzamiento público.

Los acuerdos permitirán la investigación colaborativa para evaluar las capacidades de los modelos de IA y sus riesgos asociados.

“Creemos que el Instituto tiene un papel importante que desempeñar en la definición del liderazgo de Estados Unidos en el desarrollo responsable de la inteligencia artificial, y esperamos que nuestro trabajo conjunto proporcione un marco sobre el que el resto del mundo pueda construir”, dijo Jason Kwon, director de estrategia de el creador de ChatGPT. OpenAI.

“Estos acuerdos son sólo el comienzo, pero son hitos importantes a medida que ayudamos a dar forma al futuro de la IA de manera responsable”, dijo Elizabeth Kelly, directora del Instituto de Seguridad de la IA de EE. UU.

El instituto, que forma parte del Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU., también colaborará con el Instituto de Seguridad de IA del Reino Unido y brindará a las empresas comentarios sobre posibles mejoras de seguridad.

El Instituto de Seguridad de IA de EE. UU. se inauguró el año pasado como parte de una orden ejecutiva de la administración del presidente Joe Biden para evaluar los riesgos conocidos y emergentes de los modelos de inteligencia artificial.

(Esta historia no fue editada por el personal de NDTV y se generó automáticamente a partir de un feed sindicado).

Source link