Google, Microsoft y xAI acuerdan dar acceso anticipado al gobierno de EE. UU. a modelos de IA

Google, Microsoft y xAI han acordado dar acceso anticipado al gobierno de EE. UU. a sus modelos de IA para evaluación y seguridad. Esto amplía una iniciativa existente.

1200x 1

Las empresas Google, Microsoft y xAI han acordado proporcionar al gobierno de EE. UU. acceso anticipado a sus modelos de inteligencia artificial para evaluar sus capacidades y mejorar la seguridad antes de su lanzamiento público.

Estos acuerdos amplían una iniciativa a la que ya se habían unido OpenAI y Anthropic, quienes previamente permitieron evaluaciones preliminares de sus desarrollos. Las evaluaciones son realizadas por el Centro de Estándares e Innovación de IA (Center for AI Standards and Innovation, CASI) del Departamento de Comercio de EE. UU., según informó la agencia el martes.

OpenAI y Anthropic han renegociado sus acuerdos de asociación existentes con el centro para alinearlos mejor con las prioridades del Plan de Acción de IA del presidente Donald Trump. Desde 2024, el CASI ya ha evaluado más de 40 modelos de IA, incluidos algunos de los más avanzados que aún no han sido lanzados, según un comunicado.

Expansión del Mandato del CASI

Los nuevos acuerdos se dan a conocer en medio de la preocupación de los funcionarios estadounidenses por el sistema Mythos de Anthropic, lo que señala una expansión del mandato para el centro, relativamente nuevo. El centro, fundado en 2023 como el Instituto de Seguridad de IA (AI Safety Institute) bajo el presidente Joe Biden y renombrado por la administración Trump el año pasado, se autodenomina «el principal punto de contacto de la industria con el gobierno de EE. UU.» para pruebas, investigación colaborativa y desarrollo de mejores prácticas.

La existencia del CASI aún no está consagrada en la legislación, aunque algunos legisladores estadounidenses ya han presentado un proyecto de ley para otorgar al centro un estatus permanente. El director del CASI, Chris Fall, quien asumió el cargo después del repentino despido de Collin Burns, exinvestigador de IA de Anthropic, señaló que «estas colaboraciones industriales ampliadas ayudan a escalar nuestro trabajo en interés público en un momento crítico».

Planes de la Administración Trump para la IA

Los nuevos acuerdos de evaluación de modelos surgen tras informes de The New York Times y The Wall Street Journal de que la administración Trump está considerando emitir una orden ejecutiva para crear un proceso gubernamental de revisión de las herramientas de IA, lo que, según las publicaciones, sería una forma de supervisión. Un portavoz de la Casa Blanca calificó las discusiones sobre posibles órdenes ejecutivas como especulaciones, afirmando que cualquier anuncio provendría directamente de Trump.

El Plan de Acción de IA de Trump, revelado en julio, prevé que el CASI se convierta en parte de un llamado «ecosistema de evaluación de IA» y lidere las evaluaciones de modelos de IA relacionadas con la seguridad nacional. El plan también añade que los reguladores deben «explorar el uso de las evaluaciones en la aplicación de la legislación existente a los sistemas de IA». Una evaluación más amplia de los modelos por parte del centro podría allanar el camino para una nueva aplicación de las leyes ya existentes.

Los esfuerzos de la administración para dar forma a la política de IA se aceleraron después de que Anthropic anunciara el mes pasado que su innovador modelo Mythos es hábil para detectar vulnerabilidades de ciberseguridad. La Casa Blanca ya se ha opuesto al plan de Anthropic de ampliar el acceso a su modelo Mythos.

Fuente: Bloomberg Technology

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *