Google, Microsoft et xAI accordent un accès anticipé au gouvernement américain à leurs modèles d’IA

Google, Microsoft et xAI ont accepté de donner au gouvernement américain un accès anticipé à leurs modèles d'IA pour évaluation et sécurité, rejoignant OpenAI et Anthropic.

1200x 1

Les entreprises Google, Microsoft et xAI ont accepté de fournir au gouvernement américain un accès anticipé à leurs modèles d’intelligence artificielle (IA) afin d’évaluer leurs capacités et d’améliorer leur sécurité avant leur lancement public.

Ces accords étendent une initiative à laquelle OpenAI et Anthropic avaient déjà adhéré, ayant précédemment autorisé des vérifications préliminaires de leurs développements. Ces évaluations sont menées par le Centre pour les normes et l’innovation en IA (Center for AI Standards and Innovation, CASI) du ministère du Commerce des États-Unis, comme l’a annoncé l’agence mardi.

OpenAI et Anthropic ont renouvelé leurs accords de partenariat existants avec le centre afin de mieux les aligner sur les priorités du Plan d’action sur l’IA du président Donald Trump. Depuis 2024, le CASI a déjà évalué plus de 40 modèles d’IA, y compris les plus avancés qui n’ont pas encore été lancés, selon un communiqué.

Extension du mandat du CASI

Ces nouveaux accords sont annoncés alors que des responsables américains s’inquiètent du système Mythos d’Anthropic, ce qui signale une extension du mandat de ce centre relativement nouveau. Le centre, fondé en 2023 sous le nom d’Institut de sécurité de l’IA (AI Safety Institute) sous la présidence de Joe Biden et rebaptisé l’année dernière par l’administration Trump, se décrit comme «le principal point de contact de l’industrie au sein du gouvernement américain» pour les tests, la recherche collaborative et le développement des meilleures pratiques.

L’existence du CASI n’est pas encore inscrite dans la loi, bien que certains législateurs américains aient déjà présenté un projet de loi visant à accorder au centre un statut permanent. Le directeur du CASI, Chris Fall, qui a pris la tête du centre après le licenciement soudain de Collin Burns, ancien chercheur en IA chez Anthropic, a déclaré que «ces collaborations industrielles étendues contribuent à intensifier notre travail dans l’intérêt public à un moment critique».

Plans de l’administration Trump concernant l’IA

Les nouveaux accords sur l’évaluation des modèles font suite à des informations du New York Times et du Wall Street Journal selon lesquelles l’administration Trump envisagerait de publier un décret exécutif visant à créer un processus gouvernemental de vérification des outils d’IA, ce qui, d’après les publications, constituerait une forme de surveillance. Un représentant de la Maison Blanche a qualifié de spéculations les discussions sur de potentiels décrets exécutifs, affirmant que toute annonce proviendrait directement de Trump.

Le Plan d’action de Trump sur l’IA, dévoilé en juillet, prévoit que le CASI fasse partie d’un «écosystème d’évaluation de l’IA» et dirige les évaluations des modèles d’IA liés à la sécurité nationale. Le plan ajoute également que les régulateurs devraient «étudier l’utilisation des évaluations dans l’application de la législation existante aux systèmes d’IA». Une évaluation plus large des modèles par le centre pourrait ouvrir la voie à une nouvelle application des lois déjà en vigueur.

Les efforts de l’administration pour élaborer une politique en matière d’IA se sont accélérés après qu’Anthropic a annoncé le mois dernier que son modèle révolutionnaire Mythos était capable de détecter habilement les failles de cybersécurité. La Maison Blanche s’est déjà opposée au plan d’Anthropic visant à étendre l’accès à son modèle Mythos.

Source : Bloomberg Technology

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *