Le ministre américain de la défense, Pete Hegseth, a annoncé un ultimatum à la start-up californienne Anthropic concernant les restrictions sur l’accès à son modèle d’intelligence artificielle, Claude. L'échéance a été fixée au vendredi 24 février à 23h01 (heure de Paris).
En cas de non-respect de cet ultimatum, le ministre pourrait invoquer une loi datant de 1950, qui lui permettrait de contraindre les entreprises privées à fournir des biens essentiels à la défense nationale. Un responsable a déclaré à l’Agence France-Presse (AFP) que si la situation ne s'arrange pas, le Pentagone envisagera également d’inscrire Anthropic sur une liste d’entreprises jugées « à risque pour les approvisionnements ».
Être inscrit sur cette liste pourrait avoir des conséquences sévères, restreignant significativement les opportunités de contrats avec le gouvernement américain, qui pourrait alors décider de ne plus recourir à leurs services.
Actuellement, cette liste inclut principalement des entreprises étrangères, comme le géant chinois de l'équipement Huawei et le spécialiste russe de la cybersécurité Kaspersky, indiquant ainsi la gravité de la situation pour Anthropic.
Un bras de fer autour de l’éthique de l’IA
L’intransigeance du Pentagone semble exacerbée par un récent entretien entre Hegseth et Dario Amodei, le dirigeant d’Anthropic. Le ministère a appelé toutes les entreprises fournissant de l’intelligence artificielle à lever leurs restrictions par défaut sur l'utilisation de leurs modèles, dans le but d'élargir le champ des possibles tant que cela respecte la légalité.
Tandis que de nombreux acteurs du secteur ont accepté cette demande, Anthropic a été l'une des rares à exprimer des réserves. La start-up, fondée par d'anciens de chez OpenAI, souhaite interdire l’usage de son modèle Claude dans deux domaines controversés : la surveillance de masse et l'automatisation d’attaques létales.
Un porte-parole d’Anthropic a déclaré à l’AFP : « Nous continuons d'engager des discussions constructives sur les applications de notre IA. Notre but est de s’assurer qu’Anthropic peut soutenir la mission nationale de sécurité tout en respectant les principes éthiques de responsabilité de nos modèles. »
Avec une philosophie centrée sur une IA éthique, Anthropic a récemment mis en avant un document intitulé « constitution », qui énumère les règles de conduite pour Claude, notamment des directives destinées à « prévenir des actions non appropriées », un effort visant à limiter les usages dangereux de l'intelligence artificielle.







