Le ministère de la Défense américain a récemment inscrit Anthropic sur sa liste des entreprises considérées comme présentant un « risque pour la sécurité nationale ». Cette décision a été prise en réponse à la réticence d’Anthropic à lever certaines restrictions sur l’utilisation de son intelligence artificielle (IA).
Un document judiciaire de Microsoft, rendu public mardi, met en lumière les conséquences potentielles de ces sanctions. Il avertit que l’application immédiate de ces mesures pourrait « entraver » l’efficacité des opérations militaires américaines en cours au Moyen-Orient. Le nom d’Anthropic est devenu synonyme d’innovation dans le domaine de l’IA, notamment à travers son assistant Claude, dont les capacités seraient cruciales pour le Pentagone.
« Cela pourrait sérieusement nuire aux forces américaines à un moment où chaque ressource est essentielle », souligne Microsoft dans son argumentaire soutenant l’action en justice d’Anthropic visant à contester cette inscription. Les technologies d’Anthropic sont actuellement les seules autorisées pour traiter des informations classifiées au sein du Pentagone.
Des sources rapportent que ces technologies ont été essentielles lors de la planification de récentes opérations militaires. Anthropic a donc décidé de se tourner vers un tribunal fédéral californien pour demander l’annulation de son statut à « risque » et la révision de ses contrats avec le gouvernement fédéral, une décision controversée issue de l’administration Trump.
Trump ne veut plus d’Anthropic
Anthropic, dont Microsoft est un partenaire majeur, bénéficie de capacités de calcul via les centres de données de l’entreprise. Ce partenariat, révélé en novembre, inclut un investissement de 5 milliards de dollars de Microsoft dans la start-up.
Selon des médias américains, un décret présidentiel pourrait bientôt viser à couper tous les liens commerciaux entre Anthropic et le gouvernement fédéral. Microsoft plaide pour une pause des sanctions afin de permettre une négociation entre les parties concernées.
Dans son mémoire, Microsoft soutient également que « l’IA ne doit pas être utilisée pour des opérations de surveillance intrusive, ni pour mettre en danger les relations internationales par le biais d’actions autonomes non régulées ». Cette position s’accorde avec celle d’Anthropic, qui a essuyé des critiques pour avoir refusé de permettre que ses modèles soient employés à des fins de collecte massive de données ou d’opérations militaires automatisées.







