Sans un mot d’avertissement. L’entreprise américaine d’intelligence artificielle Anthropic a choisi de restreindre la diffusion de son modèle Mythos à un cercle restreint de partenaires, permettant seulement des corrections concernant ses failles. Selon des sources, ce modèle aurait la capacité de détecter et exploiter des vulnérabilités plus efficacement que la plupart des humains, ce qui a suscité de vives inquiétudes dans le domaine de la cybersécurité, notamment en Bourse.
Alors que des discussions ont eu lieu aux États-Unis impliquant des acteurs majeurs du secteur technologique et que le Royaume-Uni a pris l'initiative de tester les modèles d’IA, l'Union européenne semble être restée sur le banc de touche. Cette exclusion soulève des questions cruciales concernant la sécurité et la régulation des technologies avancées.
L'Europe mise à l'écart
Selon Politico, les instances de cybersécurité en Europe n'ont pas été consultées par Anthropic. Bien que l'Allemagne ait amorcé quelques conversations avec l'entreprise, les tests sur Mythos n'ont pas encore été réalisés, et d'autres agences évoquent un accès limité. Cette situation alimente de sérieuses inquiétudes quant à la transparence.
"Il est difficile de vérifier l'impact réel des vulnérabilités découvertes sans détails techniques", a déclaré Job Holzhauer, porte-parole de l'agence néerlandaise de cybersécurité. Malgré des initiatives internationales comme celles du G7, aucun cadre solide n’a émergé en raison du manque de soutien politique.
L'Union européenne s'appuie sur le règlement sur l'intelligence artificielle (AI Act) adopté en 2024, imposant des obligations aux fournisseurs d'IA et interdisant certaines applications nuisibles aux droits fondamentaux. Néanmoins, cette omission par Anthropic survient dans un contexte de tensions croissantes entre les géants technologiques et l'UE, qui cherche à renforcer ses régulations tout en se heurtant à leur domination.
D'un côté, l'UE aspire à consolider sa souveraineté numérique, mais les entreprises gardent un pouvoir déterminant. Dans le contexte de la compétition mondiale autour de l'IA, les enjeux de sécurité semblent passer au second plan, ce qui pourrait avoir des conséquences lourdes à l'avenir.







