L'IA Mythos d'Anthropic divise le Pentagone et la NSA américains

Une agence de sécurité américaine utilise l'outil d'IA Mythos Preview d'Anthropic, malgré les réserves du Pentagone sur les risques de chaîne d'approvisionnement. Cette situation révèle les tensions autour de l'adoption d'IA avancées dans les secteur…

Rédaction · 20 avril 2026 à 11h38 · 1 min de lecture · 5 vues

L'IA Mythos d'Anthropic divise le Pentagone et la NSA américains
© L'entreprise Intelligente

Une agence de sécurité américaine utilise l'outil d'IA Mythos Preview d'Anthropic, malgré les réserves du Pentagone sur les risques de chaîne d'approvisionnement. Cette situation révèle les tensions autour de l'adoption d'IA avancées dans les secteurs sensibles.

Une adoption controversée au sein de l'appareil sécuritaire américain

Selon The Economic Times (Inde), la National Security Agency (NSA) américaine utilise actuellement l'outil d'IA Mythos Preview d'Anthropic, et ce malgré une désignation formelle de « risque de chaîne d'approvisionnement » émise par le Pentagone contre cette entreprise. Cette utilisation se généralise au sein du département, rapporte Axios (États-Unis).

Cette situation intervient après des discussions entre l'administration Trump et le PDG d'Anthropic, marquant la première collaboration depuis un différend survenu plus tôt dans l'année concernant l'usage approprié des modèles de cette société d'IA.

Mythos Preview : des capacités qui inquiètent les experts

Anthropic décrit Mythos comme son modèle « le plus capable à ce jour pour le codage et les tâches agentiques », faisant référence à sa capacité d'action autonome. Selon The Economic Times (Inde), cette aptitude au codage de haut niveau lui confère « une capacité potentiellement sans précédent pour identifier les vulnérabilités de cybersécurité et concevoir des moyens de les exploiter ».

Ces craintes soulèvent des questions légitimes sur l'usage de telles technologies dans des environnements sensibles, particulièrement quand les capacités autonomes de l'IA peuvent dépasser le contrôle humain traditionnel.

Enseignements pour les PME françaises

Cette tension institutionnelle américaine illustre un défi que connaissent également les dirigeants français : comment évaluer et adopter des outils d'IA puissants tout en maîtrisant les risques ? Pour les PME françaises, plusieurs leçons émergent de cette situation.

D'abord, l'importance d'une évaluation rigoureuse des fournisseurs d'IA, particulièrement concernant la sécurité des données et la chaîne d'approvisionnement technologique. Ensuite, la nécessité de définir des protocoles d'usage clairs, même quand les capacités techniques sont séduisantes. Enfin, l'intérêt de maintenir un dialogue constant entre équipes techniques et direction pour éviter les adoptions divergentes au sein de l'organisation.

Dans le contexte français, où la CNIL et l'AI Act européen renforcent les exigences de conformité, cette vigilance devient d'autant plus cruciale pour les entreprises souhaitant intégrer des IA avancées sans compromettre leur sécurité opérationnelle.

Sources : The Economic Times (Inde), Axios (États-Unis).


Commentaires (0)

Soyez le premier à commenter cet article.