Washington choisit OpenAI : l’IA au cœur des tensions sécuritaires américaines

Après l’échec d’Anthropic, OpenAI signe en urgence avec le Département de la Défense

L’intelligence artificielle se retrouve une nouvelle fois au cœur des tensions entre innovation technologique, sécurité nationale et libertés civiles. Après l’échec des négociations entre Anthropic et le Pentagone, OpenAI a annoncé en urgence un accord avec le Département de la Défense américain pour le déploiement de ses modèles dans des environnements classifiés.

Un accord que le PDG d’OpenAI, Sam Altman, reconnaît lui-même comme ayant été « clairement précipité », admettant que « l’image que cela renvoie n’est pas bonne ».

Vendredi, les discussions entre Anthropic et le Pentagone ont échoué. Dans la foulée, le président Donald Trump a ordonné aux agences fédérales de cesser d’utiliser la technologie d’Anthropic après une période de transition de six mois. Le secrétaire à la Défense Pete Hegseth a, quant à lui, qualifié l’entreprise de « risque pour la chaîne d’approvisionnement ».

Dans ce contexte tendu, OpenAI a rapidement annoncé avoir conclu son propre accord avec le Département de la Défense pour permettre l’utilisation de ses modèles dans des environnements classifiés.

Cette rapidité a immédiatement suscité des interrogations : si Anthropic affirme refuser toute utilisation de ses modèles pour des armes totalement autonomes ou une surveillance de masse domestique, et si OpenAI revendique les mêmes « lignes rouges », pourquoi l’une a-t-elle pu signer et pas l’autre ?

Des garde-fous affichés

Face aux critiques, OpenAI a publié un billet de blog détaillant son cadre d’utilisation. L’entreprise affirme que ses modèles ne peuvent pas être utilisés dans trois domaines :

  • la surveillance massive sur le territoire américain ;

  • les systèmes d’armes autonomes ;

  • les décisions automatisées à forts enjeux, comme des systèmes de type « crédit social ».

OpenAI soutient que, contrairement à d’autres entreprises d’IA qui auraient « réduit ou supprimé leurs garde-fous de sécurité » dans le cadre de déploiements liés à la sécurité nationale, son accord repose sur une approche « multi-couches ».

L’entreprise affirme conserver « un contrôle total sur sa pile de sécurité », déployer ses modèles uniquement via une infrastructure cloud, maintenir des personnels habilités dans la boucle, et s’appuyer sur des protections contractuelles solides, en complément du cadre juridique américain existant.

Elle ajoute ne pas savoir pourquoi Anthropic n’a pas pu conclure un accord similaire, tout en espérant que d’autres laboratoires d’IA rejoindront ce type de partenariat.

Surveillance domestique : une zone grise ?

Les critiques n’ont toutefois pas tardé. Le journaliste Mike Masnick, du média Techdirt, estime que l’accord pourrait « absolument permettre la surveillance domestique ». Il souligne que la collecte de données privées mentionnée dans le contrat doit se conformer à l’Executive Order 12333, un texte juridique qu’il décrit comme un mécanisme par lequel la NSA capterait des communications en dehors du territoire américain, même si elles concernent des citoyens américains.

Sur LinkedIn, Katrina Mulligan, responsable des partenariats de sécurité nationale chez OpenAI, a répondu que le débat se focalise à tort sur une simple clause contractuelle. « L’architecture de déploiement compte plus que le langage contractuel », a-t-elle déclaré, expliquant que le recours exclusif à une API cloud empêcherait l’intégration directe des modèles dans des systèmes d’armes, des capteurs ou du matériel opérationnel.

Sur X, Sam Altman a reconnu que l’accord avait été conclu dans l’urgence et qu’il avait suscité une forte réaction négative — au point que le modèle Claude d’Anthropic aurait dépassé ChatGPT dans le classement de l’App Store d’Apple.

« Nous voulions vraiment désamorcer la situation, et nous pensions que l’accord proposé était bon », a expliqué Altman. Selon lui, si cet accord permet de réduire les tensions entre le Département de la Défense et l’industrie de l’IA, OpenAI apparaîtra comme une entreprise ayant pris des risques pour stabiliser le secteur. Dans le cas contraire, elle continuera d’être perçue comme précipitée et imprudente.

Une nouvelle étape dans la militarisation de l’IA

Au-delà de la polémique immédiate, cet épisode illustre la pression croissante exercée sur les entreprises d’intelligence artificielle dans un contexte de rivalités géopolitiques. Entre exigences de sécurité nationale et protection des libertés civiles, les géants de l’IA naviguent sur une ligne de crête.

La question demeure : les garde-fous techniques et contractuels suffiront-ils à empêcher les dérives, ou assistons-nous à une normalisation progressive de l’intégration de l’IA avancée dans l’appareil militaire américain ?

Partager :

par Socialnetlink

Retrouvez toute l'actu Tech et des Nouveaux Médias en Afrique  sur Socialnetlink.

Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.