Bras de fer entre le Pentagone et les créateurs de l’intelligence artificielle Claude

0

Un bras de fer discret mais lourd de conséquences oppose aujourd’hui le Pentagone à Anthropic, l’entreprise à l’origine de l’intelligence artificielle Claude.

Derrière ce conflit se cache une question simple, mais explosive : qui fixe les limites de l’intelligence artificielle quand elle devient un outil de guerre ?

Un partenariat stratégique devenu source de tensions

À l’origine, tout semblait clair. Anthropic avait accepté de fournir son IA au département de la Défense américain, dans le cadre d’un contrat majeur. Claude devait aider l’armée à traiter des volumes massifs d’informations, à mieux analyser des situations complexes et à soutenir la prise de décision dans des environnements sensibles.

Mais une fois l’outil déployé, la relation s’est tendue. Le Pentagone a progressivement estimé que les garde-fous imposés par Anthropic limitaient trop fortement l’usage de l’IA. Pour l’institution militaire, ces restrictions sont incompatibles avec les exigences opérationnelles d’un État engagé dans une compétition stratégique mondiale.

Ce que l’armée américaine veut réellement

Du point de vue du Pentagone, l’enjeu est clair : lorsqu’une technologie est jugée légale et stratégique, elle ne devrait pas être bridée par les choix éthiques d’un acteur privé.

L’armée souhaite pouvoir utiliser Claude comme n’importe quel autre outil, sans avoir à négocier chaque usage avec son concepteur.

Cette position traduit une inquiétude plus large : celle de voir des entreprises technologiques devenir, de fait, des arbitres du champ militaire, capables de dire ce qui est acceptable ou non sur un théâtre d’opérations.

Anthropic refuse de franchir certaines lignes

Face à cette pression, Anthropic campe sur ses positions. L’entreprise affirme ne pas être hostile à la coopération avec les autorités militaires, mais elle refuse d’abandonner certains principes qu’elle juge fondamentaux.

Pour elle, il est hors de question que Claude soit impliqué dans des systèmes d’armes totalement autonomes ou dans des dispositifs de surveillance massive. Selon ses dirigeants, l’IA actuelle, aussi avancée soit-elle, reste faillible et ne doit jamais se substituer entièrement à un jugement humain, surtout lorsqu’il s’agit de décisions irréversibles.

Un rapport de force qui s’est durci

Devant ce refus, le ton est monté. Le Pentagone a laissé entendre qu’il disposait de leviers puissants pour faire plier l’entreprise. Sans entrer dans des annonces spectaculaires, le message est clair : un fournisseur stratégique qui refuse de coopérer pleinement peut perdre des contrats clés, être écarté de certains programmes sensibles, ou se retrouver confronté à des mécanismes juridiques exceptionnels mobilisés au nom de la sécurité nationale.

Le précédent cas Apple

Cette affaire rappelle celle survenue il y a quelques années avec un terroriste aux États-Unis. Le FBI et les autorités voulaient obliger Apple à déverrouiller l’iPhone du suspect pour accéder aux informations contenues dans le téléphone dans le cadre de l’enquête. Apple avait catégoriquement refusé, affirmant qu’ouvrir son système créerait un précédent dangereux et compromettrait la sécurité et la confidentialité de tous ses utilisateurs.

Un débat qui dépasse largement Claude

Au-delà du cas d’Anthropic, cette affaire ouvre un débat beaucoup plus large. Elle interroge la place des entreprises privées dans la définition des règles de la guerre moderne et pose une question centrale :

l’éthique peut-elle résister lorsque la sécurité nationale est invoquée ?

Pour de nombreux observateurs, ce conflit pourrait servir de précédent. La manière dont il sera tranché influencera les relations futures entre les gouvernements et les concepteurs d’IA, non seulement aux États-Unis, mais partout où ces technologies deviennent stratégiques.

Gildas Kinda

www.burkinaonline.net

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *