La start-up californienne d’intelligence artificielle, à l’origine de l’IA Claude, fait face à des conséquences potentiellement dévastatrices suite à sa récente désignation par le gouvernement Trump comme "à risque". Cette étiquette pourrait entraîner non seulement la perte de tous ses contrats publics, mais aussi mettre en péril son avenir même en raison de restrictions éthiques imposées par l’entreprise.
En effet, Anthropic a toujours refusé que ses modèles d'IA soient utilisés à des fins militaires, notamment pour des actions de surveillance ou des attaques automatisées. D’après les rapports de plusieurs médias, c'est le ministère de la Défense qui a officialisé ce classement le 6 mars. Cette décision pourrait créer une onde de choc au sein de l’entreprise, dont le président Donald Trump a appelé à boycotter les logiciels, ordonnant à son administration de "cesser immédiatement toute utilisation" de ces produits innovants.
Un classement "à risque" signifie qu’Anthropic est exclue des contrats publics, ce qui pose un problème majeur pour une start-up qui avait récemment signé un important contrat de 200 millions de dollars avec le ministère de la Défense. De plus, d'autres agences, y compris le Trésor, ont annoncé la fin de leurs partenariats avec elle, accentuant la pression sur l'entreprise.
Une liste jusqu'ici réservée à des entreprises étrangères
Historiquement, ce classement était attribué principalement à des entreprises étrangères, mais la situation d’Anthropic marque un tournant dans la politique américaine vis-à-vis du secteur technologique. Comme le souligne un analyste de TechCrunch, cette classification pourrait contraindre d'autres fournisseurs de services cloud à reconsidérer leur relation avec la start-up. En effet, la majorité des grandes entreprises technologiques collaborent avec le gouvernement américain, et une rupture avec Anthropic pourrait les priver de ressources cruciales pour le développement de l'IA.
Alors que le monde de l’intelligence artificielle continue de croître à un rythme alarmant, la position d'Anthropic s'avère de plus en plus précaire. Selon une enquête publiée par Le Monde, les experts craignent que cette situation ne crée un précédent dangereux pour d'autres start-ups dans le domaine. Il est crucial que l’industrie technologique surveille de près ces développements.







