Crypto

IA : Goldman Sachs interdit Claude d’Anthropic à ses banquiers de Hong Kong

Goldman Sachs interdit à ses banquiers de Hong Kong d'utiliser les modèles Claude d'Anthropic, sur fond de tensions sino-américaines autour de l'IA. L’article IA : Goldman Sachs interdit Claude d’Anthropic à ses banquiers de Hong Kong est apparu en premier sur Coin Academy

C
Coin Academy
29 avril 2026·3 min de lecture
GM
Crypto

Ce qu’il faut retenir :

  • Goldman Sachs a coupé l’accès aux modèles Claude d’Anthropic pour ses employés basés à Hong Kong depuis quelques semaines.
  • La décision résulte d’une interprétation stricte du contrat entre la banque et Anthropic, qui n’a jamais officiellement “supporté” ses modèles dans le territoire chinois.
  • L’affaire illustre comment les tensions sino-américaines sur l’IA commencent à affecter concrètement les opérations des banques internationales en Asie.

Les banquiers de Goldman Sachs à Hong Kong ne peuvent plus utiliser les modèles d’IA Claude d’Anthropic. Ni en accès direct, ni via les plateformes d’intelligence artificielle internes de la banque. La restriction, en vigueur depuis quelques semaines, ajoute une couche opérationnelle aux tensions croissantes entre Washington et Pékin autour des technologies d’IA.

Une lecture stricte du contrat avec Anthropic

La décision de Goldman ne relève pas d’une directive gouvernementale mais d’un choix juridique interne. Après consultation avec Anthropic, la banque a adopté une interprétation stricte de son contrat qui conclut que ses employés à Hong Kong ne devraient pas pouvoir accéder aux produits du laboratoire d’IA. La restriction ne s’étend pas aux contrats avec d’autres fournisseurs comme OpenAI.

Anthropic a précisé que ses modèles Claude n’avaient jamais été officiellement “supportés” à Hong Kong, sans commenter davantage. Goldman a refusé de s’exprimer.

Les modèles d’IA occidentaux comme ChatGPT et Claude sont bloqués en Chine continentale par le “Grand Firewall”. Hong Kong, en tant que région administrative spéciale, a historiquement échappé à ces restrictions. Ce sont les entreprises d’IA américaines elles-mêmes qui imposent les limites d’usage dans le territoire.

Le spectre de la distillation

Les laboratoires d’IA américains craignent que l’utilisation de leurs modèles en zone d’influence chinoise facilite la distillation, cette technique qui permet d’entraîner de nouveaux modèles à partir des sorties de modèles existants. OpenAI a accusé l’an dernier le chinois DeepSeek d’avoir utilisé ses modèles GPT pour entraîner les siens. La Maison-Blanche a renchéri ce mois-ci en dénonçant un vol de propriété intellectuelle à “échelle industrielle” par des entités chinoises.

L’ambassade de Chine à Washington a qualifié ces accusations de “pure calomnie”.

Un problème concret pour Hong Kong

La restriction pose un défi opérationnel pour les équipes de Goldman à Hong Kong. La ville reste le hub de banque d’investissement et de finance pour l’ensemble de la Grande Chine chez la plupart des banques mondiales, coordonnant le trading, les fusions-acquisitions et les introductions en bourse transfrontalières.

Les employés qui utilisaient Claude pour le coding et la modélisation financière risquent de prendre du retard sur leurs collègues d’autres bureaux ou d’autres institutions ayant encore accès aux modèles les plus avancés. La question se pose aussi pour d’autres entreprises et institutions du territoire disposant de contrats globaux avec Anthropic.

L’affaire survient alors que le nouveau modèle Mythos d’Anthropic, aux capacités de cybersécurité jugées sans précédent, a suscité l’inquiétude des gouvernements et des institutions financières quant aux risques qu’il pourrait poser pour les systèmes informatiques mondiaux.

Article original

IA : Goldman Sachs interdit Claude d’Anthropic à ses banquiers de Hong Kong

Publié par Coin Academy

Lire l'article complet