Crypto

Anthropic reconnaît avoir dégradé Claude involontairement en tentant de l’améliorer

L'IA Claude d'Anthropic a effectivement produit des réponses dégradées ces dernières semaines. La société confirme que trois modifications techniques ont causé cette baisse de performance. L’article Anthropic reconnaît avoir dégradé Claude involontairement en tentant de l’améliorer est apparu en pre

C
Coin Academy
24 avril 2026· 3 min de lecture
GM
Crypto

Ce qu’il faut retenir :

  • Anthropic confirme que Claude a produit des réponses de moindre qualité en mars et avril 2026.
  • Trois changements techniques distincts ont causé cette dégradation involontaire des performances.
  • Les ajustements concernaient Claude Code, l’Agent SDK et Claude Cowork, mais pas l’API.

Trois modifications techniques à l’origine de la dégradation

Anthropic a publié jeudi les résultats d’une enquête interne qui confirme la dégradation de Claude observée par les utilisateurs en mars et avril 2026. Trois modifications distinctes ont involontairement réduit la qualité des réponses pour les services Claude Code, l’Agent SDK et Claude Cowork.

Le 4 mars, la société a réduit le niveau d’effort par défaut de Claude Code de high à medium. Ce paramètre contrôle l’intensité de réflexion du modèle sur une tâche donnée. “C’était le mauvais compromis”, reconnaît Anthropic, qui a annulé ce changement le 7 avril après les retours utilisateurs. La version actuelle Claude Code v2.1.118 utilise désormais le niveau “xhigh” sur Sonnet 4.6.

Anthropic reconnaît une baisse de qualité récente de Claude Code liée à trois problèmes désormais corrigés en v2.1.116+ et annonce une réinitialisation des limites d’usage pour tous les abonnés. pic.twitter.com/SzBV4F254K

— Coin Academy (@coinacademy_fr) April 23, 2026

Un bug de cache qui vidait les sessions

Le 26 mars, un bug d’optimisation du cache a aggravé la situation. Une modification destinée à améliorer les performances a provoqué la suppression des données de session mises en cache à chaque cycle de question-réponse.

Claude conserve normalement les tokens d’entrée en cache pendant une heure, accélérant les appels API séquentiels et réduisant les coûts. Les ingénieurs voulaient seulement effacer les tokens de sortie pour les utilisateurs inactifs depuis une heure, mais le système supprimait toutes les données cachées en permanence.

L’API Claude épargnée par les dysfonctionnements

L’API de Claude n’a pas été affectée par ces problèmes techniques. Seuls les services Claude Code, l’Agent SDK et Claude Cowork ont subi cette baisse de performance. Les utilisateurs ont également signalé des problèmes de disponibilité du service qui ont amplifié leur frustration.

Anthropic précise qu’aucune dégradation n’était intentionnelle. La société a mené cette enquête après de nombreuses plaintes d’utilisateurs concernant la qualité des réponses de l’IA entre mars et avril.

Ce qu’il faut surveiller

La correction du niveau d’effort par défaut et la résolution du bug de cache devraient restaurer les performances de Claude Code. Les utilisateurs peuvent désormais opter pour des niveaux d’effort inférieurs sur des tâches simples plutôt que de subir une intelligence réduite par défaut.

L’article Anthropic reconnaît avoir dégradé Claude involontairement en tentant de l’améliorer est apparu en premier sur Coin Academy

Article original

Anthropic reconnaît avoir dégradé Claude involontairement en tentant de l’améliorer

Publié par Coin Academy

Lire l'article complet