Anthropic caracole, mais une semaine de tous les dangers
En l'espace de quelques jours, Anthropic a occupé le devant de la scène technologique mondiale pour des raisons aussi contradictoires que révélatrices. D'un côté, la startup californienne affiche une trajectoire de croissance qui donne le vertige : ses revenus annualisés auraient bondi de 9 milliards de dollars fin 2025 à 30 milliards fin mars 2026, portés essentiellement par l'explosion de la demande pour ses outils de codage. De l'autre, la semaine du 14 avril 2026 a exposé trois lignes de fracture majeures qui pourraient remettre en question cette ascension : une vague de mécontentement d'utilisateurs sur les performances de Claude, des alertes mondiales sur les risques cybersécuritaires liés au modèle Mythos, et une guerre de valorisation avec OpenAI qui redistribue les cartes du financement privé dans l'IA.
La course aux revenus qui inquiète OpenAI
Un rival qui gagne du terrain à une vitesse inédite
Les chiffres publiés mi-avril 2026 par le Financial Times sont spectaculaires. La progression des revenus d'Anthropic — de 9 à 30 milliards de dollars annualisés en seulement quelques mois — témoigne d'une adoption massive de ses produits, notamment Claude Code, son assistant dédié au développement logiciel. Dans le même temps, la valorisation d'Anthropic est estimée à 380 milliards de dollars, un chiffre qui, selon certains investisseurs ayant misé dans les deux camps, constituerait même une opportunité relative face aux 852 milliards de dollars affichés par OpenAI.
Un investisseur exposé aux deux sociétés a confié au Financial Times qu'il fallait, pour justifier la dernière levée de fonds d'OpenAI, postuler une valorisation à l'introduction en bourse d'au moins 1 200 milliards de dollars. Une hypothèse jugée audacieuse par plusieurs acteurs du marché secondaire, où les parts d'Anthropic font l'objet d'une demande décrite comme « insatiable », tandis que celles d'OpenAI s'échangeraient avec décote.
La comparaison avec Netscape qui fait mal
La formule de Jai Das, président de Sapphire Ventures — qui n'est partie prenante d'aucune des deux entreprises —, a fait l'effet d'une bombe dans les milieux de la tech. Comparer OpenAI au navigateur Netscape, écrasé par Microsoft dans les années 1990 avant d'être absorbé par AOL, c'est dessiner le scénario d'une déchéance rapide pour le leader actuel de l'IA grand public. De son côté, Sarah Friar, directrice financière d'OpenAI, a rejeté ce pessimisme, rappelant que la levée de 122 milliards de dollars — la plus importante de l'histoire du capital-risque privé — attestait d'une confiance intacte des investisseurs institutionnels.
Cette confrontation entre les deux géants de l'IA rappelle à quel point le secteur est en pleine recomposition. Anthropic révèle quels emplois l'IA pourrait supprimer : les cols blancs face à une menace historique — un sujet qui s'inscrit directement dans la dynamique de puissance que la startup cherche à imposer face à ses concurrents.
Claude en crise : quand la croissance dépasse les capacités
Une dégradation silencieuse des performances
La popularité soudaine de Claude a un revers. De nombreux développeurs et utilisateurs avancés ont signalé, ces dernières semaines, une dégradation notable des performances du modèle phare d'Anthropic. Les reproches sont précis : Claude suivrait moins bien les instructions complexes, adopterait des raccourcis parfois inadaptés et multiplierait les erreurs dans des enchaînements de tâches élaborées. Pour des professionnels qui intègrent l'outil dans des workflows critiques, ces failles ne sont pas anodines.
L'origine de ces dysfonctionnements semble avoir été identifiée : Anthropic aurait discrètement abaissé le niveau d'effort par défaut du modèle à « moyen », en réduisant le nombre de tokens — unités de données traitées — par requête. Cette décision permettrait d'économiser des ressources de calcul dans un contexte où la demande explosive aurait mis sous pression les infrastructures de la société. Boris Cherny, le dirigeant en charge de Claude Code chez Anthropic, a reconnu ce changement en ligne, affirmant qu'il répondait à des retours d'utilisateurs jugeant le modèle trop consommateur de ressources.
La transparence en question à l'approche d'une IPO
Le problème de fond n'est pas uniquement technique. Anthropic a bâti une grande partie de son image de marque sur une promesse de transparence et d'alignement éthique, se démarquant explicitement d'autres acteurs de l'IA perçus comme moins rigoureux sur ces questions. Or, avoir modifié en catimini le comportement de Claude sans en informer clairement les utilisateurs payants — qui, selon plusieurs d'entre eux, ont de fait vu le coût par tâche augmenter — constitue une rupture de confiance potentiellement dommageable.
Anthropique a décliné de répondre aux questions précises de Fortune sur ces réclamations. Cette absence de communication officielle alimente la spéculation sur une éventuelle pénurie de ressources informatiques, d'autant qu'Anthropic aurait annoncé moins d'accords multimilliardaires pour des capacités de data centers que certains de ses rivaux. À l'heure où la société se préparerait à une introduction en bourse, ce type de controverse représente un risque réputationnel non négligeable.
Mythos : quand le meilleur modèle de code devient une arme potentielle
Un outil redoutable pour les hackers
Le 7 avril 2026, Anthropic a annoncé Mythos, présenté comme son modèle le plus performant à ce jour pour les tâches de codage et d'action autonome. Mais cette puissance a rapidement suscité des alertes dans les milieux de la cybersécurité. Des experts avertissent que les capacités de Mythos à analyser des architectures logicielles complexes lui permettent d'identifier des vulnérabilités dans des systèmes informatiques à une échelle et une vitesse jusqu'ici inédites — y compris dans des environnements hybrides mêlant technologies récentes et logiciels vieux de plusieurs décennies.
C'est précisément le cas des banques et établissements financiers. Ces institutions fonctionnent souvent sur des stacks technologiques fragmentés, associant des outils modernes à des systèmes hérités des années 1980 ou 1990. TJ Marlin, PDG de Guardrail Technologies, une firme spécialisée en sécurité IA, estime que Mythos peut « traverser une architecture très complexe, y compris cette infrastructure héritée où des vulnérabilités non découvertes sont désormais accessibles ».
Un risque systémique pour le secteur financier mondial
La concentration du secteur bancaire autour d'un nombre limité de fournisseurs technologiques et logiciels aggrave le danger. Si un attaquant utilise Mythos pour identifier une faille dans un système utilisé par des dizaines de banques simultanément, les conséquences pourraient être « potentiellement catastrophiques à grande échelle », selon Naresh Raheja, consultant spécialisé et ancien fonctionnaire de l'Office of the Comptroller of the Currency américain.
Face à ces risques, les gouvernements commencent à se mobiliser. Des responsables américains, canadiens et britanniques ont tenu des réunions avec des dirigeants de banques pour évoquer les menaces liées à Mythos. Le Trésor américain a indiqué que l'administration Trump encourageait les institutions financières à « comprendre et anticiper un large éventail d'évolutions de marché », sans pour autant préciser les mesures concrètes envisagées. La Cloud Security Alliance a, de son côté, averti que Mythos abaissait considérablement le niveau de compétences nécessaires pour exploiter des failles informatiques, ouvrant la porte à un spectre plus large d'acteurs malveillants.
Pourquoi cette semaine est un tournant pour l'IA
Un secteur à la croisée des chemins
Les trois événements qui ont agité l'écosystème Anthropic en l'espace de quelques jours illustrent une tension fondamentale qui traverse l'ensemble de l'industrie de l'intelligence artificielle : la croissance à marche forcée entre inévitablement en collision avec les exigences de sécurité, de fiabilité et de confiance des utilisateurs. L'accélération des revenus d'Anthropic est réelle, mais elle s'accompagne de signaux d'alerte qui ne peuvent être ignorés à l'approche d'une potentielle introduction en bourse.
La bataille de valorisation avec OpenAI reflète, elle, une inquiétude plus large sur la soutenabilité des méga-valorisations dans l'IA. À 852 milliards de dollars pour OpenAI et 380 milliards pour Anthropic, ces niveaux supposent des projections de croissance que même des investisseurs enthousiastes commencent à questionner. Le marché secondaire, souvent précurseur des réévaluations, envoie des signaux divergents pour les deux entreprises.
L'IA puissante appelle une régulation urgente
L'alerte autour de Mythos pose, enfin, une question qui dépasse Anthropic : jusqu'où les entreprises d'IA peuvent-elles aller dans la diffusion de modèles capables d'agir de manière autonome sur des systèmes critiques, sans cadre réglementaire adapté ? Les gouvernements commencent à réagir, mais le rythme de l'innovation semble largement dépasser celui de la législation. Pour les institutions financières comme pour les régulateurs, la semaine du 14 avril 2026 constitue un signal d'alarme difficile à ignorer.
Anthropique se retrouve ainsi au cœur d'une équation complexe : continuer à croître pour séduire les marchés, tout en rassurant ses utilisateurs sur la fiabilité de ses modèles, ses investisseurs sur la solidité de ses infrastructures, et les gouvernements sur la maîtrise des risques liés à ses outils les plus puissants. Un défi de taille pour une entreprise qui n'a jamais autant été scrutée.
Commentaires