Les principaux régulateurs financiers américains ont adressé un avertissement direct aux plus grandes banques du pays, signalant une nouvelle phase de surveillance accrue sur l'intégration de l'intelligence artificielle dans le système financier.
Le secrétaire au Trésor américain Scott Bessent et le président de la Réserve fédérale Jerome Powell ont convoqué une réunion d'urgence avec des cadres bancaires mardi pour les avertir des risques systémiques posés par le dernier modèle d'IA d'Anthropic, une initiative qui pourrait freiner l'adoption de l'IA dans le secteur. La réunion du 9 avril, rapportée par Bloomberg, marque la première fois que les chefs du Trésor et de la Fed interviennent conjointement sur les risques spécifiques d'un modèle d'IA commercial.
« Le potentiel de défaillances corrélées ou de risques émergents provenant d'un modèle unique et largement utilisé est un nouveau vecteur de risque systémique qui nécessite notre attention immédiate », a déclaré une source proche de la réunion.
Bien que des mesures spécifiques sur l'adoption du nouveau modèle Anthropic au sein du secteur bancaire n'aient pas été divulguées, l'action préventive des régulateurs suggère un niveau d'inquiétude élevé. Cet avertissement survient alors que les banques explorent agressivement l'IA pour améliorer leur efficacité, JPMorgan Chase & Co. (JPM) dépensant à elle seule plus de 15 milliards de dollars par an en technologie. L'exposition du secteur financier aux fournisseurs de technologies tiers est déjà un axe réglementaire clé, et cette réunion étend cette préoccupation aux modèles d'IA fondamentaux.
Le problème central est de savoir si l'adoption rapide et généralisée d'un modèle d'IA unique pourrait créer une nouvelle forme de risque systémique, où une faille ou un comportement imprévu du modèle pourrait affecter simultanément plusieurs grandes institutions financières. Cela pourrait entraîner une cascade de défaillances. Les régulateurs devraient désormais publier des directives formelles sur la gestion des risques liés aux modèles d'IA dans les six prochains mois, exigeant potentiellement des banques qu'elles diversifient leurs fournisseurs d'IA et prouvent la résilience des modèles.
Cette réunion impromptue souligne une escalade significative de la surveillance réglementaire de l'intelligence artificielle au sein de l'industrie financière. Contrairement aux directives précédentes sur la cybersécurité ou la gestion des fournisseurs tiers, cette intervention cible la technologie fondamentale elle-même. L'accent mis sur un modèle spécifique d'Anthropic, un développeur d'IA de premier plan soutenu par de grandes entreprises technologiques et financières, souligne la crainte qu'un écosystème d'IA homogène puisse introduire des points de défaillance uniques dans l'ensemble du système bancaire.
Les institutions financières ont été des adoptants précoces et enthousiastes de l'apprentissage automatique pour tout, de la détection des fraudes au trading algorithmique en passant par l'octroi de prêts. Cependant, la complexité et la nature de « boîte noire » de la dernière génération de grands modèles de langage (LLM) présentent un défi inédit. Les régulateurs craignent que les banques ne disposent pas de l'expertise interne nécessaire pour examiner pleinement ces modèles afin de détecter des biais cachés, des vulnérabilités de sécurité ou le potentiel de comportements pro-cycliques inattendus lors d'une crise de marché.
L'avertissement de Bessent et Powell est susceptible de déclencher une vague de révisions internes et pourrait ralentir le déploiement de l'IA de pointe au sein des banques américaines. Les directeurs des risques seront désormais sous pression pour démontrer aux régulateurs que leurs institutions disposent de cadres robustes pour tester, valider et surveiller les modèles d'IA tiers. Cela augmentera presque certainement les coûts de conformité et pourrait forcer un changement stratégique consistant à ne plus dépendre de fournisseurs de modèles dominants uniques au profit d'une approche multi-fournisseurs plus diversifiée afin d'atténuer le risque de concentration.
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.