Une enquête détaillée du New Yorker a mis en lumière les conflits internes d'OpenAI, révélant que le style de direction du PDG Sam Altman et la structure complexe de l'entreprise ont érodé la confiance de certains membres du personnel. Le rapport souligne un affrontement fondamental entre les idéaux non lucratifs fondateurs du leader de l'intelligence artificielle et les pressions commerciales à enjeux élevés de sa branche lucrative, un conflit qui crée des défis de gouvernance importants pour la firme valorisée à 80 milliards de dollars.
L'enquête suggère une tension profonde, citant des sources internes qui estiment que la recherche du succès commercial par l'entreprise est en contradiction avec son objectif affiché de garantir que l'intelligence artificielle générale profite à l'humanité entière. « Le rapport pointe un conflit entre la mission non lucrative de l'entreprise et sa commercialisation », a noté un résumé des conclusions, capturant le thème central de la dissidence interne. Cette friction a été un facteur clé dans l'éviction éphémère d'Altman par le conseil d'administration fin 2023.
Au cœur du problème se trouve le modèle inhabituel de « profit plafonné » d'OpenAI, qui place une filiale à but lucratif, largement soutenue par son partenaire Microsoft, sous une société mère à but non lucratif. Cette structure est conçue pour que la mission de l'organisation à but non lucratif guide l'entreprise, mais la croissance explosive de produits comme ChatGPT a créé un moteur commercial puissant qui, selon certains initiés, dirige désormais la trajectoire de l'entreprise au détriment des considérations de sécurité et d'éthique.
Cette tourmente interne pourrait avoir des conséquences importantes au-delà du siège de l'entreprise. Le rapport pourrait raviver les inquiétudes des partenaires et des clients concernant la gouvernance d'entreprise et la stabilité à long terme d'OpenAI. Il risque également d'entraver sa capacité à retenir les meilleurs talents en IA, qui pourraient être attirés par des rivaux comme Google ou Anthropic, une firme fondée par d'anciens employés d'OpenAI axée sur la sécurité de l'IA. La controverse renouvelée pourrait également attirer une surveillance réglementaire accrue de la part des autorités américaines et européennes qui examinent déjà le paysage concurrentiel du secteur de l'IA.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.