L'escalade des menaces contre les leaders de l'IA, notamment une attaque criminelle contre le domicile de Sam Altman et un budget de sécurité de 3,45 millions de dollars pour le PDG de Nvidia, révèle un nouveau facteur de risque volatil pour cette industrie de 1,5 billion de dollars.
Les attaques physiques et l'augmentation des coûts de sécurité pour les dirigeants de haut profil exposent un nouveau front dangereux dans la réaction du public contre l'intelligence artificielle, déplaçant la contestation des forums en ligne vers le pas de la porte des leaders de l'industrie. Ces menaces tangibles marquent une escalade significative par rapport aux débats en ligne, forçant l'industrie technologique à faire face aux conséquences réelles de la peur et de l'anxiété sociétales entourant le développement rapide de l'IA.
« Lorsqu'une technologie passe d'un simple outil à un récit sur le destin, les personnes aux premières loges cessent d'être des entrepreneurs pour devenir des exutoires émotionnels », a déclaré James Hamilton, ancien agent du FBI et fondateur de Hamilton Security Group, lors d'une récente interview. Son cabinet a constaté une explosion de la demande de la part des dirigeants de la tech au cours des deux dernières années.
Ce changement est quantifié par la divulgation de Nvidia Corp. pour l'exercice 2025 de 3,45 millions de dollars de frais de sécurité pour le PDG Jensen Huang, ainsi que par l'attaque criminelle du 10 avril contre la résidence de Sam Altman, PDG d'OpenAI, à San Francisco. Un homme de 20 ans a été arrêté pour tentative de meurtre en lien avec l'attaque, et il a été trouvé en possession d'une liste d'autres dirigeants de l'IA à cibler, selon les rapports de police. Cela intervient alors qu'un sondage du Pew Research Center de 2025 montre que 50 % des adultes américains sont désormais plus inquiets qu'enthousiasmés par l'IA, contre seulement 10 % qui pensent le contraire.
Cette escalade introduit un nouveau risque opérationnel non évalué pour le secteur de l'IA, obligeant les entreprises à investir des millions dans la sécurité physique, ce qui pourrait impacter les marges et soulève des questions sur la sécurité personnelle des leaders qui pilotent l'avenir d'une technologie valorisée en billions de dollars. Cette tendance suggère que le débat abstrait sur l'impact sociétal de l'IA se manifeste désormais par un risque physique direct pour ses partisans les plus visibles.
Des clics aux cocktails Molotov : une nouvelle ère de risque
L'attaque contre le domicile d'Altman est l'exemple le plus frappant d'une tendance plus large. Le suspect aurait lancé un cocktail Molotov sur la résidence, un acte qui fait passer la protestation à la violence physique. Cet incident s'est produit alors qu'Altman est engagé dans une bataille juridique à enjeux élevés avec Elon Musk sur l'âme d'OpenAI, une société aujourd'hui valorisée à 852 milliards de dollars.
L'anxiété du public n'est pas monolithique. Elle englobe les craintes de suppressions d'emplois, la propagation de la désinformation via les deepfakes et les risques existentiels de la superintelligence. Ces préoccupations ne se limitent plus aux articles universitaires. Un incident récent a vu un diplômé de Caltech de 31 ans et ancien stagiaire de la NASA, Cole Tomas Allen, ouvrir le feu lors du dîner des correspondants de la Maison-Blanche pendant une apparition du président Trump, un rappel brutal de la façon dont les angoisses marginales peuvent éclater en violence dans des contextes de haut profil.
L'industrie technologique elle-même alimente les tensions. Palantir Technologies, une entreprise d'analyse de données ayant des liens profonds avec l'armée, a récemment publié un manifeste prônant le rétablissement de la conscription militaire aux États-Unis pour assurer la domination du « hard power », une initiative que les critiques ont qualifiée de « divagations d'un super-vilain ». En revanche, la firme d'IA Anthropic, valorisée à 380 milliards de dollars, est en conflit juridique avec le Pentagone après avoir refusé d'accorder un accès illimité à ses modèles pour la surveillance et les armes autonomes, soulignant les divisions profondes au sein de l'industrie sur l'usage de ses puissants outils.
3,45 millions de dollars pour la protection face à la peur croissante
La réponse de l'industrie a été de construire des murs, tant littéraux qu'humains. La dépense de 3,45 millions de dollars de Nvidia pour la sécurité du PDG Jensen Huang au cours de l'exercice 2025 couvre la sécurité résidentielle, le conseil et une équipe d'au moins cinq gardes du corps. Ce niveau de protection, autrefois réservé aux chefs d'État, devient la nouvelle norme pour les PDG de la tech qui sont devenus les visages publics d'une technologie qu'une majorité d'Américains considèrent désormais avec suspicion.
Des sociétés de sécurité comme Crisis24 proposent désormais des services qui vont au-delà de la protection physique, utilisant la surveillance numérique pour monitorer les réseaux sociaux à la recherche de menaces contre les dirigeants. Cela crée une boucle de rétroaction où les outils de l'ère numérique sont utilisés pour protéger leurs créateurs d'un retour de bâton alimenté par ces mêmes plateformes. L'image du PDG, autrefois symbole d'innovation accessible en sweat à capuche, est remplacée par celle d'une figure gardée, protégée du public qu'elle prétend servir.
Pour les investisseurs, ce nouveau paradigme de sécurité représente un coût tangible et un risque intangible. Bien que les millions dépensés en sécurité soient une erreur d'arrondi pour des géants comme Nvidia, ils signalent une instabilité croissante. La sécurité des dirigeants clés comme Altman et Huang est désormais un facteur matériel pour les entreprises à la pointe de la révolution de l'IA. Le besoin croissant de « pare-feu humains » suggère que la plus grande menace pour l'industrie de l'IA n'est peut-être pas la réglementation ou la concurrence, mais un public de plus en plus craintif et hostile.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.