Une attaque à la bombe incendiaire et une fusillade distincte au domicile du directeur général d'OpenAI en moins de 48 heures ont manifesté physiquement le débat public de plus en plus volatil entourant l'intelligence artificielle.
Retour
Une attaque à la bombe incendiaire et une fusillade distincte au domicile du directeur général d'OpenAI en moins de 48 heures ont manifesté physiquement le débat public de plus en plus volatil entourant l'intelligence artificielle.

Deux attaques distinctes visant le domicile de Sam Altman, directeur général d'OpenAI, à San Francisco, dont l'une au cocktail Molotov, intensifient le débat sur l'intelligence artificielle et son impact sociétal, poussant le PDG à appeler à une désescalade de la rhétorique. Ces événements soulignent les risques sécuritaires et politiques croissants pour les entreprises à la pointe du développement de l'IA, un secteur qui a vu les valorisations s'envoler au-delà de 300 milliards de dollars pour la seule société OpenAI.
« Pendant que nous débattons, nous devrions désamorcer la rhétorique et les tactiques et essayer d'avoir moins d'explosions dans moins de maisons, au sens figuré comme au sens propre », a écrit Altman dans un article de blog suite à la première attaque. Il a reconnu que la peur entourant l'IA était « justifiée » mais a soutenu que le progrès technologique peut rendre l'avenir « incroyablement bon ».
Le premier incident s'est produit tôt vendredi lorsque Daniel Alejandro Moreno-Gama, 20 ans, aurait lancé un cocktail Molotov sur la propriété d'Altman estimée à 27 millions de dollars, provoquant un incendie sur un portail extérieur. La police de San Francisco l'a arrêté plus tard au siège d'OpenAI, où il aurait proféré des menaces. Moreno-Gama fait face à des accusations incluant tentative de meurtre et incendie criminel. Un second incident, distinct, s'est produit dimanche, lorsque des coups de feu ont été tirés depuis un véhicule près de la résidence, menant aux arrestations d'Amanda Tom, 25 ans, et de Muhamad Tarik Hussein, 23 ans, pour des délits liés aux armes à feu.
Les attaques cristallisent les enjeux financiers et sociaux du boom de l'IA. Alors que la technologie a généré des milliers de milliards d'investissements et des gains de marché historiques, l'anxiété du public augmente face aux suppressions d'emplois et aux risques existentiels. Un récent sondage de l'Université Quinnipiac a révélé que seulement 21 % des Américains font confiance à l'IA pour fournir des informations précises. Ce mécontentement inclut désormais la violence physique, augmentant potentiellement les coûts de sécurité pour les entreprises technologiques et accélérant les appels à une réglementation gouvernementale qui pourrait tempérer la croissance rapide de l'industrie.
La motivation de la première attaque semble directement liée à un sentiment anti-IA. Selon le San Francisco Chronicle, Moreno-Gama a publié une série d'articles sur Substack exprimant ses craintes que l'IA ne conduise à l'extinction de l'humanité. Ces écrits font écho aux arguments d'une frange de la communauté de la sécurité de l'IA qui préconise l'arrêt du développement de l'IA avancée. Le groupe PauseAI, avec lequel le suspect avait interagi sur un serveur Discord, a condamné la violence et a déclaré que Moreno-Gama avait été averti pour avoir prôné la violence.
Ces incidents mettent en lumière un défi crucial pour le mouvement de sécurité de l'IA : comment alerter sur les risques catastrophiques sans inciter à la violence. Pour des entreprises comme OpenAI, qui navigue vers une transition en entité à but lucratif et fait face à des défis juridiques de la part du cofondateur Elon Musk, les attaques ajoutent une dimension nouvelle et dangereuse à un discours public déjà tendu.
La violence au domicile d'Altman est intervenue alors qu'OpenAI fait face à un examen intense. Un récent profil critique dans le New Yorker a examiné la consolidation du pouvoir d'Altman, et l'entreprise gère encore les retombées de son éviction temporaire et de sa réintégration fin 2023. Ces événements ont forcé une conversation sur la limite entre les avertissements urgents concernant la technologie et une rhétorique pouvant être interprétée comme un appel à l'action.
Pour les investisseurs, les attaques rappellent de manière tangible les risques non financiers ancrés dans le secteur de l'IA. La perception de l'IA passe d'une histoire purement technologique à une question politique et sociale complexe. Le ciblage direct d'un PDG de haut profil suggère que le débat abstrait sur l'avenir de l'IA est devenu dangereusement personnel, un développement qui pourrait avoir des implications durables sur la trajectoire de l'industrie et ses relations avec le public.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.