Meta Poursuivi en Justice pour l'Examen de Données par l'IA
Meta Platforms est confronté à un défi juridique significatif qui touche le cœur de sa stratégie d'intelligence artificielle. Un recours collectif déposé devant un tribunal fédéral américain en mars 2026 accuse l'entreprise de violer systématiquement la vie privée des utilisateurs avec ses lunettes intelligentes activées par l'IA. La plainte allègue que les données vidéo et d'image, y compris les activités intimes capturées à l'intérieur des foyers des utilisateurs, sont acheminées à des sous-traitants au Kenya pour un examen manuel afin d'entraîner les modèles d'IA de Meta. Les allégations affirment que les séquences incluent des personnes utilisant la salle de bain, s'engageant dans des activités sexuelles et manipulant des documents financiers sensibles.
Cette action en justice fait suite à un épisode de 2019 où la Federal Trade Commission a imposé une amende record de 5 milliards de dollars à Meta pour violations de la vie privée des consommateurs. L'entreprise soutient qu'elle prend des mesures pour filtrer les données afin de protéger la vie privée et que l'examen humain est une pratique courante de l'industrie. Dans un communiqué, Meta a clarifié que les médias restent sur l'appareil d'un utilisateur à moins qu'il ne choisisse explicitement de les partager avec Meta AI, un processus destiné à améliorer l'expérience utilisateur.
Activation Accidentelle de l'IA Imputée à la Capture de Séquences
La violation de la vie privée ne provient pas des fonctions photo et vidéo standard des lunettes, mais de sa fonction de requête visuelle IA, souvent déclenchée par la phrase "Hey Meta". La plainte et les rapports associés suggèrent que les activations accidentelles en sont la cause principale, entraînant la capture et la transmission de vidéos par l'appareil sans l'intention explicite de l'utilisateur. Ce problème fait écho à des scandales de confidentialité antérieurs dans l'industrie technologique, comme lorsque des rapports en 2019 ont révélé que des sous-traitants pour Apple et Amazon écoutaient des enregistrements audio de Siri et Alexa, y compris des conversations privées.
En réponse à l'indignation publique, Apple a transformé son processus de révision Siri en un système d'adhésion facultative. Cependant, l'IA visuelle de Meta et Alexa d'Amazon n'offrent actuellement pas aux utilisateurs un moyen direct de refuser l'examen humain des données. Cette distinction expose Meta à un examen plus approfondi, car la caméra égocentrique de ses lunettes présente des risques de confidentialité uniques et plus invasifs que les appareils uniquement audio.
Le Contrecoup des Consommateurs Allume la Technologie Anti-Surveillance
La controverse alimente un contrecoup tangible du marché contre la surveillance portable. Reflétant cette méfiance croissante, une application Android nommée "Nearby Glasses" a été lancée le 2 mars 2026. L'application scanne les signaux Bluetooth des lunettes intelligentes fabriquées par des entreprises comme Meta et Snap, alertant les utilisateurs lorsqu'un dispositif d'enregistrement potentiel opère à proximité. Son développeur a décrit l'outil comme une forme de "résistance technologique".
Cette tendance constitue une menace commerciale non seulement pour Meta, mais pour l'ensemble du marché émergent des lunettes AR. Avec des concurrents tels qu'un partenariat Google-Warby Parker et Rokid, qui a introduit un modèle IA à 300 dollars au CES, la poussée de l'industrie pour une adoption massive se heurte maintenant à un public de plus en plus méfiant quant au compromis entre commodité et surveillance constante.