Meta Demandada por Revisión de Datos de IA
Meta Platforms se enfrenta a un desafío legal significativo que afecta el núcleo de su estrategia de inteligencia artificial. Una demanda colectiva presentada en un tribunal federal de EE. UU. en marzo de 2026 acusa a la compañía de violar sistemáticamente la privacidad del usuario con sus gafas inteligentes habilitadas para IA. La demanda alega que los datos de video e imagen, incluidas las actividades íntimas capturadas dentro de los hogares de los usuarios, se envían a contratistas en Kenia para una revisión manual con el fin de entrenar los modelos de IA de Meta. Las alegaciones afirman que el material incluye a personas usando el baño, participando en actividades sexuales y manejando documentos financieros sensibles.
Esta acción legal sigue a un episodio de 2019 en el que la Comisión Federal de Comercio impuso una multa récord de 5 mil millones de dólares a Meta por violaciones de la privacidad del consumidor. La compañía sostiene que toma medidas para filtrar datos para proteger la privacidad y que la revisión humana es una práctica común de la industria. En un comunicado, Meta aclaró que los medios permanecen en el dispositivo de un usuario a menos que este elija explícitamente compartirlos con Meta AI, un proceso destinado a mejorar la experiencia del usuario.
Activación Accidental de IA Culpada por Captura de Material
La violación de la privacidad no se deriva de las funciones estándar de foto y video de las gafas, sino de su función de consulta visual de IA, a menudo activada por la frase "Hey Meta". La demanda y los informes asociados sugieren que las activaciones accidentales son una causa principal, lo que lleva al dispositivo a capturar y transmitir video sin la intención explícita del usuario. Este problema refleja escándalos de privacidad anteriores en la industria tecnológica, como cuando informes de 2019 revelaron que contratistas de Apple y Amazon estaban escuchando grabaciones de audio de Siri y Alexa, incluidas conversaciones privadas.
En respuesta a la protesta pública, Apple hizo la transición de su proceso de revisión de Siri a un sistema de suscripción voluntaria (opt-in). Sin embargo, la IA visual de Meta y Alexa de Amazon actualmente no ofrecen a los usuarios una forma directa de optar por no participar en la revisión humana de datos. Esta distinción expone a Meta a un escrutinio heightened ya que la cámara egocéntrica de sus gafas presenta riesgos de privacidad únicos y más invasivos que los dispositivos solo de audio.
La Reacción del Consumidor Enciende la Tecnología Antivigilancia
La controversia está alimentando una reacción tangible del mercado contra la vigilancia portátil. Reflejando esta creciente desconfianza, una aplicación de Android llamada "Nearby Glasses" fue lanzada el 2 de marzo de 2026. La aplicación escanea las señales Bluetooth de gafas inteligentes fabricadas por compañías como Meta y Snap, alertando a los usuarios cuando un posible dispositivo de grabación está operando cerca. Su desarrollador describió la herramienta como una forma de "resistencia tecnológica".
Esta tendencia representa una amenaza comercial no solo para Meta, sino para todo el mercado emergente de gafas AR. Con competidores como una asociación entre Google y Warby Parker y Rokid, que introdujo un modelo de IA de 300 dólares en el CES, el impulso de la industria para la adopción masiva se enfrenta ahora a un público cada vez más cauteloso ante el equilibrio entre la conveniencia y la vigilancia constante.