Meta logró algo que parecía improbable: convertir unas gafas inteligentes en un producto deseable. Las Ray-Ban Meta no tienen aspecto de prototipo, no llaman demasiado la atención y encajan en la vida cotidiana con una naturalidad que otras apuestas tecnológicas nunca alcanzaron. Justamente ahí reside su mayor fortaleza comercial. Y también su principal problema. Cuanto más se parecen a unas gafas normales, más fácil resulta olvidar que incorporan cámara, micrófonos, conexión a internet y funciones de inteligencia artificial capaces de capturar, procesar y enviar fragmentos de la vida diaria a sistemas externos.
La polémica escaló tras una investigación periodística basada en testimonios de trabajadores vinculados a Sama, una empresa con sede en Kenia que presta servicios de etiquetado de datos para Meta. Según los artículos difundidos, alrededor de 1.500 revisores analizan manualmente materiales generados por estos dispositivos para ayudar al entrenamiento de la IA. El punto crítico no es solo que exista revisión humana, sino que muchos usuarios podrían no comprender hasta qué punto imágenes, audio, transcripciones y videos terminan formando parte de ese circuito cuando activan funciones asociadas a Meta AI o al procesamiento en la nube.
Los testimonios recogidos son especialmente sensibles. Trabajadores aseguran haber visto escenas de personas usando el baño, cambiándose de ropa, manteniendo relaciones sexuales o mostrando sin querer información privada, como datos bancarios. También mencionan grabaciones involuntarias del entorno doméstico y de terceros que no sabían que estaban siendo captados. En varios casos, la inquietud no proviene de un uso malicioso deliberado, sino de la propia fricción casi inexistente del dispositivo: grabar con unas gafas es mucho menos visible socialmente que sacar un teléfono y apuntar con la cámara.
Meta reconoce en sus políticas que ciertos contenidos pueden ser revisados de manera automatizada o manual por personal entrenado y por proveedores externos, con el objetivo de mejorar, corregir y entrenar sus productos. La compañía sostiene que antes existe un filtrado para proteger la privacidad, como el difuminado de rostros. Pero allí aparece otra de las advertencias centrales de la investigación: ex empleados y trabajadores consultados afirman que esos sistemas no siempre funcionan bien y que, en determinadas condiciones, algunas caras y cuerpos siguen siendo visibles. El problema, por tanto, no es teórico. Es la posibilidad concreta de que escenas íntimas o datos sensibles queden expuestos dentro de cadenas de procesamiento que el usuario común no imagina con claridad.
La discusión también alcanza al diseño físico del producto. Las Ray-Ban Meta incluyen un pequeño LED para indicar que están grabando. Sin embargo, distintos artículos cuestionan que ese aviso sea suficiente. La luz puede pasar desapercibida, resultar ambigua para quienes están cerca o incluso perder valor si el público no confía en que sea realmente fiable. Parte de la crítica no es técnica, sino social: una tecnología portátil de grabación solo puede ser tolerada si el resto de las personas puede detectar con facilidad cuándo está siendo registrada. Si esa señal es débil, el dispositivo deja de percibirse como una herramienta útil y empieza a verse como un mecanismo de vigilancia cotidiana.
El conflicto crece todavía más por el contexto corporativo. Meta arrastra una larga historia de controversias sobre datos personales y eso hace que cada nueva función se mire con sospecha. En ese marco, la revelación de un documento interno citado por medios internacionales, según el cual la empresa habría estudiado activar reconocimiento facial en sus gafas en un momento políticamente conveniente, encendió aún más las alarmas. La sola idea de combinar cámara discreta, IA y capacidad de identificación en tiempo real dispara un temor evidente: pasar de grabar sin que el entorno lo note a reconocer personas por la calle con un accesorio aparentemente común.
Además, el debate no se limita a la intimidad de quien compra las gafas. Afecta también a quienes lo rodean. Parejas, familiares, desconocidos, clientes, compañeros de trabajo o personas que comparten un espacio público pueden quedar registrados sin un consentimiento claro. Y allí aparece una diferencia clave con el teléfono móvil: el acto de filmar con un celular suele ser visible; con unas gafas, en cambio, la captura puede confundirse con una conducta ordinaria.
Las consecuencias ya salieron del plano reputacional. Las publicaciones citan una demanda colectiva contra Meta y Luxottica de America que cuestiona el lema comercial de las gafas, presentadas como un producto “diseñado para la privacidad” y “controlado por ti”. Para los demandantes, ningún consumidor razonable interpretaría esas promesas como compatibles con la revisión y catalogación de imágenes íntimas por trabajadores externos en el extranjero. También autoridades regulatorias, como la Oficina del Comisionado de Información del Reino Unido, pidieron explicaciones.
En el fondo, la discusión sobre las Ray-Ban Meta no trata solo de un dispositivo exitoso. Trata de la clase de normalidad tecnológica que estamos dispuestos a aceptar. Las gafas inteligentes prometen accesibilidad, asistencia contextual y una nueva interfaz para la computación cotidiana. Pero sin límites claros, indicadores robustos, políticas verdaderamente comprensibles y controles estrictos sobre lo que se captura, conserva y revisa, el salto puede ser demasiado costoso. No por falta de innovación, sino por exceso de opacidad.


