Una investigación periodística sueca sacudió esta semana la discusión sobre privacidad en wearables con IA: empleados de Sama, un subcontratista con sede en Kenia que realiza anotación de datos para Meta, reportaron haber visto material sensible capturado con los lentes inteligentes Ray-Ban Meta, incluyendo personas teniendo relaciones sexuales y usando el baño.
El reporte fue publicado como una colaboración entre los periódicos suecos Svenska Dagbladet y Göteborgs-Posten, basado en entrevistas con más de 30 empleados de Sama en distintos niveles. Varios describieron sentirse incómodos ante la naturaleza del material que se les pedía revisar.
"Vi un video donde un hombre coloca los lentes en la mesita de noche y sale de la habitación. Poco después, su esposa entra y se cambia de ropa", declaró un empleado de Sama de forma anónima.
Meta confirmó a la BBC que comparte contenido que los usuarios envían al chatbot Meta AI con contratistas "para mejorar la experiencia", señalando que las imágenes se filtran para proteger la privacidad (por ejemplo, difuminando rostros). La política de privacidad de los wearables de Meta señala que fotos y videos se envían a Meta cuando el usuario activa el procesamiento en la nube o interactúa con Meta AI.
El punto crítico del caso es la cadena de consentimiento informado: muchos usuarios de Ray-Ban Meta probablemente no saben que al usar Meta AI en sus lentes, sus grabaciones pueden ser revisadas por humanos en otros países. Meta activó en agosto pasado la función "Meta AI con cámara" por defecto hasta que el usuario desactive el comando de voz "Hey Meta".
El caso ilustra una tensión estructural en los wearables de IA: más datos = mejores modelos, pero también más exposición de la vida privada de usuarios que no siempre entienden el alcance de lo que están activando.