Los servicios de atención al cliente de Meta deben ser un polvorín en estos momentos. Ayer mismo un estudio sueco reveló una de las prácticas que la compañía lleva a cabo con las Ray-Ban Meta, y que, a pesar de estar reflejadas en sus condiciones del servicio, nadie parece haberse leído. Según una investigación publicada ayer mismo, la compañía de Zuckerberg envía los vídeos que grabas con las Ray-Ban Meta hasta Kenia para que trabajadores subcontratados revisen el contenido. TODO tipo de contenido.
No es una broma ni han pillado a Meta con el carrito del helado. De hecho, ni siquiera es ilegal: en la política de privacidad que aceptas al utilizar Meta AI, la compañía deja claro que los contenidos grabados con las Ray-Ban Meta pueden ser revisados de forma manual. Y esto es justo lo que está haciendo a través de Sama, una empresa ubicada en Nairobi (Kenia) que ofrece este tipo de servicios a compañías digitales de todo el mundo.
¿Qué tipo de imágenes revisan? No hay filtro: pueden ver desde el salón de tu casa hasta una escena íntima que has grabado, pasando también por vídeos donde se muestran detalles de tus cuentas bancarias, datos privados o los números de tu tarjeta de crédito.
En definitiva, todas esas escenas cotidianas que los usuarios graban más a menudo de lo normal gracias a llevar en la cara unas gafas que eliminan completamente la fricción a la hora de crear contenido: le das a un botón y comienzan a grabar sin tener que utilizar las manos.
Pues bien, estos vídeos donde se utiliza Meta AI, la app para enviar el contenido a tu móvil, no son tan privados como muchos creían. Al parecer, gran parte de ellos no pasan de las Ray-Ban Meta a tu smartphone y ya: muchos son enviados a Kenia para que sean revisados por otras personas reales.
“Vemos de todo, desde salones hasta cuerpos desnudos”, afirmaba uno de los trabajadores keniatas al periódico que ha realizado la investigación.

¿Por qué Meta analiza manualmente tus vídeos de las Ray-Ban Meta?
De nuevo, es algo que está reflejado en sus términos: Meta envía estos vídeos a Kania para que los trabajadores identifiquen objetos, personas y detalles relevantes en las grabaciones y, de esta manera, poder entrenar su inteligencia artificial con mayor precisión. Cuando alguien frente a un ordenador en Nairobi recibe tus vídeos, los analiza con detenimiento y marca todo lo que cree relevante para que después, la IA vuelva a analizar el vídeo y pueda identificar de forma 100% segura que en esas escenas hay dichos objetos, personas, etc.
Ahora bien, hay algo que no queda del todo claro con esta investigación. No se sabe a ciencia cierta si los vídeos que se envían a Kenia son todos los grabados con las Ray-Ban Meta o solo los que se filman para preguntarle algo a Meta AI o interactuar con la IA. Aun así, el hecho de que los trabajadores estén viendo escenas sexuales aclara un poco más este tema: probablemente casi nadie le pregunte a la IA mientras está manteniendo relaciones, aunque sí es más probable que quiera grabar la escena.
Hoy, esa pequeña frase dentro de un documento inmenso ya no es un “quizá revisan algún vídeo”: más bien un “cada cosa que grabas, sea lo que sea, acaba en la pantalla de un trabajador en Kenia que lo revisa con afán”.

