“¿Qué pasaría si un banco cotilleara [husmeara] el contenido de las cajas de seguridad de sus clientes?”. Esa pregunta fue la que se hizo en Twitter el abogado español Borja Adsuara Varela, especialista en derecho, estrategia y comunicación digital, tras conocerse una nueva medida de Google que amenaza con ser un nuevo golpe contra la privacidad de sus usuarios.
El servicio que se verá afectado por las nuevas directivas del gigante tecnológico es Google Drive, el sistema de alojamiento de archivos de todo tipo que otorga a los usuarios la posibilidad de guardar en la nube –y también compartir con otros usuarios– hasta 15 gigabytes de contenido de forma gratuita, o más si está dispuesto a pagar una membresía anual.
Hasta el momento no había límites para los documentos, fotos, videos, audios o demás archivos que se podía almacenar. Sin embargo, el 14 de diciembre anunciaron que revisarían el contenido de los usuarios y borrarían lo que consideraran “inadecuado”, incluso llegando a tomar medidas como eliminar cuentas. Los controles comenzaron a aplicarse a principios de enero.
En un comunicado publicado en su blog, Google informaba que la nueva normativa implica que la empresa revisará el contenido guardado en Drive y que “cuando se identifica que un archivo de Google Drive infringe los Términos de servicio de Google o las políticas del programa, es posible que esté restringido”. Esto significa que “es posible que se vea una bandera junto al nombre del archivo” y que el contenido no podrá ser compartido con otros usuarios. El usuario recibirá un correo electrónico notificándole sobre las acciones tomadas por Google.
“Esto ayudará a garantizar que los propietarios de los elementos de Google Drive estén completamente informados sobre el estado de su contenido, al mismo tiempo que ayudará a garantizar que los usuarios estén protegidos contra el contenido abusivo”, indica el comunicado.
¿Qué contenido es el que Google considera que no es apto para almacenar en Drive? Según la plataforma, refiere al que está relacionado con la explotación y el abuso sexual infantil, elusiones o actividades peligrosas e ilegales, suplantación de identidad, contenido que incite al odio, imágenes explícitas, contenido sangriento, contenido sexual explícito, o fotografías no autorizadas de menores. Sin embargo, Google ya estaba autorizado a eliminar este tipo de contenidos e incluso a informar a las autoridades competentes en caso de detectar alguna actividad ilegal.
Entonces, ¿qué es lo que verdaderamente cambia? Que ahora Google es libre de eliminar lo que quiera, no sólo lo que puede ser un potencial delito. La empresa, según declaraciones recogidas por el portal especializado Xataka, afirmó que “es posible que revisemos el contenido para determinar si es ilegal o infringe nuestras Políticas del Programa, y puede que lo retiremos o nos neguemos a publicarlo si tenemos razones suficientes para considerar que infringe nuestras políticas o la ley”. Si la empresa lo considera inapropiado, aunque no sea un delito, lo puede borrar y hasta sancionar al usuario que alojaba el contenido.
La nueva normativa de Google llega mientras en la Comisión Europea se está tratando la Ley de Servicios Digitales (conocida como DSA por su sigla en inglés), que en la práctica delega la decisión sobre la moderación de contenido a las empresas y en ellas cae toda la responsabilidad de decidir qué es inapropiado y qué no. Y los antecedentes al respecto no son buenos: la moderación del contenido que infringe la Ley de Derechos de Autor de la Era Digital (DMCA) estadounidense desembocó en la generación de sistemas de censura algorítmica, en los que una persona veía cómo su contenido era eliminado por resolución de una inteligencia artificial y rara vez llegaba a poder comunicarse con un ser humano para tener un derecho a réplica. De este modo, por ejemplo, los youtubers que tratan temas vinculados con la música o el cine ven cómo una y otra vez Google les restringe, desmonetiza o directamente elimina videos o canales enteros en los que, por ejemplo, se analiza una canción o una serie.
Entonces, si juntamos la nueva normativa sobre Google Drive y la Ley DSA europea: ¿Qué pasaría si una persona que está investigando el discurso de odio tiene almacenados en su Drive documentos con este tipo de mensajes?
Google sostiene que los usuarios podrán solicitar una revisión si consideran que se ha censurado un archivo por error. Sin embargo, no hay información sobre los tiempos de respuesta, ni si estos serán brindados por personas o nuevamente pasarán por algoritmos que lo resuelvan.
Esto nos lleva a volver a la pregunta que hizo Adsuara Varela. “Por más que se diga que se aceptan los términos de uso, en un contrato de adhesión puede haber cláusulas abusivas; en este caso, por vulneración de la intimidad y la protección de datos”, respondió el especialista.