1) Hay mucho escrito sobre tratamiento automático de datos, aprendizaje automático y grandes datos. Resulta difícil no dejarse deslumbrar por los avances técnicos.
2) Lo más importante es entender que un cambio cuantitativo (más poder de cómputo, más cantidad de datos de entrenamiento) generó un cambio cualitativo.
3) La importancia de este cambio cualitativo es enorme, porque echó por tierra nuestra intuición de qué era imposible de resolver por medio de la informática. Es decir, muchas cosas que pensábamos que requerían atención humana, pasaron a ser automatizables; es, en cierta medida, similar a la revolución industrial, pero más grande.
4) La razón fundamental es que pensábamos que resolver un problema implicaba comprenderlo. El aprendizaje automático demostró que no es preciso entender, sino que “basta” con entrenar una descripción estadística ciega, que reacciona a patrones subyacentes en los datos.
5) Esto, claro, precisa muchísimos datos y de gran poder de cómputo, para poder procesar esos datos.
6) Entonces aquí aparecen –entre muchos otros– tres terrenos importantes de discusión. En primer lugar, ¿qué pasa con el trabajo humano? Si ahora hay muchas cosas que ya no requieren atención humana, ¿qué pasa con la economía que depende de esa atención (que, además, se ramifica de una forma difícil de apreciar)? Por ejemplo, si tenemos autos que se manejan solos, entonces ya no es preciso tener restaurantes u hoteles de alta rotatividad en la carretera.
En segundo lugar, esta conversación, sin embargo, no es técnica. Es decir, no existe una conversación que sea técnica y no política. Eso es una falacia postmoderna que quiere convencer a quienes sufren la desigualdad de que hay un orden natural. El capitalismo (o el feudalismo, o cualquier orden social) son órdenes artificiales y, por definición, arbitrarios (más allá del orden moral que se use para evaluarlos, y más allá de cuán de acuerdo esté uno o no). Por ejemplo, disponemos de la tecnología para tener autos que no contaminan, pero seguimos usando autos que contaminan en gran cantidad. La decisión de usar autos que no contaminan es económico-política, y no técnica. O, vale decir, que no hay soluciones técnicas que no sean políticas. O, en realidad, no hay decisiones que no sean políticas.
Incluso si no cuestionamos el gran orden (social) de las cosas, la asunción de que las decisiones algorítmicas son ungidas desde una cierta objetividad es un delirio. Como se dijo, estos sistemas son “entrenados” con conjuntos de datos que provienen de nuestra sociedad y que no sólo reflejan las condiciones de desigualdad estructural, sino que, además, son interpretados, utilizados, y manipulados, desde un entendimiento del mundo, que cristaliza los órdenes sociales imperantes (es decir, que reedita las condiciones de desigualdad estructural). Ejemplos de esto hay en abundancia, por ejemplo, predictores de crimen que castigan a determinados grupos de personas o determinados barrios.
Por último, esta automatización, además de introducir nuevos, exagera problemas que ya existen en nuestra sociedad (el “efecto red”, o el “filtro burbuja” son claros ejemplo). Es interesante como el ser evaluado por un humano pasa a ser, cada vez más, un privilegio de las clases dominantes, y las clases bajas pasan a ser procesadas de forma automática. Lo increíble es que la narrativa trata de convencernos de que eso es más justo. Otro aspecto, incluso si uno no quisiera discutir las injusticias del sistema capitalista, es que en la era de los grandes datos se genera una plusvalía 2.0. La tierra para el que la trabaja pasaría a ser los datos para quien los genera. Es decir, si hay un acuerdo económico en el que los datos son valiosos, entonces tiene que haber una contrapartida económica para quien los produce. Es como si fuéramos a un productor de naranjas y le dijéramos: “Tus naranjas no tienen valor, dámelas gratis y luego las vendemos por millones de dólares”. En un gobierno de izquierda hay que generar la normativa y la inercia social para que se sistematice la generación de contextos de intercambio económico más justos. Uruguay no parece estar apuntando para ese lado. Por ejemplo, el valor económico de los datos almacenados por las operadoras de telefonía móvil no se discute. Tampoco se discute su propiedad, ¿por qué esos datos que son generados por los usuarios le pertenecen a la telefónica? Plusvalía 2.0. Lo mismo sucede con la tarjeta del Sistema de Transporte Metropolitano, aunque el caso más obsceno probablemente sea el del Clearing de Informes.
7) Es necesario plantear la discusión en estos términos, de otro modo, si la discusión sólo se estructura en función de un supuesto orden natural de las cosas (capitalismo), un estado de control (mal llamado “paternal”) y una deshumanización de los ciudadanos, entonces estamos perdidos.
Dr. Tomas Laurenzo, profesor asociado, Universidad de la Ciudad de Hong Kong.