Lorraine Daston es una de las directoras del Max Planck Institut para la Historia de la Ciencia en Berlín. Su carrera académica es tan extensa como prolífica: obtuvo su doctorado en Historia de la Ciencia de la Universidad de Harvard, en su Estados Unidos natal en 1979, y desde entonces se ha convertido en un referente de la disciplina. Invitada a Uruguay por el equipo de Investigación Histórica del Archivo General de la Universidad de la República (AGU), Daston sopresivamente –así lo relata Vania Markarian, responsable de esa área– aceptó venir por primera vez a Sudamérica para participar en varias actividades y conferencias. Habiendo leído apresuradamente su último libro, La ciencia en los archivos, escrito en colaboración con varios autores, los nervios de estar ante una figura de tanta relevancia pronto se disipan: Daston es sencilla, cálida y empática. Y, por sobre todas las cosas, tiene mucho para decir. Sobre los archivos científicos, la ansiedad generada por la era digital, y la amenaza del data mining hablamos con Daston como adelanto de parte de lo que dirá en la conferencia que dará en el Museo Nacional de Artes Visuales.

En tu último libro, La ciencia en los archivos, decís que los archivos científicos son oportunistas y de final abierto. ¿Podrían o deberían ser de otra manera?

Uno podría imaginar que los científicos fueran más sistemáticos con sus archivos, pero el problema es que nadie puede saber en qué van a estar interesados los científicos del futuro. Dado que es imposible imaginarse un sistema que pueda anticipar en qué van a estar interesados los científicos en 20, 50 o 100 años, no veo otra alternativa para los archivos científicos que ser oportunistas y de final abierto. Esta tarde estuve hablando con los colegas de la Universidad de la República que me invitaron, y están muy interesados en saber qué es lo que se va a preservar de la era digital, porque, de alguna manera, nunca tuvimos tanta información, pero esa información nunca fue tan efímera y tan difícil de preservar. Algunos archivistas, por ejemplo en la Biblioteca Británica de Londres, decidieron hacer muestreos aleatorios para hacer lo que sería un archivo de los que hay en internet. Hay muchos sitios web, que además cambian constantemente, por lo que la cuestión es cómo preservar eso para los próximos 50 o 100 años. Tal vez la única manera sea tomar muestras aleatorias de lo que hay, con la esperanza de que habrá algo a lo que las próximas generaciones puedan acceder. Así que no, no veo ninguna otra chance que archivos científicos sean oportunistas y de final abierto.

Al leerlo quedé un poco tocado, porque el término “oportunista” tiene cierta carga negativa, al menos en español. Sin embargo, al adentrarse en el texto emerge este concepto de que el oportunismo viene dado por el “desarrollo impredecible de la agenda de investigación”.

Lo importante es que exista un archivo. Que sean oportunistas no es una razón para darse por vencido y no tratar de colectar y preservar un archivo. Es, sí, una razón para ser humildes, es una razón para darles continuidad a las comunidades científicas. Aun cuando sea imposible para los astrónomos de hoy saber qué información necesitarán los astrónomos de los próximos siglos, hay una apuesta a que habrá astrónomos en los próximos siglos y que algo de lo que hoy investigan les será útil. El Canon de los Cinco Milenios de eclipses solares y lunares de la NASA todavía usa en sus tablas observaciones de los antiguos babilonios. Eso es conmovedor, una comunidad que va desde el siglo XXI hasta 3.000 años antes de nuestra era y que, además, los astrónomos de hoy piensan que se proyecta unos 3.000 años en el futuro.

Hablando del tiempo, en tu libro también decís que nuevas hipótesis crean nuevos archivos y que “el archivo científico es la expresión física de cómo la ciencia del presente crea un pasado utilizable para la ciencia futura”. ¿Los científicos desafían la flecha del tiempo y, además de cambiar el presente y el futuro, cambian el pasado?

Así es. Pensemos, por ejemplo, en los intentos actuales para recrear la historia del clima. Los archivos son especialmente importantes para las ciencias que estudian fenómenos que se desarrollan a lo largo de miles o millones de años. Dependiendo de qué sobrevive, el pasado cambia. Por ejemplo, somos muy afortunados en tener unos pocos diarios que conservamos del Medioevo, de lugares como China o Europa, que registraban el tiempo. Es algo completamente accidental. El hecho de que esos diarios sobrevivieran cambia el pasado, cambia el pasado utilizable, ya que son el único rastro que tenemos de ese pasado.

Decís que la esencia de los archivos científicos es la continuidad de las disciplinas científicas, al tiempo que el punto principal de esos archivos, que denominás “tercera naturaleza”, es aniquilar el tiempo. ¿Han tenido éxito los científicos en tal empresa?

Ningún ser humano ha logrado aniquilar el tiempo. Es un intento de hacer lo imposible, pero eso es mejor que nada. No tendríamos una ciencia del clima, no tendríamos la astronomía ni la ciencia de la biología evolutiva si no fuera por esos intentos de aniquilar el tiempo. Sin embargo, esa no es la única amenaza para que los archivos sobrevivan. Estamos en el medio de una revolución de los medios, y siempre que hay una gran transformación de la forma en que los registros se conservan, como en los siglos XVI y XVII con la revolución de la imprenta, y ahora con la revolución digital, hay un enorme peligro para los archivos. Eso se debe a que, al ser transferidos a los nuevos soportes, se pierde gran cantidad de metadatos. Por ejemplo, los archivos astronómicos de la última parte del siglo XIX se guardaban en placas de vidrio fotográficas. Nadie había anticipado lo que les podría pasar a esas placas en una situación como la que ocurrió cuando las ciudades fueron bombardeadas durante la Segunda Guerra Mundial. De las más de 25.000 placas que estaban en el observatorio Potsdam, ubicado a las afueras de Berlín, sólo 15 sobrevivieron. Hay muchos archivos que son frágiles incluso sin la amenaza de la revolución digital, y si no hay una gran inversión de tiempo, dinero y, sobre todo, pensamiento y reflexión, van a desaparecer.

Al transcribirse esos archivos a nuevos medios siempre se corre el riesgo de perder metadatos y contexto, pero proponés que a veces esas transcripciones operan como capas, ya que el archivo original no necesariamente se destruye.

Hoy hay un gran debate, en todas partes, sobre qué hacer una vez que los archivos se digitalizan. Por ejemplo, la manera en la que los botánicos mantienen el registro de las especies. El primer ejemplar con el que se describe una nueva especie es secado, prensado y guardado en un herbario. La primera clasificación biológica estaba basada en aspectos morfológicos; luego vino la revolución de Linneo, que se fijó en los órganos sexuales; luego, la revolución darwiniana de mirar en la filogenia de las plantas; luego, la revolución cladista, que fue un intento de mirar todos los rasgos comunes derivados; y luego vino la revolución genética del ADN. Si esos especímenes tipo guardados en los herbarios se hubieran tirado, no habría habido manera de volver atrás y reconstruir la clasificación. Si se hubiera generado una imagen digital de esa planta del herbario no habría sido posible obtener su ADN. Hay colecciones en varias partes del mundo a las que los botánicos aún acuden cada vez que hay un intento de reclasificación.

La importancia de contar con el material original quedó de manifiesto con el trabajo de tus colegas del Departamento de Genética Evolutiva del Instituto Max Planck, que liderados por Svante Pääbo, lograron extraer ADN de fósiles de neandertales.

Los materiales con los que trabajaron son muy frágiles y hay un gran riesgo de contaminación, por lo que deben ser preservados en condiciones muy especiales. Ellos me contaron que la primera vez que intentaron obtener el ADN quedaron shockeados al ver cuánto del ADN de Neanderthal era idéntico al de ellos mismos... hasta que se dieron cuenta de que, sin querer, habían contaminado las muestras con su propio ADN. Por eso el esfuerzo para preservar los arhivos debe ser enorme, no sólo a nivel personal, sino de las instituciones. El Instituto Max Planck no va a durar para siempre. Alemania no va a durar para siempre. ¿Quién va a ser el guardián de estas piezas dentro de tres o cuatro siglos?

En tu libro decís que “la eficiencia sucia y rápida” prevalece ante el “rigor exhaustivo” en los algoritmos de búsqueda actuales. ¿Cómo afectan la inteligencia artificial y el data mining a los archivos científicos?

Uno de los grandes problemas que enfrentamos es que el data mining asume que todos los datos son conmensurables y comparables, por lo que borran las circunstancias originales bajo las que la información se recolectó. Para el data mining eso es necesario, porque precisa grandes cantidades de datos, muestreos enormes para tratar de detectar patrones. Eso significa que toda la información que es necesaria para entender si un dato puede ser combinado con otro o no, se pierde en el proceso. Creo que muchas disciplinas, por ejemplo la biología, están siendo especialmente conscientes de esto y hay una nueva profesión de curadores de datos. Reconocen la importancia del big data y de las técnicas de data mining para la investigación biológica, pero tratan de que sea epistemológicamente responsable, por lo que buscan estandarizar los datos, preservar los metadatos, de manera de asegurarse de que cuando migran de formato no se pierda nada o, por lo menos, se pierda lo mínimo posible. Eso requiere una nueva especialidad en biología.

Es que con los algoritmos no siempre es posible recorrer el camino inverso y llegar a la información original.

De algo de eso hablaré en la charla de hoy (ver recuadro). Dentro de la inteligencia artificial hay que hacer la distinción entre dos programas. El programa clásico de inteligencia artificial pretendía ser un programa matemático, en las que unas pocas reglas simples guían al algoritmo. Pero la aproximación del machine learning es totalmente diferente. Con el machine learning uno solamente alimenta a la computadora con miles y miles de ejemplos, y el algorimto cambia en base a esos ejemplos, pero de una forma en la que uno no tiene la menor idea de qué está pasando. En una charla en la Universidad de Princeton, Erik Schmidt, el director de Google, dijo que teniendo computadoras idénticas, programadas de forma idéntica, se las alimentaba con ejemplos y los algoritmos resultantes del machine learning eran distintos. Y dijo que nadie tenía idea de por qué sucedía eso.

¿Se trataba de una especie de “efecto mariposa” de los sistemas complejos?

Puede haber un efecto aleatorio, algún elemento estocástico, pero vaya a saber uno dónde está. ¿Realmente queremos confiar algo que nos importa en un proceso al que no se le puede aplicar ingeniería reversa, algo que no permite volver atrás y encontrar cómo llegamos al resultado? Creo que ese es un gran desafío que enfrentamos.

¿Decís entonces que el machine learning es más peligroso que la inteligencia artificial, al menos cuando hablamos de los archivos científicos?

Absolutamente. Los programas de la inteligencia artificial pueden ser escrutados; se pueden comprender incluso si los resultados son sorprendentes, ya que los propios programas son juegos de reglas que pueden ser inspeccionados. El machine learning, en cambio, es una caja negra.

Hablando de amenazas, ¿creés que, como dicen algunos detractores, uno de los peligros del Plan S, impulsado en Europa para que las investigaciones científicas se publiquen en sitios de acceso abierto (OpenAccess), es que no ofrecen garantías de qué pasará con esas investigaciones ni de cómo se mantendrá el archivo científico?

No creo que sea necesariamente algo malo, pero sí que es un problema sin resolver. La Max Planck Society tiene una política de publicación OpenAccess y recién está empezando a lidiar con el problema del archivo. Cuando hablé con mis colegas al respecto me preguntaron qué va a suceder con los artículos en unos años, a lo que les contesté que no sabía, que nadie ha pensado mucho al respecto. De todas formas, no creo que sea algo particular del OpenAccess, sino que el problema abarca muchas cosas en la era digital. Durante centenas de años, muy lentamente, desarrollamos convenciones. Por ejemplo, las políticas de las bibliotecas nacionales de tener una copia de cada libro que se publica en el país. Hay convenciones sobre cómo archivar esa información, pero no hay ese tipo de convenciones para archivar la web. Internet es llevada adelante por el comercio y no pensando en el bien público, lo que implica que haya resistencias para el desarrollo de esos estándares que serían necesarios para garantizar un archivo. No creo que sea un problema irresoluble que no tengamos los artículos científicos publicados en revistas y libros impresos. Por el momento, los gobiernos no son lo suficientemente poderosos. Fueron muy poderosos en el siglo XIX, cuando estos archivos de las bibliotecas nacionales fueron establecidos y pudieron mandatar a las editoriales y las empresas a que les brindaran copias de todo lo publicado. Los gobiernos de hoy son débiles, en comparación con los intereses comerciales que hay en internet. Es un problema político y económico, pero no creo que sea un problema técnico que no tenga solución.

¿Deben ser los gobiernos los encargados de mantener y generar archivos de todos estos trabajos publicados bajo OpenAccess?

Ellos o la iglesia católica [risas]. Tiene que haber una institución con una visión a muy largo plazo y que esté dispuesta a hacer un esfuerzo por varios cientos de años. En Europa esa institución ha sido la iglesia católica. En otros países, como India, ese rol de mantener el archivo lo asumieron los monasterios budistas. No son perfectas, pero las únicas instituciones que tenemos hoy en día con estas características son los estados nacionales o las organizaciones religiosas.

Dijiste que estamos en un momento de ansiedad para los archivos, una ansiedad que mezcla esperanza y miedo. ¿La historia de la ciencia nos muestra que a estos momentos de ansiedad les siguen momentos de confianza?

Lo que sucede es paradójico, pero la ansiedad y la confianza se dan simultáneamente. Al mismo tiempo que hay gente que tiene conversaciones como la que estamos teniendo, en la que nos preguntamos qué se perderá y quién se va a hacer cargo de los archivos, hay gente que está soñando en archivarlo todo, en el archivo infinito que hará que nunca nos tengamos que preocupar por las limitaciones de espacio. Siempre que hay un nuevo medio, ambas emociones florecen: la ansiedad y la visión utópica de sueños que se dan en momentos de expansión de la confianza. Y si bien nadie puede predecir hacia dónde vamos, podemos decir que no somos impotentes. Y si bien la historia no se repite a sí misma, puede darnos pistas sobre cómo se resolvieron esos problemas en el pasado. Las grandes bibliotecas nacionales del siglo XIX fueron una muy buena solución de ese tiempo para mantener a salvo la herencia científica y literaria de cada país. Uno podría imaginar iniciativas similares, tal vez ya no de las naciones, sino de nuevos grupos globales que están surgiendo. Puede sonar a ciencia ficción, pero ¿quién hubiera imaginado que podría haber un grupo como el que logró llevar a cabo la Bóveda Global de Semillas en Noruega? Se trató de una iniciativa internacional en la que un grupo de personas decidió que, si sucediera algo terrible, como un desastre climático, habría al menos un lugar en el que todas las semillas del planeta se conservaran para poder empezar todo de nuevo. Uno podría pensar en iniciativas de ese tipo, que no son desde la cima hacia abajo, promovidas por los gobiernos, sino desde abajo hacia arriba y provenientes de grupos de archivistas no egoístas del futuro.

Hoy en día, la ciencia tiene un sitial de privilegio porque vivimos en una sociedad tecnológica y la tecnología necesita a la ciencia. Sin embargo, parece que el conocimiento que genera la ciencia no es tenido en cuenta. Pienso en el caso de la administración de Donald Trump y la negación del cambio climático, pero seguramente cada uno pueda citar ejemplos más locales e igual de inquietantes.

Primero que nada, tengo que decir que me avergüenza mi país. Pero no tenemos que perder de vista que, por peculiaridades del sistema electoral de Estados Unidos, sólo 36% del electorado estadounidense votó a Donald Trump. El otro 64% está completamente convencido, y lo muestra cualquier encuesta, de que es cierto lo que dice la ciencia sobre el cambio climático, y quiere que se haga algo al respecto. El problema es que hay intereses económicos muy poderosas que tratan de suprimir cierto tipo de ciencia. Una colega mía, Naomi Oreskes, escribió el libro Los mercaderes de la duda, en el que cuenta que los mismos cinco o seis científicos a los que les pagaban las compañías tabacaleras, y luego las compañías petroleras, desarrollaron una especie de estrategia para manipular a la prensa. La estrategia consistía en decir que había que ver bien que el cáncer y el cigarrillo tuvieran algo que ver, que se necesitaba más investigación. Y cada vez que un nuevo resultado salía, debido a cómo funciona el periodismo en Estados Unidos, tenían que balancear los distintos puntos de vista: esto “mercaderes de la duda” se aseguraban de aparecer en la radio y en la televisión. 95% de sus colegas decían que había una relación entre el cigarrillo y el cáncer, pero ellos decían que se necesitaba más investigación, al tiempo que recibían cantidades de dinero obscenas de las tabacaleras y las petroleras. El periodismo enfrenta el desafío de ver dónde están las mayorías en la ciencia y dónde está el dinero. Por eso es que necesitamos que haya periodismo científico. Los científicos pueden ser comprados, pero siempre serán una minoría. Pero si los periodistas le dan el mismo tiempo a ambas posturas, esa minoría parece tan prominente y numerosa como el otro 95% que está de acuerdo sobre el tema. Hoy hay mucha investigación, especialmente en inteligencia artificial y tecnología digital, que está financiada por intereses comerciales y no por universidades, ese es el tipo de cosas sobre las que deberíamos preocuparnos.

Imperdible

Escuchar hablar a Lorraine Daston es realmente un palcer. Con su hablar pausado y siempre interesada en que el que tiene enfrente comprenda lo que dice, Daston está lejos de imponer su abrumadora carrera por sobre lo que quiere comunciar. Hoy dará una conferencia abierta al público, titulada “Big Calculation y la historia de la inteligencia”. Será a las 18.00 en el Museo Nacional de Artes Visuales, y se proyectaran películas científicas digitalizadas en el laboratorio del Archivo General de la Universidad de la República. Para quienes no hablen inglés no hay problema: habrá traducción simultánea.