A medida que avanzan la inteligencia artificial, el machine learning y el data mining (no hay que asustarse por las expresiones en inglés; da lo mismo decir “minería de datos” o “aprendizaje automático”), hay quienes piensan que nada de lo humano les será ajeno a las máquinas, o, en realidad, a los humanos que programan las máquinas para saber qué están haciendo y sintiendo otros humanos. Si bien la mayoría de estos avances apuntan a tener mejor conocimiento para poder ofrecer mejores productos o para control, también es cierto que esta tecnología se ha utilizado para fines más nobles, como la detección temprana de enfermedades o, incluso, para hacer ciencia al permitir un mejor y más rápido trabajo con los datos.

Como toda nueva tecnología, hay quienes la defienden abrigando grandes esperanzas y quienes la atacan con hondo pesimismo. En medio de ambas posturas queda, relegada muchas veces, una más ajustada a los hechos. Sí es cierto que la inteligencia artificial se utiliza cada vez más en aspectos de la vida cotidiana (y del mundo de los negocios, la ciencia, la política, etcétera.). Pero también es cierto que tiene límites, y que el vaticinio de que la inteligencia artificial, el aprendizaje automatizado y el big data terminarán superando a la inteligencia humana o entendiéndonos mejor de lo que nos entendemos a nosotros mimos está lejos, muy lejos de alcanzarse.

Es en este contexto que Aleix Martínez, del Departamento de Ingeniería Eléctrica e Informática de la Universidad Estatal de Ohio, Estados Unidos, salió a provocar con su disertación en la reunión anual de la Asociación Estadounidense para el Avance de la Ciencia (AAAS), en Seattle. “¿Podemos realmente detectar la emoción detrás de las articulaciones faciales?”, se preguntó Martínez, que hace años estudia las emociones del rosto humano y desarrolla modelos computacionales, software de reconocimiento y animación. “La conclusión básica es que no, no podemos”.

La complejidad de un rostro. Inteligencia artificial, torpeza emocional

No es la primera vez que Martínez sale a echar un paño de agua fría a la febril imaginación de los más optimistas adoradores de la inteligencia artificial. Ya el año pasado había participado en la redacción de un artículo científico, publicado en la revista Psychological Science in the Public Interest, titulado “Expresiones emocionales reconsideradas: desafíos de inferir emociones a partir de los movimientos del rostro humano”.

El motivo del trabajo fue recopilar evidencia de múltiples investigaciones ante la proliferación de software que promete leer las emociones en el rostro de la gente con fines de vigilancia, contratación de personal, diagnóstico clínico y de investigación de mercado. “No es posible inferir con confianza la felicidad de una sonrisa, la ira de un ceño fruncido o la tristeza de un ceño fruncido, ya que gran parte de la tecnología actual trata de aplicar lo que erróneamente se cree que son los hechos científicos”, dice en su trabajo este grupo de expertos en psicológica, neurociencia e informática.

En el artículo señalan que se cree que hay expresiones faciales únicas que indican de manera confiable emociones, como la ira, la tristeza, la felicidad, el asco, el miedo y la sorpresa. Sin embargo, al revisar más de mil artículos publicados sobre movimientos faciales y emociones, encontraron que “los diseños de estudio típicos no capturan las diferencias de la vida real en la forma en que las personas transmiten e interpretan las emociones en los rostros”.

“Pensamos que este era un tema especialmente importante para abordar, debido a la forma en que se usan las llamadas 'expresiones faciales' en la industria, los entornos educativos y médicos, y en la seguridad nacional”, dijo Listas Barrett, primera autora de la revisión publicada.

Inteligencia artificial, torpeza emocional

El tema, entonces, no es pura y exclusivamente de la inteligencia artificial, sino de abordaje. “Todos hacen diferentes expresiones faciales basadas en el contexto y los antecedentes culturales”, afirmó Martínez. “Es importante darse cuenta de que no todos los que sonríen son felices, ni todos los que son felices sonríen. Incluso llegaría al extremo de decir que la mayoría de las personas que no sonríen no son necesariamente infelices. Y si estás feliz por todo un día, no vas caminando por la calle con una sonrisa en la cara... Eres feliz”, agregó el investigador.

Al advertir sobre la complejidad del asunto, los expertos entonces arremeten con la posible simplificación del fenómeno y su uso tecnológico. “Algunos afirman que pueden detectar si alguien es culpable de un delito o no, o si un estudiante está prestando atención en clase, o si un cliente está satisfecho después de una compra, pero lo que nuestra investigación demostró es que esas afirmaciones son completamente falsas”, declaró Martínez en la reunión anual de la AAAS. Por las dudas, fue más explícito: “No hay forma de que se pueda determinar esas cosas. Y, lo que es peor, puede ser peligroso”.

Según el comunicado de prensa de la Universidad de Ohio, Martínez, si bien es un “gran creyente en el desarrollo de algoritmos informáticos que intentan entender las señales sociales y la intención de una persona”, declaró que es “importante saber dos cosas sobre esa tecnología”. Por un lado, que “nunca vas a obtener una precisión del 100 por ciento”, y, por el otro, que “descifrar la intención de una persona va más allá de su expresión facial, y es importante que las personas, y los algoritmos informáticos que crean, entiendan eso”.