Ciencia Ingresá
Ciencia

Expresiones faciales y su relación con las emociones. Foto: Universidad de Ohio

La inteligencia artificial aún no puede descifrar las emociones de las personas a partir de sus expresiones faciales

3 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Investigadores afirman que se necesita más que las expresiones del rostro para inferir, a partir de una imagen, el estado emocional de una persona.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

A medida que avanzan la inteligencia artificial, el machine learning y el data mining (no hay que asustarse por las expresiones en inglés; da lo mismo decir “minería de datos” o “aprendizaje automático”), hay quienes piensan que nada de lo humano les será ajeno a las máquinas, o, en realidad, a los humanos que programan las máquinas para saber qué están haciendo y sintiendo otros humanos. Si bien la mayoría de estos avances apuntan a tener mejor conocimiento para poder ofrecer mejores productos o para control, también es cierto que esta tecnología se ha utilizado para fines más nobles, como la detección temprana de enfermedades o, incluso, para hacer ciencia al permitir un mejor y más rápido trabajo con los datos.

Como toda nueva tecnología, hay quienes la defienden abrigando grandes esperanzas y quienes la atacan con hondo pesimismo. En medio de ambas posturas queda, relegada muchas veces, una más ajustada a los hechos. Sí es cierto que la inteligencia artificial se utiliza cada vez más en aspectos de la vida cotidiana (y del mundo de los negocios, la ciencia, la política, etcétera.). Pero también es cierto que tiene límites, y que el vaticinio de que la inteligencia artificial, el aprendizaje automatizado y el big data terminarán superando a la inteligencia humana o entendiéndonos mejor de lo que nos entendemos a nosotros mimos está lejos, muy lejos de alcanzarse.

Es en este contexto que Aleix Martínez, del Departamento de Ingeniería Eléctrica e Informática de la Universidad Estatal de Ohio, Estados Unidos, salió a provocar con su disertación en la reunión anual de la Asociación Estadounidense para el Avance de la Ciencia (AAAS), en Seattle. “¿Podemos realmente detectar la emoción detrás de las articulaciones faciales?”, se preguntó Martínez, que hace años estudia las emociones del rosto humano y desarrolla modelos computacionales, software de reconocimiento y animación. “La conclusión básica es que no, no podemos”.

La complejidad de un rostro. Inteligencia artificial, torpeza emocional

No es la primera vez que Martínez sale a echar un paño de agua fría a la febril imaginación de los más optimistas adoradores de la inteligencia artificial. Ya el año pasado había participado en la redacción de un artículo científico, publicado en la revista Psychological Science in the Public Interest, titulado “Expresiones emocionales reconsideradas: desafíos de inferir emociones a partir de los movimientos del rostro humano”.

El motivo del trabajo fue recopilar evidencia de múltiples investigaciones ante la proliferación de software que promete leer las emociones en el rostro de la gente con fines de vigilancia, contratación de personal, diagnóstico clínico y de investigación de mercado. “No es posible inferir con confianza la felicidad de una sonrisa, la ira de un ceño fruncido o la tristeza de un ceño fruncido, ya que gran parte de la tecnología actual trata de aplicar lo que erróneamente se cree que son los hechos científicos”, dice en su trabajo este grupo de expertos en psicológica, neurociencia e informática.

En el artículo señalan que se cree que hay expresiones faciales únicas que indican de manera confiable emociones, como la ira, la tristeza, la felicidad, el asco, el miedo y la sorpresa. Sin embargo, al revisar más de mil artículos publicados sobre movimientos faciales y emociones, encontraron que “los diseños de estudio típicos no capturan las diferencias de la vida real en la forma en que las personas transmiten e interpretan las emociones en los rostros”.

“Pensamos que este era un tema especialmente importante para abordar, debido a la forma en que se usan las llamadas 'expresiones faciales' en la industria, los entornos educativos y médicos, y en la seguridad nacional”, dijo Listas Barrett, primera autora de la revisión publicada.

Inteligencia artificial, torpeza emocional

El tema, entonces, no es pura y exclusivamente de la inteligencia artificial, sino de abordaje. “Todos hacen diferentes expresiones faciales basadas en el contexto y los antecedentes culturales”, afirmó Martínez. “Es importante darse cuenta de que no todos los que sonríen son felices, ni todos los que son felices sonríen. Incluso llegaría al extremo de decir que la mayoría de las personas que no sonríen no son necesariamente infelices. Y si estás feliz por todo un día, no vas caminando por la calle con una sonrisa en la cara... Eres feliz”, agregó el investigador.

Al advertir sobre la complejidad del asunto, los expertos entonces arremeten con la posible simplificación del fenómeno y su uso tecnológico. “Algunos afirman que pueden detectar si alguien es culpable de un delito o no, o si un estudiante está prestando atención en clase, o si un cliente está satisfecho después de una compra, pero lo que nuestra investigación demostró es que esas afirmaciones son completamente falsas”, declaró Martínez en la reunión anual de la AAAS. Por las dudas, fue más explícito: “No hay forma de que se pueda determinar esas cosas. Y, lo que es peor, puede ser peligroso”.

Según el comunicado de prensa de la Universidad de Ohio, Martínez, si bien es un “gran creyente en el desarrollo de algoritmos informáticos que intentan entender las señales sociales y la intención de una persona”, declaró que es “importante saber dos cosas sobre esa tecnología”. Por un lado, que “nunca vas a obtener una precisión del 100 por ciento”, y, por el otro, que “descifrar la intención de una persona va más allá de su expresión facial, y es importante que las personas, y los algoritmos informáticos que crean, entiendan eso”.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesa la ciencia?
Suscribite y recibí la newsletter de Ciencia en tu email.
Suscribite
¿Te interesa la ciencia?
Recibí la newsletter de Ciencia en tu email cada dos viernes.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura