Todos nacemos con un potencial para reconocer las emociones en uno mismo, en los demás, otra cosa es el nivel de desarrollo que consigamos cada uno en este reconocimiento de emociones.

Posiblemente por ahorrar tiempo, esfuerzos, las bases de reconocimiento facial se basaron en los estudios de Ekman, financiados en gran medida por el DARPA para demostrar la universalidad de expresión facial de las emociones, pero siempre con una base de pruebas mas pequeña que la que puede recoger la IA en sí, constreñidas a encajar en las teorías de Ekman. Teorías que ahora, bueno ya también antes, al parecer estas teorías ya estaban viniéndose abajo.

Posiblemente, contraviniendo las medidas de protección de datos, se podría  adquirir un dataset  en tiempo y forma lo suficiente significativo para el aprendizaje de las I.A.s a detectar las emociones, la cuestión es que esto no puede ser y espero que no lo sea nunca, no por que la inteligencia artificial no lo logre, sino por nuestra propia intimidad.

Solo, los asistentes digitales podrían conseguir esta información, pero solo de su usuario mediante la continua interacción con él, prácticamente del mismo modo que hacemos nosotros con nuestras personas cercanas, al poco que nos interesamos realmente por ellas, empezamos a reconocer sus expresiones faciales y corporales, y saber cómo se encuentra y actuar en consecuencia, Preguntando y escuchando antes de hacer nada.

Una IA entrenada podría detectar tu estado emocional mejor que la mayoría de nosotros desde el punto de vista  de ¿Cuánto tiempo dedicamos realmente a conocer a nuestro prójimo, a nuestra pareja, a nuestros hijos, padres…?  Desgraciadamente por economía, por desinterés, menos de lo que sería necesario.

Muchas veces, nos ponemos las medallas, cuando alguien consigue un gran logro, por ejemplo, la capilla Sixtina, si bien fue realizado por una persona, ¿tu podrías replicarla? Hacer una cosa similar, no. Que alguien haya alcanzado esa excelencia, no quiere decir que tú la tengas, quizás tengas el potencial para llegar a ello, pero en este momento eres del todo incapaz de acercarte siquiera a hacer un garabato de la imagen original (ejemplo: ecce Hommo),  y esta es la respuesta del robot en la película “Yo robot” 

Mientras que estaba finalizando este artículo, me he puesto en YouTube, en la TV : HUMAN’s Musics, de cuando en cuando aparecen una serie de primeros planos de personas de diferentes razas, culturas, unas parecen serias, otras enfadadas, otras contentas, enigmáticas… creo que es un buen ejercicio para nosotros, para tomar consciencia de que ni para nosotros es tan fácil detectar una emoción sustrayendo a la persona de su entorno, para mí, por ejemplo hay rostros que me parecen indescifrables, cuando parecen serios, ¿están serios? ¿Es una expresión neutra? En su cultura, ¿Cómo interpretaría sus gestos en ese momento?

¿Hasta que punto, nosotras, las personas, podemos certificar al 100%, bueno, dejémoslo en un 90%, que una IA reconoce con una sola instantánea, la emoción que puede estar sintiendo en dicho momento esa otra persona?, honestamente, ¿Cuál es tu porcentaje de aciertos al intentar saber la emoción de una persona? ¿en que porcentaje tu propio estado de animo puede ante una misma instantánea, en un momento identificar una emoción, y al rato, decidir que era otra emoción?

Posiblemente, en muchas ocasiones, si le enseñaras a la persona la instantánea en la que pretendes reconocer la emoción, ella misma tendrá dificultades en recordar, incluso viéndose en la foto de que emoción tenia en ese momento, que tenia en mente en ese momento. ¿hasta que punto vamos en automático? ¿hasta que punto otros se aprovechan de ello?

Imagen de portada: el montaje es mío usando imágenes de: Jörg Peter, Leroy Skalstad, Free-Photos, Pexels, y Comfreak en Pixabay. Qasim Sadiq, hesam jr, Prijun Koirala, Awab Husameldin, Alexander Krivitskiy, ilya mondryk, OSPAN ALI, Ananya Bilimale y Awab Husameldin en Unsplash.
la imagen del Ecce hommo extraida de: https://atenta.weebly.com/ecce-homo.html.