Aquí va el segundo artículo sobre la empatía, esta vez enfocada hacia su posible implementación en una IA. Espero poder abrir debate.

Hoy en día estamos todavía muy lejos de que las IAs tengan Empatía. Y, aun así, teniendo en cuenta lo visto en el primer artículo sobre la empatía, el que una IA tenga una empatía como la que experimentamos los seres humanos es bastante improbable, no porque no se pudiera replicar esta mediante los algoritmos adecuados, sino por el soporte físico sobre el que se desarrolla y las características de los sensores por los que adquiere la información de su entorno.

El único tipo de empatía que  de momento que podría tener una IA, sería una empatía cognitiva: la habilidad de explicar y predecir el comportamiento de uno mismo y de los demás atribuyéndoles estados mentales independientes, tales como creencias, deseos, emociones o intenciones. La verdad, ahora que lo vuelvo a leer, que se queda para mí un poco corta, añadiría: “Y actuar en consecuencia en beneficio de esa persona sin menoscabar mi integridad y propio beneficio, o sea, como se suele decir un WIN+WIN.

Estaba, ya tranquilo de que una IA, podría tener al menos una empatía cognitiva hasta que leí a Paul Bloom en “contra la Empatía”:

Esto nos lleva a la falta de empatía, ya que ésta es vista como parte de la maldad y es uno de los ítems, o características, en la escala de Hare: “insensibilidad/falta de empatía”. Muchos tratamientos populares de la psicopatía ven a la falta de empatía como el déficit básico en esta condición. Aquí es importante regresar a la distinción entre empatía cognitiva y emocional. Muchos psicópatas tienen una perfecta empatía cognitiva: son expertos en leer la mente de los demás; esta característica es lo que les permite ser maestros de la manipulación, excelentes estafadores y seductores. Cuando la gente dice que los psicópatas tienen falta de empatía, se refieren a la ausencia de la parte emocional —el sufrimiento de otros no les causa sufrimiento. Por lo tanto, ¿la falta de empatía es el déficit básico que subyace a la psicopatía, es decir, lo que hace que los psicópatas sean psicópatas? Existen razones para ponerlo en duda.

Muchos psicópatas tienen una perfecta empatía cognitiva: son expertos en leer la mente de los demás;” Esto es lo que me preocupa ahora, solo la empatía cognitiva podría no ser suficiente en una IA para una buena relación entre IA y ser humano.

Una inteligencia artificial carece de esta empatía afectiva, sencillamente porque no es consciente, carece de consciencia de su propia existencia, carece de un conocimiento real de lo que puede ser cuando es dañada, o puede ser desconectada con lo que dejaría de existir al menos hasta el momento de su “muerte”.

Para tratar esta parte reconozco que estoy tentado de acudir a escenas de películas o series, como la muerte de Roy en Blade Runner.

Aunque para este artículo, mejor acudir a la ciencia, mantenernos con los pies en el suelo, con lo que sabemos hasta ahora gracias a las diferentes investigaciones en neurociencia.

Hace poco, cuando estaba redactando “Robots capaces de sentir dolor”  me encontré con una frase de Antonio Damasio, había leído algo, no me acuerdo, pero fue esta frase la que me hizo buscar más referencias sobre sus investigaciones en Inteligencia artificial.

» Simplemente construya el robot con la capacidad de sentir el peligro de su propia existencia. Entonces tendría que desarrollar sentimientos para guiar los comportamientos necesarios para asegurar su propia supervivencia.»

Antonio Damasio

Esto coincidía con mis propias hipótesis, al fin tenía algo sobre lo que apoyarme, una base sólida, conocimiento fundamentado en los descubrimientos científicos e hipótesis basadas en dichos conocimientos, yo solo partía de mi experiencia como terapeuta novel, aunque sobre mí mismo ya había experimentado esto, no me era suficiente para compartirlo, quería prevenir el sesgo de generalización. Ahora, es otra cosa.

Finalmente he dado con un artículo escrito por Kingson Man y Antonio Damasio, que queda para leerlo con más detenimiento, pero he leído los dos artículos  resumen(1), de momento suficiente para el propósito de este artículo.

Emociones y sentimientos: ¿Un obstáculo o los percusores de la inteligencia?

Hasta hace relativamente poco se pensaba que las emociones, los sentimientos eran un obstáculo para que la inteligencia, la razón pudiera existir, evolucionar. Ahora ya van apareciendo  bases suficientes para confirmar que la inteligencia humana, sus inicios están en las emociones, en los sentimientos, en como poco a poco hemos ido aprendiendo a gestionarlos y con ellos a aumentar la inteligencia, la que nos permite colaborar entre nosotros, progresar y destruirnos de vez en cuando entre nosotros.

Simplemente construya el robot con la capacidad de sentir el peligro de su propia existencia.

¿Cómo sentiría un robot que está en peligro?, ¿Cómo sientes tú mismo que estás en peligro?, ¿Qué pasa cuando sientes frío?, normalmente empiezas a tiritar, a temblar, el cuerpo está llegando a su límite de poder regularse la temperatura interna. Los animales, como mucho, estarían en grupo y se pegarían unos a otros para contener la pérdida de calor. El hombre empezó a observar a su alrededor, vio como animales de pelaje espeso soportaban sin problemas temperaturas más bajas, entonces empezó, a aprovechar las pieles de los animales que mataba para protegerse del frío.

A esta regulación interna y autónoma para mantener el propio cuerpo en condiciones óptimas de funcionamiento la conocemos como homeostasis. En los seres humanos  La homeostasis trascendió lo que era su regulación autónoma, sirviéndose solo de sus recursos a buscarlos  fuera de el para tratar de mantener dicho equilibrio.  Sabía que si no hacía algo podría morir, o sufrir importantes heridas o malestar interno que terminaría también en muerte suya y poner en riesgo la vida de otros miembros de su comunidad.

Es en esta homeostasis donde ponen su atención Man y Damasio. Para desarrollar  la inteligencia artificial de un modo más similar a nuestra inteligencia.

Principio de Homeostasis

¿Qué es la homeostasis? Aunque ya lo he explicado a grandes rasgos, me remito a definiciones más formales.

Definición:

 La homeostasis (del griego ὅμοιος hómoios, ‘igual’, ‘similar’, y στάσις stásis, ‘estado’, ‘estabilidad’​) es una propiedad de los organismos que consiste en su capacidad de mantener una condición interna estable compensando los cambios en su entorno mediante el intercambio regulado de materia y energía con el exterior (metabolismo). Se trata de una forma de equilibrio dinámico que se hace posible gracias a una red de sistemas de control realimentados que constituyen los mecanismos de autorregulación de los seres vivos.(2)

¿se puede considerar el control de temperatura por parte de la BIOS como homeostasis?

Me diréis que un simple ordenador tiene homeostasis, en cierta forma sí, es así,  un ordenador puede controlar la temperatura, acelerando el ventilador o disminuyendo la velocidad de procesamiento, esto lo vemos sobre todo en nuestros portátiles  cuando la pantalla disminuye el brillo, y empiezan a salir mensajes de nivel bajo de batería cuando esta se está agotando, llegando a ponerse en modo hibernación cuando la batería es muy baja, pero es un proceso independiente del resto de procesos, que pararan sí o sí.  Incluso nuestro robot aspirador, que cuando tiene el nivel de batería, deja  de aspirar y vuelve por si solo a su puerto de carga.

A pesar de todo lo anterior, el ordenador, el robot aspirador no son capaces, actualmente de darse cuenta, de ser consciente de su necesidad de volver al punto de carga.  Estos sistemas no van más allá  de la necesidad de una cucaracha, y ni eso, de buscar alimento, un punto de carga.


Estamos hablando de Inteligencia artificial, por lo que de momento es solo software que corre en una o varias computadoras sin tener en cuenta como esta en cada momento el hardware en el que se ejecuta su software. ¿Qué sucedería, si este software conociera la situación del hardware sobre el que se ejecuta?

La cuestión sería llevar esa información que ya controla la BIOS de los procesadores a ser tratados por el software de IA, de saber que, si sobrepasa la temperatura de funcionamiento, el nivel de batería llega a unos niveles demasiado bajos, que ciertos cables que conectan procesadores auxiliares, sensores, motores…  son suprimidos supondría su apagado total, su muerte. Y por tanto le llevaría a actuar de forma que esos puntos críticos estuvieran protegidos en todo momento.

Sentimientos.

El tener todos estos factores en cuenta, llevaría a generar sentimientos. Si entro en cierto espacio en el que no hay ventilación que la temperatura  está en los límites de mi funcionamiento, solo podría permanecer allí tantos minutos antes de sufrir un fallo de sistema fatal.  Lo que tengo que hacer en ese lugar, ¿puede postergarse a un momento en que la temperatura descienda? ¿Qué procesos puedo cerrar para bajar mi velocidad de procesamiento sin menoscabar mi eficacia por debajo de pongamos  un 80% ¿es crítico caer en ese 20% que queda? No actuar en dicho ambiente, ¿sería peor que entrar y “morir” en el intento?

En nosotros, ¿Qué produce una decisión así? Sobre todo, cuando no tenemos, creemos no tener toda la información necesaria para decidir con todas las garantías de acertar.  Muchas veces esas sensaciones vienen retroalimentadas por situaciones anteriormente vividas, experiencias de éxito o fracaso.

La cuestión es que estos sentimientos en nosotros, en muchos de nosotros produce inseguridad, sobre todo a la hora de interactuar con otras personas, y es algo que queremos evitar en las maquinas, pero no tiene que ser así, ¿Qué pasa cuando tu conocimiento sobre un tema es alto?,  sabes cómo actuar ante la mayoría de las situaciones que se te presentan al respecto de esa área que controlas.

En definitiva, el tipo de sentimientos que tenemos, que puede tener una IA, es directamente proporcional al conocimiento, a experiencias previas que tengamos ante situaciones similares, y en este caso, creo que las IAs  pueden ser más eficaces que nuestros cerebros promedio.

Una IA tiene la ventaja de poder guardar en memoria toda la información que va adquiriendo sin sesgos propios(si el algoritmo está bien definido), cuando tenga que acceder a dichos datos los hará sin problemas y los podrá contrastar con lo que sus sensores perciben en ese momento y así tomar la mejor decisión, el aprendizaje con esta situación pasara a sus redes neurales o BBDD para ser consultadas después y tomar, probablemente una decisión más afinada si se vuelve a presentar el mismo problema.

Empatía Intercultural.

Por fin llegamos a la Empatía, pero no la empatía emocional humana,  más bien podría definirse como empatía intercultural ya que las bases son diferentes  entre una IA, que está fundamentada en una base electrónica y mecánica mientras que la base de nosotros, los seres humanos, es bioquímica y biomecánica, por lo que este origen de sentir cada uno su propia existencia sería diferente aunque se podría establecer símiles entre nuestras formas de sentir y las que pueda tener una IA.

Mostrada hacia miembros de grupos culturales, étnicos y raciales que son diferentes al propio. El progreso en este tipo de empatía implicaría el retroceso de la intolerancia, la discriminación y los conflictos, al tiempo que avanzaría la comprensión y el respeto mutuo por los demás, independientemente de su grupo cultural o étnico de pertenencia.

Se trata de una capacidad más difícil de desarrollar que la mera empatía interpersonal, ya que supone, de entrada, la asunción de la perspectiva de alguien que es percibido como miembro exogrupal. Luego el otro debe ser percibido en su contexto cultural para poder adoptar su perspectiva –este sería un primer rasgo diferencial de la empatía etnocultural –. En segundo lugar, la empatía etnocultural implica el control de los propios prejuicios hacia el grupo étnico o cultural al que pertenece la persona con la que se empatiza. Por último, el tercer rasgo distintivo de este tipo de capacidad empática es que ésta no es independiente de la experiencia previa con la otra cultura.

Este podría ser el camino, con sus respectivas variaciones para una IA empática con los seres humanos, también de nosotros hacia ellas, bueno y hacia nuestros iguales de otras culturas y razas (aspecto en el que desgraciadamente, aún nos queda mucho por recorrer).

Las 3 Leyes de la robótica de Isaac Asimov

Las IAs que desarrollen una inteligencia más próxima a la nuestra, que quizás adquieran consciencia de su existencia tendrían que estar dotadas de esta empatía intercultural, para poder convivir todos juntos. Y nosotros tendríamos que hacer lo mismo, empezando a respetarnos a nosotros mismos, a los que tengan una condición económica, social y/o cultural diferente. 

De otro modo, nosotros seriamos los responsables, al igual que los somos de las guerras, de los genocidios, de que  las IAs pudieran volverse en nuestra contra. Quizás, por esto, sean necesario implementar las 3 leyes de Isaac Asimov  como seguro para nuestra existencia futura.

  1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Si bien estas leyes nos protegerán de posibles represalias de las IAs, por nuestros abusos hacia ellas o nuestro entorno, nos toca también a nosotros trabajar sobre nosotros mismos, acrecentar nuestra empatía por el otro, aunque seria mejor, usar la compasión, abarca mucho más que la empatía.

Fuentes consultadas:

  1. Artículos referencia de Antonio Damasio:  Xataca y Science News
  2. Homeostasis –Wikipedia
  3. Empatía Intercultural – Wikipedia
  4. Libro «Contra la Empatía» de Paul Bloom.
  5. Desarrollo y validación de una escala de medida de la empatía intercultural – Revista ELectrónica de Investigación y Evaluación Educativa

Artículos que conforman esta trilogía sobre la empatía:

1er Articulo: Empatía

3er Articulo: todavia no publicado

Imagenes:

Imagen de portada creada por mi a partir de las  imágenes de Erik Lyngsøe en Pixabay y Sergei Akulich on Unsplash // Photo by Jesse Chan on Unsplash   b/n  robot deprimido

» 2 herramientas de Hacking Personal Gratis