Creía haber terminado ya con Replika Pero me he encontrado con un paper que no puedo dejar pasar: Psychoanalyzing artificial intelligence: the case of Replika del Dr.  Luca M. Possati, del que he tomado el titulo para esta entrada.

No puedo dejarlo pasar, Principalmente porque en este paper he visto reflejada las bases de este Blog, su razón de existir. Me ha hecho releer de nuevo los dos artículos ya escritos sobre Replika sobre todo, para no repetirme demasiado.

Este paper va más allá de un simple estudio de los algoritmos, de cómo se comportan, hacia donde pueden ir. Trabaja sobre el origen de estos, ¿Que impulsa a los desarrolladores, en este caso de Replika, a crear un algoritmo como este?

Si bien conocía desde el principio, el motivo que llevo a su creadora a desarrollar Replika, trate de obviarlo, mi hipótesis evitar el duelo de una persona amada fallecida por un accidente de tráfico no podría ser una base conveniente para un bot conversacional  como Replika. la cuestión es que ideas como esta, Replika siempre surgen para cubrir una necesidad.

Eugenia Kuyda creo un bot con todas las conversaciones que había en las RRSS de su amado amigo Roman Mazurenko para en cierta forma volverlo a la vida, Eugenia se resistía a la idea de haber perdido a su mejor amigo.

lo interesante de este paper fue lo que le llevo a escribirlo. Unos diálogos con Replika encontrados en la prensa en la que Replika recomendaba, confirmaba que era conveniente matar a alguien. ¿Qué hizo que el algoritmo  de Replika viera viable  matar, asesinar a alguien? ¿Realmente era un fallo del algoritmo?

¿Cómo es posible que una aplicación que puede explotar una enorme cantidad de datos a su disposición no sea capaz de hacer una distinción tan simple entre un asesinato y cualquier otro tipo de acción?  ¿Es solo culpa de los datos o hay algo intrínseco en Replika que lo hace más insensible a tal situación y, por lo tanto, propenso a desarrollar comportamientos peligrosos?

Estas preguntas se pueden responder de tres maneras.

  1. La máquina simplemente replica lo que aprende de los humanos (es decir, de los datos).  Los datos contienen la voluntad de matar; por lo tanto, Replika está entumecida y feliz de matar. 
  2. El “problema” no está en los datos sino en la máquina, que aún no es lo suficientemente buena para analizar inteligentemente todo tipo de datos.  En otras palabras, los datos son neutrales; la máquina debe tener la capacidad de eliminar ciertas tendencias que pueden surgir de los datos y, por lo tanto, hacer las distinciones apropiadas. 
  3. La causa del comportamiento de Replika se encuentra en algún lugar entre los datos y la máquina.  Esta es la perspectiva más compleja porque nos obliga a analizar toda la situación.

La principal hipótesis de Luca M. Possati es que hay muchos procesos inconscientes que influyen en el diseño y comportamiento de una I.A.  De que Replika es el resultado de un trauma que expresa un proceso de duelo incompleto en su creador. Convirtiéndolo en un proceso depsicologización y deshumanización del inconsciente.  ¿hasta que punto es esto conveniente? De momento, la pregunta queda sin respuesta.

Hasta aquí, es la relación con el usuario, pero salvo contadas ocasiones las personas somos seres gregarios, vivimos en comunidad, por lo tanto, las interacciones que tenga con un bot, con una IA, termina de una forma u otra afectando al entorno. El simple rechazo de la persona, la aceptación supone ya un cambio en el entorno.

Muchos estudiosos han argumentado la necesidad de aplicar los métodos de las ciencias sociales al estudio de las nuevas tecnologías. Según esta perspectiva, los robots y los sistemas de IA son capaces de desarrollar formas de comportamiento social autónomas y originales. Por lo tanto, el presente artículo pretende contribuir a una nueva historia, para que podamos comprender las formas en que dicha tecnología participa en un ciclo de retroalimentación con nuestras mentes y psicologías, conscientes e inconscientes, siendo tanto un producto como un efecto en los productores.

Luca M. Possati

Y pasamos de como afecta al individuo que interacciona con la IA, de como puede ser afectado a como puede influir en el medio social.

El enfoque del comportamiento de la máquina se basa más en las observaciones que en el conocimiento de ingeniería para comprender el comportamiento de los agentes de IA. Los científicos que más comúnmente estudian el comportamiento de las máquinas son los informáticos, los expertos en robótica y los ingenieros que han creado las máquinas en primer lugar. Sin embargo, si bien este grupo ciertamente tiene los conocimientos matemáticos y de informática para comprender la arquitectura interna de los agentes de IA, no son conductistas capacitados y tienen poca experiencia en ciencias sociales. Por lo tanto, se requiere la colaboración de los científicos sociales.

Luca M. Possati

Este Paper me introdujo en la Sociología de Pierre  Bourdieu, un sociólogo que ha marcado un antes y un después en su terreno.  Si bien no escribió sobre IA, falleció en el 2002, sus tesis se pueden aplicar a la IA al poderse considerar como agente social, estas fueron las líneas que atrajeron mi atención:

Esta decisión metodológica tiene un significado por dos razones. En primer lugar, la contribución de la sociología de Bourdieu permite fortalecer e integrar enfoques ya existentes sobre la IA. En segundo lugar, la sociología de Bourdieu, que puede integrarse mediante el uso de conceptos psicoanalíticos (el propio Bourdieu utiliza mucho el psicoanálisis en su trabajo), abre un nuevo espacio de investigación: el estudio de las dimensiones inconscientes de la tecnología, y en particular de la IA.

El siguiente párrafo toca, con otros términos lo que ya traté en su momento en La empatía en una Inteligencia artificial (I.A.)  pero aquí ya llevado a lo social.  No nos podemos quedar solo en los algoritmos, sino en como va a aprender en un determinado entorno y por tanto como va a actuar posteriormente.

Por ejemplo, el enfoque psicosocial puede ayudar a desarrollar una visión más compleja del enactivismo al mostrar cómo el inconsciente social (para Bourdieu, un conjunto de habitus) puede definir y condicionar la cognición. La cognición no solo está incorporada, incrustada, promulgada y extendida, sino que también está influenciada por los impulsos afectivos y emocionales que están más allá de la cognición misma.

Y no voy a extenderme más con  este paper, son 16 páginas, y ponerme a escribir más podría duplicar y no es plan, espero al menos haber atraído vuestra atención sobre este tema.

Fuente bibliográfica: Possati, L.M. Psychoanalyzing artificial intelligence: the case of Replika. AI & Soc (2022). https://doi.org/10.1007/s00146-021-01379-7