Traigo a Empatía e IA la traducción de “<< THE INSCRUTABLE HUMAN(MADE) ALGORITHMS >> de ANIMASURI.  Me encontré el articulo hace unas dos semanas, pero ya tenía en preparación “7 charlas imperdibles sobre Humanismo y tecnología…”  Ha sido publicarlo y ponerme con la preparación de este.

“El tipo de futuro que es más compatible con el bienestar humano es aquel en el que los descubrimientos algorítmicos respaldan la toma de decisiones humana en lugar de reemplazar realmente la toma de decisiones humana”

Colaner 2019

Encontrarme con esta cita al principio del artículo fue lo que me engancho a leerlo entero (de vez en cuando lo hago en mis artículos, quizás deba hacerlo más a menudo.

“Yo diría que tal vez el debate más productivo que podemos tener no es el del bien contra el mal: el debate debería ser sobre los valores inculcados en las personas e instituciones que crean esta tecnología.”

Satya Nadella, CEO de Microsoft

Es la ultima cita que adelanto del artículo, creo que es suficiente y si sigo corro el peligro de hacer la introducción mas larga que el propio artículo.


LOS INESCRUTABLES ALGORITMOS HUMANOS (HECHOS)

APRIL 13, 2022 ANIMASURI

“Hay consenso en que evitar algoritmos inescrutables [aquí se entiende como lo contrario de explicables] es un objetivo digno de elogio. Creemos que hay razones legales y éticas para sospechar extremadamente de un futuro, donde se toman decisiones que afectan, o incluso determinan, el bienestar humano y, sin embargo, ningún ser humano puede saber nada sobre cómo se toman esas decisiones. El tipo de futuro que es más compatible con el bienestar humano es aquel en el que los descubrimientos algorítmicos respaldan la toma de decisiones humana en lugar de reemplazar realmente la toma de decisiones humana. Esta es la diferencia entre usar la inteligencia artificial como una herramienta para hacer que nuestras decisiones y políticas sean más precisas, inteligentes y humanas y, por otro lado, usar la IA como una muleta que piensa por nosotros. (Colaner 2019)

Si uno aprovechara esta oportunidad ofrecida para la contextualización y sustituyera los «algoritmos» —aquí implicados como los utilizados en la computación digital— por *algoritmos* de la computación humana [*1], uno podría tener reflexiones interesantes sobre nuestro esfuerzo humano en el pasado, presente y futuro: de hecho, amigos, «… se toman [y se han tomado] decisiones que afectan o incluso determinan el bienestar humano y, sin embargo, ningún ser humano puede saber nada acerca de cómo se toman esas decisiones… » ¿Se te ocurre algo en nuestra especie? ‘ pasado y presente que ha estado ofreciendo precisamente eso?

“nuestro” no es solo tú o yo. Es cualquier muestra, o grupo dotado de una característica, o es toda la población, y es la vida, a la que pertenece esta totalidad. Personajes más o menos benévolos, fuera del alcance de la mentalidad común pero que se extienden hacia el exterior para poner las mentes en orden, han sido parte de la narrativa humana desde mucho antes de las primeras pinturas rupestres que hemos redescubierto hasta ahora. Como, y más allá de, la UNESCO sugirió recientemente para los planes de estudio de AI K-12: “Contextualización de datos: anime a los alumnos a investigar quién creó el conjunto de datos, cómo se recopilaron los datos y cuáles son las limitaciones del conjunto de datos. Esto puede implicar elegir conjuntos de datos que sean relevantes para la vida de los alumnos, que tengan pocas dimensiones y que estén ‘desordenados’ (es decir, que no estén limpios o que no se puedan categorizar claramente)». (UNESCO 2022, pág. 14).

Al otorgar derechos a la ética de la IA, podríamos querer considerar que este esfuerzo podría, en paralelo a su reconocida urgencia e importancia, tal vez distraer la atención de nuestros inescrutables algoritmos humanos.

Por ejemplo, ¿debería preocuparme que me estoy cegando con el brillo de las externalidades reflexivas (por ejemplo, una extensión cognitiva móvil), una pausa amortiguada y una autorreflexión aún más además de esos actos humanos que ya amortiguan el discernimiento humano?

La consideración entrelazada de la tecnología podría venir mejor con la consideración continua de la difícil situación humana; y cualquier forma (de vida) así como su entorno.

¿Podríamos mejorar la forma en que nos relacionamos entre nosotros a través de nuestras mediaciones, como procesos etiquetados como artificialmente inteligentes? Varias voces a través de varios lentes parecen pensar que sí.

Quizás las palabras narradas por Satya Nadella, CEO de Microsoft, al referirse a John Markoff, sugieran consideraciones similares, que podrían encontrar un lugar en la mesa de los estadísticos de futuras narrativas: 

“Yo diría que tal vez el debate más productivo que podemos tener no es el del bien contra el mal: el debate debería ser sobre los valores inculcados en las personas e instituciones que crean esta tecnología. En su libro Machines of Loving Grace, John Markoff escribe: “La mejor manera de responder a las preguntas difíciles sobre el control en un mundo lleno de máquinas inteligentes es comprender los valores de quienes realmente construyen estos sistemas”. Es una pregunta intrigante, y nuestra industria debe discutirla y responderla en conjunto.

Nadella Vía Slate.com 2016

A través de esa lente de contextualización, el problema no tiene relación con las artificialidades basadas en silicio (solo), ya que está incluido en las relaciones humanas, anterior a lo que hoy anunciamos como sugerencias inteligentes o sintéticas hacia la inteligencia. 

¿Podrían, por lo tanto, las respuestas hacia la ética de la IA residir en no ignorar los procesos humanos que crean las narrativas tanto de la IA como de la ética? Ambos son creados por actores que aseguran que “se toman decisiones que afectan, o incluso determinan, el bienestar humano. Dicho esto, podríamos cuestionarnos si el diálogo o el discernimiento humano son suficientemente accesibles para una mayoría que lucha con los “algoritmos” impuestos en su vida cotidiana sin pulir. Demasiadas vidas tienen muy poco espacio físico y mental para respirar para obtener modelos mentales (y algoritmos); y mucho menos reflexionar sobre su pasado, presente y seguramente menos sus futuros opacos como lo cuentan otros tanto en tecnología como en ética.

Uno (por ejemplo, la tecnología) necesita acompañar más al otro (por ejemplo, la ética), en un sistema complejo de pensamiento, acción y reflexión que también puede transcodificarse a otros participantes (por ejemplo, cualquier vida humana en cualquier lugar). Nuestros sistemas humanos (más o menos inteligentes) podrían necesitar una transformación para permitir esto al denominador más pequeño o más débil o menos representado; los cuales no pueden ser directores generales o académicos o expertos solos. Tampoco deberían ser nuestras » muletas » como sugiere la cita anterior para la IA. 

Tú y yo podemos continuar con nuestros proverbiales “tartamudeos” de (in)competencia compartida, pero, con apertura, para cuestionar, escuchar y aprender:

“¿Es mi preocupación, conducir mis actos, mejorar a su vez nuestras relaciones humanas? ¿Puedo innovar mi arquitectura personal ahora mismo, aquí mismo, al mismo tiempo que considero cómo estos pueden diseñar las tecnologías que se promocionan para delegar la inteligencia de manera ubicua? ¿Cómo puedo participar en un mejor diseño? ¿Qué quiero delegar en las arquitecturas de la civilización, ya sean de última moda o diseños pasados? ¿Me pueden ayudar a hacer preguntas ‘mejores’?”

…y un diálogo mucho mejor que promueva, por nombrar solo algunos: explicabilidad (dentro, alrededor y más allá de la IA y la ética), transparencia (dentro, alrededor y más allá de la IA y la ética), perspectivas, baja barrera de entrada, contextualización (de datos y más allá de). (UNESCO 2022 p. 14).


El articulo termina con una extensa bibliografía, pero he decido obviarla y remitiros al artículo original. Por otra parte, la mayoría de las frases resaltadas, han sido cosa mía. Para mí, claves.

Gracias por haber llegado hasta aquí.