No me acordaba ya de esta película, hasta que esta noche, la han puesto en la TV por Cable, en Buenos Aires, donde me encuentro estos días. es una película de los años 90 cuando la I.A. todavía era algo demasiado lejano, tanto que en ningún momento se usa dicho termino.

Quitando las críticas negativas que recibió la película, la traigo al blog por referencia a la primera entrada en Empatía e I.A: «Cómo enseñar a las inteligencias artificiales aprender emociones de una forma beneficiosa para todos” cuando hice referencia a Norman, la I.A. educada con lo más oscuro de Reddit.

¿Qué pasaría con una I.A. educada de esa forma, tomando nota de las mentes más psicópatas y asesinas de la historia y escapa al control de quien la creo y la programo?, ¿de qué forma podemos aminorar dicho riesgo? (suprimirlo es, creo imposible) ¿Leyes? si ayudan bastante, pero porque no ayudar a acrecentar la Inteligencia emocional de quienes os estáis dedicando al desarrollo de los aspectos «emocionales» de las I.A.s.

No dudo de las buenas intenciones que tenemos la mayoría en este terreno, ¿pero es eso suficiente? ¿Qué pasa dentro de nosotros cuando ese familiar, amigo, pareja o conocido nos pide ayuda sobre cualquier asunto informático? ¿cuál es nuestro nivel de tolerancia hacia el desconocimiento de la otra parte sobre el tema, que probablemente para nosotros sea como lavarse los dientes después de las comidas?

Tampoco es cuestión de tener un nivel de paciencia infinito, sino también la capacidad de poder decir no, la capacidad de que sea el otro que pruebe a hacerlo por sí mismo después de haberle indicado los pasos, de buscar otra forma de explicarlo, antes de hacerlo nosotros mismos para terminar ya y nos deje tranquilos. y en estos casos caemos bastante a menudo, ¿o no es así?

Por otro lado, somos curiosos, nos gusta probar nuevas cosas, y en programación nos encontramos con el gustazo de ver que finalmente tal o cual algoritmo, programa, aplicación… funciona. No estoy en contra de que prueben diferentes escenarios, llegando en cierto modo a los niveles de la película, pero cuando esto no queda aislado, cuando puede afectar a terceras personas, ¿cuál es la frontera que no hay que cruzar?, ¿hasta qué punto, tal como se está desarrollando la I.A. podemos implementar unos controles que la I.A no pueda saltarse?

Si os interesa la película, podéis leer un amplio extracto en Wikipedia o bien verla en YouTube, aunque en Ingles.

La imagen ha sido extraída de: https://www.rottentomatoes.com/m/virtuosity/, sirva esta mención para poder usarla en el blog, en caso contrario la sustituiré por otra