Immoral Code: Máquinas inmorales

Por: Carlos Luján Andrade 1

El documental Immoral Code, de Stop Killer Robots, analiza el impacto en la vida de las personas de las armas autónomas letales, conocidas como robots asesinos.

Este documental examina si existen situaciones en las que es moral y socialmente aceptable quitar la vida y, lo que es más preocupante ¿una computadora sabría la diferencia?

Immoral Code se estrenó en el Prince Charles Cinema, Leicester Square, Londres, el 19 de mayo, seguido de un lanzamiento en línea el 24 de mayo.  

«¿Qué es lo que sienten sus máquinas?» -«No sienten ira, no tienen prejuicios, no sienten fatiga…» «Si una de esas máquinas asesinara a un niño, ¿qué sentiría?» -«Nada»….. Este escalofriante diálogo es extraído de una escena de la película Robocop de 2014 (J.Padilha); en él, el senador Hubert Dreyffus (Z. Grenier) interpela a Raymond Sellars (M. Keaton), dueño de la empresa de seguridad robótica OMNICORP, sobre la capacidad de sus máquinas para operar y, a su vez, valorar la vida humana.

Tal dilema, que antes solo se podía circunscribir a la ciencia ficción, actualmente cada vez cobra más fuerza en la vida real. Y, lo que antes parecía solo un ejercicio de la imaginación, hoy se muestra de la forma más descarnada cuando vemos que ya existen máquinas autónomas que, al ser usadas como armas, ponen en peligro la vida de personas inocentes.

Un código inmoral

El documental ‘Immoral Code‘ (2022) nos permite preguntarnos si es moral que una máquina pueda decidir si una vida puede ser eliminada o no, si es suficiente la programación de un sistema informático para abarcar todas las complejidades que contiene la psicología humana, precisamente aquellas que nos permiten decidir nuestras acciones.

Tras interrogar a personas de diferentes géneros, edades y etnias, sobre cómo ellas actuarían ante situaciones donde su criterio y juicio moral serían puestos a prueba, ‘Immoral Code‘ nos introduce a esta reflexión. Y a través de sus respuestas, podemos apreciar lo complejo que resulta para un ser humano determinar si existen situaciones en las que es “aceptable” asesinar a otro individuo o, si una persona podría ser calificada como terrorista, únicamente en función de ciertos rasgos o características. Este proceso reflexivo propio de los seres humanos es activado por los ‘códigos morales’ de cada individuo, los que los ayudan a hacer lo ‘correcto’ y, en caso de situaciones complejas, los ayudan a tomar decisiones. Y es aquí donde surge la gran pregunta: ¿Una máquina tendrían la capacidad de reconocer estas complejidades?

Imposibilidad de discernir

A dicho respecto, los especialistas consultados coinciden en afirmar que esto es simplemente imposible. Así lo expresa, por ejemplo, la ingeniera informática del Comité Internacional para el Control de Armas Robóticas (ICRAC), Laura Nolan:

“(…) El ser humano tiene la capacidad de seguirle el paso a esos cambios, de usar el contexto. Las máquinas no lo hacen porque la toma de decisiones, al construir un sistema, ya está determinada. Se tienen decisiones preparadas y si el contexto cambia, esas decisiones preparadas ya no son apropiadas, no hay nada que hacer. Esos sistemas tendrían que ser muy complejos si trataran de tomar decisiones apropiadas en contextos diferentes. Y por desgracia, mientras más complejo es el sistema que se construye, quedan lugares vulnerables en la defensa contra los hackers. El riesgo de ser hackeado es proporcional a la cantidad de código que se tenga en el sistema”.

En este sentido, el argumento de usar un arma autónoma en zonas de conflicto para evitar que mueran personas no es suficiente. Un robot jamás podrá discernir si un individuo merece morir o no pues carece del criterio o la capacidad de discernimiento para evaluar el contexto en el que se presenta una situación.

Los valores y la moral, ¿se pueden programar?

Ante situaciones críticas, el ser humano actúa por instinto, miedo, empatía, compasión y ética. Todo ello es producto de la formación que ha recibido desde infantes. Más aún, por carecer de aquello es que en muchas circunstancias se han cometido crímenes y los culpables cumplen penas o están procesados. Pues ahí también entra otro debate que ‘Immoral Code’ expone: ante un error del sistema, ¿quién sería el responsable? ¿la máquina? ¿el programador? Y si el asunto se vuelve más complejo a nivel moral, ¿para qué continuar con ello?

Laura Nolan explica: “Delegar la toma de decisiones de cosas tan importantes como la vida y la muerte es moral y éticamente inaceptable, y más que eso, no es necesario. (…) Cuando las cosas son importantes, cuando requieren un juicio y la capacidad de procesar el contexto, donde requiere un sentido de humanidad, esas son las decisiones que necesitan quedarse con los seres humanos”. 

En el fondo, se nos habla de la justicia. Decidir sobre la vida y la muerte de los individuos es un asunto que filosóficamente ni siquiera el ser humano lo tiene resuelto. Todavía debatimos si tenemos la facultad de sentenciar a muerte de otro por sus delitos, y ese debate seguirá por mucho tiempo por lo complicado que es en ponernos de acuerdo en los criterios que se deben considerar y más aún, el sistema de justicia que lo aplicará. ‘Immoral Code’ intenta demostrarnos que delegar aquella decisión a máquinas autónomas, usadas en un contexto de guerra, tampoco ayuda a que obtengamos la justicia que tanto anhelamos.

1  Carlos Luján Andrade (Lima, 1978). Escritor. Estudió Derecho en la Universidad de Lima. Ha publicado los poemarios Soundtrack / Miles de Misiles, El Descenso de la Realidad, El Mundo Inventado y Clase de Anatomía. Así como el libro de cuentos El Romántico y de narrativa El Comedio del Breñal y El Ángel Cansado (aforismos y microrrelatos). Sus textos aparecen en diversas publicaciones del Perú y el extranjero.

Mira el trailer de Immoral Code:

Mira el documental completo en: www.immoralcode.io