A estas alturas de la robótica y de la guerra, parece extraño que los robots asesinos no aparezcan en los encabezados de los conflictos armados actuales. No es que no haya tecnología adecuada para construir uno de estos robots, el problema en todo caso sería que no hay tecnología suficiente como para detener su furor asesino en caso de ser necesario.

En realidad, el problema de los robots asesinos es más serio de lo que parece (ya sé, suena a chiste incluso mientras lo escribo, pero no es broma). El caso es que las armas letales autónomas son un tipo de armamento que selecciona los blancos y los ejecuta sin intervención humana, lo que propiamente podríamos llamar robots asesinos.

El Consejo de Derechos Humanos de la ONU al momento tiene activa una llamada moratoria en el desarrollo de estas armas autónomas. Pero hay organizaciones, como el Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés) que piden que este armamento sea definitivamente prohibido. ¿Por qué causan tanta polémica?

robots asesinos02

Ronald Arkin, investigador del Instituto de Tecnología de Georgia opina que este tipo de armamento no es tan autónomo como se cree. No importa que ellos seleccionen sus blancos, siempre habrá manos humanas en la cadena de mando para la ejecución de personas, pues (según sus propias palabras), a menos que se trate de Cylons (robots de la popular serie Battlestar Galactica), los robots no podrían declarar la guerra.

Por su parte, los integrantes de ICRAC, como el filósofo de la ciencia Peter Asaro, aseguran que la fuerza letal es una responsabilidad demasiado grande como para permanecer en manos robóticas. Cada muerte implica una carga moral que un robot asesino sería incapaz de considerar, ni siquiera en los términos de las Leyes Humanitarias Internacionales.

robots asesinos01

Uno de los principios fundamentales de la guerra moderna es evitar los objetivos civiles, así como procurar que la menor cantidad de inocentes resulten afectados en el ataque a cualquier blanco militar. Algunos opinan que un robot no podría tomar las decisiones necesarias para evitar que los inocentes sean afectados, pues no existe hasta el momento un dispositivo que se asemeje al cerebro humano y a su capacidad de discriminar en situaciones complejas.

No obstante, no todos piensan de la misma manera. Según Arkin, es justo el cerebro humano el que provoca tantas pérdidas innecesarias, pues un robot no tendría los prejuicios sociales o raciales, ni los sentidos alterados por el miedo, la adrenalina o la excitación como para provocar una muerte no calculada. Adicionalmente, aseguró que se encuentra trabajando en un software denominado Ethical Governor, con el cual pretende ajustar las perspectivas de las armas autónomas para que respeten la Ley Humanitaria Internacional. Arkin asegura que:

“Será como ponerle un bozal a un perro”

robots asesinos05

Por su parte, Jessica Wolfendale, profesora asociada de la Universidad de West Virginia, y especialista en crímenes de guerra, aseguró que muchas veces los crímenes de guerra no dependen de la mente afectada de un soldado, sino de las frías decisiones de una cadena de mando. Wolfendale cita la tortura, violación y humillación de prisioneros en Abu Ghraib entre 2003 y 2004 como ejemplo de esto último. De tal forma que poner el detonador de la muerte en manos de los robots no haría ninguna diferencia, mientras que las decisiones inhumanas se tomen desde arriba.

Peter Asaro también se muestra escéptico respecto a la opinión que sugiere que los robots manejarían mejor la Ley Humanitaria Internacional que los humanos. Pero independientemente de ello, asegura:

“Permitir que computadoras, algoritmos o procesos mecánicos decidan sobre la vida humana es fundamentalmente inmoral”

robots asesinos06

Puede ser que la batalla se encuentre perdida para ICRAC, pues oponerse al desarrollo de armas autónomas implica hacerle frente al desarrollo futuro de una de las industrias más poderosa de la Tierra: la industria de la guerra. Sin embargo, ciertamente no podemos dejar de lado las implicaciones morales y las dificultades técnicas que implicaría mandar robots asesinos a los campos de batalla. ¿Será que los robots corregirán lo que los soldados hacen mal?, ¿o simplemente perfeccionarán los sutiles y terribles mecanismos de la muerte que desatan los tomadores de decisiones en una guerra? En suma, ¿harán las guerras más precisas o más letales?

vía Live Science

temas