El Departamento de Defensa afirma que los autómatas no tienen permiso para matar “todavía”.

Multi Utility Tactical Transport (MUTT)

Multi Utility Tactical Transport (15th Marine Expeditionary Unit)

No debe extrañar a nadie que el Departamento de Defensa de Estados Unidos esté realizando pruebas con Inteligencia artificial enfocada a los combates, después de todo lo suyo es la guerra. La economía estadounidense se sostiene de ella. Estados Unidos ha estado usando vehículos no tripulados desde la Segunda Guerra Mundial.

Por esta razón es que el ejército gringo hizo un llamado a las empresas privadas para que les ayudarán a mejorar su sistema semiautónomo de ataque dirigido basado en inteligencia artificial que ha puesto en tanques.

Sí, no es una broma. Estados Unidos ha creado tanques robots que toman decisiones propias gracias a la inteligencia artificial. ¡Como en Terminartor!

Ejército solicitó ayuda para que el Sistema Automático Avanzado de Lealtad y Objetivos (ATLAS, pos sus siglas en inglés) “adquiera, identifique e involucre a los objetivos al menos 3 veces más rápido que el proceso manual actual”.

Cómo las palabras expuestas en el párrafo anterior espantaron al mundo entero (y con justa razón), los militares agregaron que sus máquinas asesinas autónomas aún “no tienen permiso para asesinar a personas por voluntad propia” ya que hay “estándares éticos” a los que se deben de adherir.

Los estándares éticos de los que hablan los militares no son las famosas tres leyes de la robótica propuestas por Isaac Asimov, sino algunas trabas políticas que deben sortear.

Todo el desarrollo y uso de funciones autónomas y semiautónomas en los sistemas de armas, incluidas las plataformas tripuladas y no tripuladas, sigue estando sujeto a las directrices de la Directiva 3000.09 del Departamento de Defensa (DoD), que se actualizó en 2017.

La ley dice que todos los usos del aprendizaje automático y la inteligencia artificial en este programa se evaluarán para garantizar que sean coherentes con las normas legales y éticas del DoD, las cuales afirman que los robots deben “ejercer niveles apropiados de juicio humano sobre el uso de la fuerza”, y hasta que eso no pase no pueden liberarlo en el campo de batalla.

fuente Defense One

temas