Más de mil científicos y académicos se pronunciaron en contra del uso de la inteligencia artificial en armas destinadas a la guerra.

Dentro de la Conferencia Internacional de Inteligencia Artificial de Buenos Aires, se hizo público un manifiesto dirigido a la ONU en el que los principales desarrolladores de tecnología vinculada con la inteligencia artificial (IA) se pronuncian en contra de la “carrera armamentista de la Inteligencia Artificial”. Entre los principales nombres que respaldan el manifiesto se encuentran Stephen Hawking, Elon Musk, Steve Wozniak y Noam Chomsky.

Los científicos, desarrolladores y académicos que firman la misiva sostienen que el desarrollo de armas inteligentes podría ser desastroso para toda la humanidad. Por lo anterior, solicitan a la ONU la prohibición mundial de la construcción de “armas ofensivas autónomas”. Detrás de la carta se encuentra el Future of Life Institute, la misma institución que publicó un desplegado manifestando los peligros del desarrollo de inteligencia artificial a inicios de año.

woz-y-terminator
“¡Ay amacita!” Steve Wozniak también se pronunció en contra de las armas con inteligencia artificial

En la carta se advierte que las armas que automáticamente “seleccionan y atacan objetivos sin intervención humana” podrían convertirse en las “AK-47 del mañana” (haciendo referencia al popular fusil de asalto soviético), potencializando las guerra, el terrorismo y la inestabilidad global.

“La tecnología de IA ha llegado a un punto en que el despliegue de este tipo de sistemas es – prácticamente, e incluso legalmente- factible dentro de unos cuantos años. A diferencia de las armas nucleares, [las armas autónomas] no requieren costosas o difíciles de obtener materias primas, por lo que serán relativamente baratas para todos los ejércitos militares y podrían producirse en masa. Sólo será cuestión de tiempo antes de que aparezcan en el mercado negro y en las manos de terroristas, narcotraficantes, dictadores que deseen controlar eficientemente a su población, señores de la guerra que deseen perpetrar una limpieza étnica, etc. Las armas autónomas son ideales para tareas tales como asesinatos, desestabilizar naciones, someter a las poblaciones y matar selectivamente un grupo étnico en particular “.

La carta termina advirtiendo que el desarrollo de armas autónomas podría empañar el campo de la inteligencia artificial y crear una “gran reacción negativa de las personas en contra de esta tecnología”, lo cual impediría el desarrollo de la IA en otras áreas donde podría ser muy beneficiosa para la humanidad.

“Al igual que la mayor parte de químicos y biólogos no tienen ningún interés en desarrollar armas químicas o biológicas, la mayor parte de los investigadores en Inteligencia Artificial no quieren que se construyan armas de inteligencia artificial. La comunidad científica no quiere que se estigmaticen este tipo de investigaciones y se pueda crear una gran reacción negativa de las personas en contra de esta tecnología, lo cual podría cancelar sus futuros beneficios para la sociedad.”

El texto concluye solicitando a la ONU que se busque un impedimento mundial para el desarrollo de las armas autónomas antes de que sea demasiado tarde para detener su proliferación.

fuente Future of Life

temas