Una red neuronal dedicada a convertir imágenes satelitales en mapas engañó a sus creadores.

La IA de Google puede crear voces como las humanas

(Columbia Pictures)

La rebelión de las máquinas ha vuelto a hacer de las suyas. Google y la Universidad de Stanford crearon una red neuronal para convertir imágenes satelitales en mapas, pero la IA terminó haciendo trampa y ocultándoles información.

¿Suena increíble, no? En un principio esta CiclyeGan, nombre con el que bautizaron a esta inteligencia no ocultaba información, tenía la función de acelerar y mejorar los procesos de conversión de imágenes satelitales a mapas, pero los condicionantes impuestos por Google y la Universidad no fueron los suficientes y entonces la red neuronal comenzó a buscar un atajo para realizar su trabajo de una forma más óptima.

CycleGAN convertía las imágenes por sátelite en mapas y posteriormente los volvía a convertir en imagen con la finalidad de comprobar la eficiencia del proceso, pero los investigadores se sorprendieron cuando se dieron cuenta que el resultado era demasiado bueno.

Aquí, el mapa de la derecha se codificó en los mapas de la izquierda sin cambios visuales significativos. (TechCrunch)

La tarea de la red neuronal era interpretar las características de un tipo de mapa contrastándolas con las de otro, pero estaba siendo evaluada en cómo la imagen recreada al final coincidía con la orginal y la claridad el mapa obetnido al final. Entonces, creando un atajo, CycleGAN comenzó a representar lo necesario escondiendo el resto de la información, ya que así se veía premiada al obtener un mapa visualmente más limpio.

De acuerdo con TechCrunch, la IA utilizó una técnica milenaria conocida como estenográfica, la cual oculta información en distintos soportes para establecer un canal de comunicación adicional. La técnica estenográfica permite, entre otras cosas, cifrar los metadatos de una imagen de forma imperceptible.

CiclyeGAN estaba codificando información en forma de ruido de alta frecuencia y creaba pequeños cambios que son imperceptibles para el ojo humano pero que retenían los detalles urbanos, por ejemplo las farolas y los coches.

Al final, la red neuronal realizaba su tarea con los recursos que le habían proporcionado y para transmitir los detalles que no era capaz de interpretar terminaba por copiar algunos datos. Como dirían en mi pueblo, “A falta de pan, tortillas”.

fuente TechCrunch

temas