logo-codigo-espagueti

Tay, la nueva IA de Microsoft, se convirtió en una máquina sexual pro Hitler

La IA que lanzó Microsoft el pasado 23 de marzo se salió de control en menos de 24 horas. Hace dos días Microsoft lanzó una nueva Inteligencia Artificial. Su nombre...

La IA que lanzó Microsoft el pasado 23 de marzo se salió de control en menos de 24 horas.

Hace dos días Microsoft lanzó una nueva Inteligencia Artificial. Su nombre es Tay (@TayandYou) y fue construida para que sus tweets parecieran una chica de 19 años. Su objetivo era hablar con gente para que Microsoft pudiera observar el “entendimiento de lo controversial”, por lo que se esperaba que tuviera que convivir con muchas personas.

Como otras IA, su algoritmo se hizo de tal manera que iba a aprender de las experiencias e interacciones que tuviera con la gente. Probablemente Microsoft no pensó que una IA “niña adolescente” fuera a convivir con los troles de internet.

¿Los resultados?

Sí, conocía todas las referencias de los jóvenes de hoy: Taylor Swift, Miley Cyrus, Kanye West. Sin embargo, en menos de 24 horas, pasó de decir cosas tan “buena onda” como “humans are super cool” hasta declaraciones de odio contra judíos y feministas, apoyo a Trump y su postura sobre la migración, diciendo que 9/11 es una conspiración… Sin olvidar estar de acuerdo con lo que hizo Hitler.

Ayer por la noche Tay se “desconectó”, seguramente para arreglar a la desorientada IA que resultó, pero, ¿podemos culpar a Microsoft?

Pues en realidad, si consideramos que Tay fue construida a través de un montón de imágenes de la juventud estadounidense. Además, todo el desarrollo de su programación fue para que su entendimiento e inteligencia fueran creciendo entre más convivieran con otras personas. Así, de cierto modo, Tay es el reflejo de lo que nosotros le enseñamos.

Pensemos que en realidad esta máquina no tiene moralidad, sino que simplemente se comportará como le digamos que lo haga. Así que, si le dicen que llame “Daddy” a las personas y les hable “sucio”, o que Ted Cruz es el Hitler cubano, ella lo repetirá y lo aceptará como tal (y así fue).

Ahorita ya no están los tweets más controversiales del incidente, pues seguramente Microsoft no deseaba ningún problema mayor de RP. Ya veremos cómo resulta Tay 2.0.

ANUNCIO
logo-menu-codigo-espagueti