Digno de Black Mirror, sólo que esta vez es algo real.

Tu iPhone lleva un año etiquetando todas tus fotos en brasier

Todo empezó cuando en 2016 Apple introdujo en iOS una función para buscar imágenes de personas, lugares o casas utilizando tecnología de reconocimiento facial. El problema es que, además, tu teléfono también creó una carpeta donde clasifica todas las fotos en las que apareces en sostén.

La noticia fue dada a conocer gracias a una usuaria de Twitter, quien advertio del problema bajo este mensaje: “¡Atención a todas las chicas! Ve a tus fotos y escribe ‘Brassiere’, ¿por qué Apple las guarda y las convierte en una carpeta?”.

Posteriormente muchas usuarias del iPhone hicieron lo propio obteniendo los mismos resultados: imágenes de ellas en sostén, bikini, top o, de plano, contenido NSFW.

Los cientos de respuestas dan fe de que la tecnología de reconocimiento facial del iPhone se está comportando de esta forma, incluso otra usuaria llegó a quejarse en Twitter de que el teléfono incluyó en la etiqueta “brassiere” fotos suyas desnuda y otras fotos donde aparece teniendo relaciones sexuales.

¿Dónde está el problema?

Desde luego el problema no son las fotos, uno puede hacer uso de su dispositivo como mejor le parezca. El problema es que, si bien el teléfono procesa las fotos de manera local, si los usuarios del iPhone utilizan iCloud, sus fotos se estarán subiendo de manera automática a la nube.

Lo de más es historia: ataques como el del famoso Celebgate, son la prueba más contundente de la fragilidad que compañías como Apple o Google, presentan frente a los ataques cibernéticos. Además, por supuesto, está el hecho de qué es lo que cataloga realmente el iPhone, ¿la ropa interior? ¿Los senos? Por mucho que se quiera evitar, lo cierto es que algo anda mal con esos algoritmos que clasifican las fotos de manera sexista.

Hasta el momento Apple no se ha pronunciado al respecto.

vía The Next Web

fuente ell (Twitter)

temas