El problema no es la inteligencia artificial, somos los humanos

¿Cuándo nos van a sustituir las máquinas? La llegada de la Inteligencia Artificial abre la puerta a cientos de planteamientos sobre su uso y la ética de quienes las crean.
(Ilustración: José Carlos Aguilar)

El Universo existe, lo sabemos y no sólo porque lo tocamos, lo vemos y sentimos. Existe porque estamos conscientes de su existencia, porque no dejamos de pensar en él y sus vicisitudes. ¿Y si no fuera así? Si no existiéramos en él, ¿seguiría existiendo? La respuesta es sí: el universo no necesita a los humanos para nada. Si hoy desapareciéramos, ¿qué diferencia habría? Aparentemente ninguna. Por este pensamiento del insignificante sentido de nuestra existencia (o por la necesidad de tener algo realmente nuestro, como especie, creado desde cero), hace unos 150 años la mente humana comenzó a pensar en la posibilidad de un mundo que no fuera tangible, pero que existiera a la par del nuestro. A mediados del siglo XX los científicos comenzaron a trabajar en la construcción de ese reino virtual, donde la lógica lo dominara todo.

La existencia de este mundo soñado por los matemáticos del 1800 no se encuentra en nuestro futuro, sino en el pasado. Como un gran árbol ha echado raíces y sus ramificaciones son largas, extrañas y gloriosas, incluso ha logrado tocar el mundo real de cierta forma. Acceder a él es muy sencillo: basta tener un smartphone en la bolsa del pantalón o una computadora a la mano, inclinarse ante la luz parpadeante del monitor y entregar nuestros datos a cambio de información.

No me refiero al internet, me refiero a lo que hay detrás de él, y de básicamente todos los aparatos que usamos, todos, en el día a día, desde hace muchos años. A las ecuaciones matemáticas que le impulsan, y a las que los humanos hemos jurado lealtad porque hacen nuestra vida “más sencilla”.

Esta bien llamada “inteligencia artificial” es más que una herramienta; es intangible pero existe, como el alma, aunque, a diferencia de ella, sabemos que es real porque nosotros la inventamos. Es el espíritu del siglo XXI que corre por el mundo y lo une, pero no se va a detener aquí. Por eso debemos prepararnos para lo que viene.

Debemos prepararnos, no para la tan prometida guerra contra las máquinas con la que la industria del entretenimiento nos tiene tan amenazados, sino para la convivencia. Algo que suena tan sencillo que es casi increíble que en toda la historia de la humanidad sea lo único que no hemos podido hacer bien, y eso, a la hora de pensar en las máquinas, no nos conviene.

Robot significa esclavo

Pensar en inteligencia artificial hace que nos remitamos inmediatamente a los robots, un término acuñado por el escritor Karek Apek en su obra de teatro R.U.R. (Robots Universales Rossum). El término deriva de la palabra robota, que en muchas lenguas eslavas significa “trabajo duro”. ¿Qué te da miedo de un robot? ¿Que te mate? Si un hombre mata a otro con un martillo, no podemos decir que el martillo tenga la culpa. Los robots no son más hábiles para pensar por cuenta propia de lo que lo es el martillo, porque también son herramientas. Es la persona que programó a la computadora que mueve a ese robot quien debería preocuparnos.

R.U.R, primer robot de la historia.

El término inteligencia artificial (IA) fue acuñado por el informático John McCarthy en 1956. A grandes rasgos, se refiere a los procesos mediante los cuales los programas computacionales o las máquinas buscan imitar la inteligencia humana: percibir, razonar, aprender, resolver problemas, entre otras funciones cognitivas. Para lograrlo, la IA usa algoritmos matemáticos, que son una especie de atajos para llegar de un punto A un punto B más rápido.

Imagina que estás en una ciudad que no conoces y necesitas llegar a un punto en específico. En la calle le preguntas a varias personas y cada una de ellas te da la ruta que, a su parecer, sería la mejor por infinidad de razones. Un algoritmo ayudaría a una máquina a aprender de toda esa experiencia y generar un atajo más eficiente para llegar. La máquina no lo hizo sola, tuvo que aprender.

“Un robot aprende básicamente como un humano. Genera acciones y a veces hace algo equivocado. Lo que podríamos hacer entonces es darle recompensas. Decirle ‘lo hiciste bien’ o ‘no lo hagas de nuevo’ y el robot se ajusta a sus parámetros internos para cambiar su comportamiento. Así que va y busca en el espacio de sus números –diría neuronas si fuera un cerebro humano– y ajustes para manejarse mejor”, explicó Sebastian Thrun, fundador de Google X y Udacity, en una entrevista para Código Espagueti.

Entonces, la inteligencia artificial ayuda a las máquinas a ser racionales. La “razón” es lo que (según nosotros) nos distingue de otras especies animales, e incluso lo que nos coloca por encima de ellas. Es por esta imitación de lo que nos hace tan “especiales” que las preocupaciones sobre la IA son más filosóficas que prácticas.

Es cierto que podemos entender la inteligencia humana de diferentes maneras, pero una en particular es la que ha sido más influyente para el desarrollo de la disciplina y puede condensarse más o menos en los siguientes términos: la inteligencia es un conjunto de capacidades que procesan y coordinan diversos paquetes de información. En esa medida, la inteligencia puede incluir tanto las funciones lingüísticas como las lógico-matemáticas.

En 2005, usando la Ley de Moore, Raymond Kurzweil aseguró que para 2029 las máquinas alcanzarán un nivel de inteligencia humano, y que para 2045 nos habrían superado más de mil millones de veces.

(Foto: Kordite)

El problema con las máquinas somos los humanos

Desde que en 1842 Ada Lovelace publicó sus Notas de programación de la máquina analítica de Charles Babbage, pasando por Alan Turing en la década de 1950, Marvin Misnky en los sesenta y muchos más, los científicos y matemáticos se han dado a la tarea de crear lenguajes que formen raciocinio en las máquinas. La base de todo (hasta la fecha) es el código binario: 1 y 0. Existe algo o no. Punto.

Inspirados en nuestra propia evolución, en las últimas dos décadas esos lenguajes se han diversificado, pero su base no ha cambiado en absoluto. Aún se basan en algo que pasa o no pasa, pero el aumento en el procesamiento de la computadoras avanzó a tal nivel que puede hacerlo todo más rápido y mejor que cualquier ser humano. Esto ha llevado a los científicos a crear algoritmos diseñados para aprender y crear su propio conjunto de reglas a seguir para solucionar los problemas.

Los códigos están hambrientos de información y nosotros estamos obligados a alimentarlos, queramos o no. Ellos saben dónde y cómo vives, qué comes, si te gusta o no tu trabajo, qué compras y dónde, saben de tu forma de sentir, amar, reír y hasta de tu forma de llorar. Saben todo esto porque tú, tus amigos, sus amigos y todos los demás les decimos. Les enseñamos a conocernos y ellos, en respuesta, nos muestran lo que queremos saber.

Salir de esta red no es fácil. Incluso si niegas rotundamente la vida digital y aseguras que a ti no te afecta porque no tienes redes sociales y eres único y diferente, eso es una mentira. Los algoritmos están listos para personas como tú, encontrarte y catalogarte en uno o cero: o te adaptas a este mundo (1) o te convierten en algo obsoleto (0). El futuro no nos necesita.

“Siento que estamos viviendo la primera fase, donde estamos conectando toda la información (que se genera en la nube). Este año lo vemos como el año en el que se consolida en sí todo lo que es el machine learning o la información del big data y analítico de esos datos que se generan en IOT (internet de las cosas). Hoy los datos de uso son muy puntuales y estamos empezando a ver necesidades donde realmente necesitamos analizar la data y hacer realmente revelante el IOT para el ahorro de costos y el tema de la seguridad, conectividad. Y de ahí abarcar a nuevas áreas como transformación de los negociosos que tradicionalmente existen sin tecnología”, explica a Código Espagueti Adriana Gómez, Vicepresidenta de Soluciones empresariales de ATT México.

Gómez comenta que prevén que para final del 2020 se tengan 30 mil millones de dispositivos conectados al llamado Internet de las Cosas (IOT, por sus siglas en inglés) y en el 2030 se tengan 500 mil millones de dispositivos conectados. “Cada uno de esos con sensores. Es un mundo hiperconectado. Sí lo vamos a vivir, nos guste o no”, comentó.

“La diferencia entre la inteligencia artificial que veíamos hace cinco años y la que estamos viendo hoy es que se están uniendo varias tecnologías a la vez. Se están aprovechando. La inteligencia artificial con machine learning, con IOT, con big data, con la nube, están haciendo qué evoluciones mucho más rápido que hace 20 años”, aseguró.

(Foto: IMDB)

El fantasma

Pero las máquinas que usan IA no son malas o buenas, tampoco tienen preferencias propias: son un reflejo de sus creadores y de lo que nosotros les permitimos, a través de ellas, hacer. Imaginemos que tenemos una inteligencia artificial que estará basada en reconocimiento facial y cuyo objetivo es encontrar “gente buena”. La IA no sabe lo que es bueno o malo como nosotros lo concebimos, sólo sabe que las imágenes con las que la vamos a alimentar son de “gente buena” y cualquier cosa que no sea representada en ese patrón no lo es. Si el programador decide alimentar a su IA con fotografías de la revista ¡Hola! no hay que ser un genio para saber lo que se está cocinando.

Entonces, si este algoritmo lo pusiéramos dentro de una máquina cuya misión es dejar pasar a una fiesta sólo a personas que entren en la categoría de “gente buena” y llegara alguien que no sale en esas revistas, no lo dejaría pasar.

Recientemente se ha hecho muy popular el reconocimiento facial en muchos países con conflictos sociales como China y estados Unidos. Los cuerpos de seguridad usan los datos personales almacenados por el gobierno (como la fotografía que te toman para sacar tu ID oficial) para identificar a manifestantes y así poderlos capturar con facilidad después de que terminan las marchas contra el gobierno. Evidentemente el objetivo principal de esta tecnología es la seguridad, pero es difícil creerlo cuando sólo la usan las personas que están en situación de poder.

Tal vez sea un ejemplo burdo, pero esto está pasando en este momento en muchas partes del mundo. Supremacistas, millonarios, políticos y otra gente malvada (sí, malvada) es la que controla las empresas creadoras de estas tecnologías cuyos objetivos han quedado demostrados: reprimir y venderte cosas.

Hablamos con Enrique Cortés, director de HUB de Inteligencia Artificial del TEC de Monterrey, para conocer más sobre los principios éticos que deberían tener las inteligencias artificiales. Asegura que los países líderes en la materia, como China o Estados Unidos, están más preocupados por la carrera armamentista y financiera que en la ética, aunque existen otros como Canadá y algunos europeos que “enfatizan la ética en la inteligencia artificial.”

“Lo que quiere decir varias cosas. Primero: No uses la inteligencia artificial para el mal. No la uses para matar. No la uses para engañar. Pero hay un lado ético que tiene que ver también con el sesgo de los datos que se usan en la inteligencia artificial. Si tu entrenas a una IA que se dedica a contratar personas y todo tu set de entrenamiento es que ‘los hombres son mejores ingenieros que las mujeres’, ¿adivina a quién va a contratar? Hombres y no mujeres, y ese sesgo no es ético. Está el sesgo de quién construye estas cosas y luego hay ciertos problemas éticos que no tienen que ver con el bien o el mal, simplemente existen”, explica el catedrático.

El lugar donde más claramente esta estructura se representa es Facebook (aunque Google lo domina casi todo). Hace un par de años entrevisté a Richard Stallman, el padre del software libre, sobre el peligro que representaba Facebook en el mundo. Stallman planteó la idea de que el robopocalipsis de la inteligencia artificial tendría más que ver con los humanos que con las máquinas.

“En el pasado imaginábamos identidades inteligentes como humanos y la cuestión fue si una inteligencia artificial destruiría a la humanidad, entonces se decía: si la inteligencia artificial obedece a humanos es más o menos inocente, pero si no obedece podría matarnos a todos. Pero hoy en día se ve que esa cuestión no toca el punto importante: ¿a qué humanos obedece esa inteligencia artificial? Si obedece a los ejecutivos de una empresa grande podrían usarla para difundir la pobreza mundialmente como están haciendo todos los días por otras maneras”.

Por cierto, la empresa de Mark Zuckerberg es de las que más invierte en investigación sobre inteligencia artificial:

“Soy optimista [con la inteligencia artificial]. Y, simplemente, no entiendo a la gente que se opone y trata de pintar escenarios apocalípticos sobre el tema. Eso es realmente negativo y, de hecho, pienso que es bastante irresponsable. Cada vez que escucho a alguien decir que la inteligencia artificial va a hacer daño a los seres humanos en el futuro pienso que, bueno, la tecnología de cualquier forma puede ser usada para el bien y para el mal, y debes tener cuidado en cómo creas lo que haces y pensar en cómo será utilizado, sea lo que esto sea”, dijo Zuckerberg en 2017, durante una transmisión de Facebook Live.

El mensaje de Zuckerberg fue una respuesta a las declaraciones de Elon Musk, CEO de Tesla, SpaceX, Neuralink, y OpenAI. El sudafricano expresó que, si no ponemos límites a este campo, en unas cuantas decenas de años podríamos comenzar a ver inteligencias artificiales que podrían representar un peligro para la raza humana.

Ese mismo año, el laboratorio de IA de Facebook tuvo que apagar una inteligencia artificial dedicada a las negociaciones que estaba desarrollando para crear su propio lenguaje. Los ingenieros y programadores detectaron que el sistema comenzó a conversar en un lenguaje extraño que, en un principio, pensaban era erróneo. Pero posteriormente notaron que no se trataba de un fallo, sino de su propio idioma.

Bob y Alice (ya sé, ponerles nombres es de miedo) eran los agentes que componían el sistema de la inteligencia artificial, los cuales tenían por tarea aprender a negociar y, como tal, “se aliaron” para crear su propia forma de comunicación. A los pocos días abandonaron el inglés y empezaron a comunicarse en un idioma muy parecido. La conversación era la siguiente:

  1. Bob: I can i i everything else
  2. Alice: balls have zero to me to me to me to me to me to me to me to

Que se puede traducir en algo así como:

  1. Bob: Yo puedo yo yo todo lo demás
  2. Alice: “bolas tienen cero a mí a mí a mí a mí a mí a mí a

Estas frases sin sentido aparente para nosotros tienen un patrón. Uno que la IA consideraba más efectivo para comunicarse. Sabemos que, para que exista un lenguaje, sólo se necesita de un emisor, un receptor y un código común que pueda decodificarse. Y eso es precisamente lo que hicieron Bob y Alice.

Esto que parece aterrador… sí lo es, pero por otras razones. No es que cobren conciencia de la nada, es cómo se entrenan. En 2018, usuarios de Google Translate descubrieron extraños mensajes apocalípticos en la plataforma. Un usuario escribió la palabra “dog” (perro) 19 veces y pidió que se tradujera del maorí al inglés, y el resultado fue la frase:

“El reloj del fin del mundo está en tres minutos para las doce… nos estamos acercando cada vez más al final de los tiempos y al regreso de Jesús”.

Alexander Rush, un profesor asistente en Harvard que estudia el procesamiento del lenguaje natural y la traducción informática explicó que esto podría suceder debido a reminiscencias que quedan en la inteligencia artificial sobre su aprendizaje con una técnica llamada “traducción automática neuronal”.

En la traducción automática neuronal, el sistema se entrena con grandes cantidades de textos en un idioma y traducciones correspondientes en otro para crear un modelo para moverse entre los dos. Pero cuando se alimenta de insumos sin sentido, dijo Rush, el sistema puede “alucinar” salidas extrañas, como la forma en que Google DeepDream identifica y acentúa los patrones en las imágenes.

“Los modelos son cajas negras que se aprenden de tantas instancias de capacitación que puedes encontrar. La gran mayoría de estos se verá como el lenguaje humano, y cuando le das uno nuevo está entrenado para producir algo, a toda costa, que también se parezca al lenguaje humano. Sin embargo, si le das algo muy diferente, la mejor traducción será algo fluido, pero no conectado a la entrada”, explicó Rush.

Es probable que durante el entrenamiento de la inteligencia artificial hayan utilizado pasajes de la Biblia, que ha sido traducida básicamente a todos los idiomas.

Aunque todo esto suena a película de terror, los peligros de la inteligencia artificial no tienen que ver con dioses o fantasmas. Su peligro es muy terrenal. Como ejemplo tenemos a los autos autónomos, estos vehículos están programados para preservar la vida de los humanos, pero supongamos que un Tesla ve a una persona cruzarse en una carretera que corre por el borde de un barranco y atropellarlo es inminente. El auto tiene que decidir entre atropellar al peatón o desviarse y tirarse al barranco, matando así al conductor. “Eso no tiene nada que ver con bien o mal, eso es una decisión y ese tipo de decisiones no están reglamentadas”, destaca Enrique Cortés.

Al final las máquinas van a ganar

Pero antes de imaginarnos futuros de terror tecnológico, concentrémonos en el abrumador presente. Desde 2019, gobiernos como el de Estados Unidos han desarrollado un sistema de defensa autónomo que “identifique e involucre a los objetivos al menos 3 veces más rápido que el proceso manual actual”. Es decir, que identifique y mate a los enemigos tres veces más rápido que un humano normal. El Departamento de Defensa afirma que estos autómatas no tienen permiso para matar “todavía”, pero la semilla ya fue sembrada.

“Si ustedes no están preocupados por la seguridad de la inteligencia artificial, deberían. Es más riesgoso que Corea del Norte, comentó Elon Musk en su cuenta de Twitter. El empresario, al igual que Bill Gates y Sundar Pichai, han sido firmes en su postura para regular esta tecnología durante años. Y ese es el verdadero problema: las investigaciones sobre IA no tienen leyes que las rijan, salvo la moral.

“No soy el único que piensa que deberíamos estar preocupados. Las empresas líderes en el desarrollo de IA han avanzado en sus procesos para garantizar la seguridad de sus usuarios. Ellos reconocen el peligro que existe, pero creen que pueden dar forma y controlar a las superinteligencias digitales y prevenir que las malévolas se escapen a internet. Eso está por verse”, dijo Musk en una entrevista.

A inicios del 2020, el CEO de Google, Sundar Pichai, advirtió sobre los peligros de la IA no controlada en un artículo reciente que publicó el Financial Times, y dijo que considera primordial que esta área sea estrictamente regulada.

“Necesitamos tener una visión clara sobre lo que podría salir mal. La historia está llena de ejemplos de cómo no se garantizan las virtudes de la tecnología. Internet hizo posible conectarse con cualquier persona y obtener información desde cualquier lugar, pero también fue más fácil de difundir información errónea”.

El empresario recomendó desarrollar propuestas regulatorias para el uso de la IA: “Necesitamos un acuerdo sobre los valores fundamentales. Las empresas como la nuestra no pueden simplemente construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo se utilizarán”.

El director del HUB del TEC de Monterey explica que uno de los grandes problemas que actualmente tiene el desarrollo de esta tecnología es la transparencia de los datos, sobre todo en el desarrollo de las redes neuronales y deep learning.

“La razón es que tú entrenas eso [la inteligencia artificial] para que clasifique caras. Y si tú le preguntas a esa red neuronal: ‘¿por qué clasificaste la cara así?’ Eso no te lo puede decir. Te puede decir qué es correcto o no de acuerdo a una probabilidad pero no te puede decir por qué. Desgraciadamente ciertos elementos de un auto autónomo usan redes neuronales. Entonces, por eso si un auto autónomo tiene un accidente no es como las cajas negras de los aviones que te van a decir lo qué paso es que se acabó quien sabe qué y fallo. La red neuronal lo que te va a decir es ‘tuve un accidente a las tales horas en tal lugar’ y es todo lo que te puedo decir”, explica.

Entre las técnicas que se usan para el desarrollo existen las “redes causales”, que son relaciones causa/efecto que tratan de explicar lo que pasó dentro de la red neuronal. Pero esa investigación aún no está comercialmente aceptada. “Esas son las buenas y malas noticias. Hay matemática que explica lo que hizo y hay matemática que no puede explicar lo que hizo porque la matemática de sus modelos son cajas cerradas”, asegura Enrique Cortés.

No podemos dudar que la IA tenga buenas intenciones de origen. Ayudar en la lucha contra el cambio climático, erradicar enfermedades, mejorar la calidad de vida de las personas, son algunos de los proyectos más citados a la hora de los discursos, pero hay un innegable peligro en la forma en la que se usan y ese tiene que ver con las personas que la crean. Esta tecnología, que apenas muestra sus resultados, cimentará el futuro de toda la civilización humana, de ahí la preocupación de todos.

En la tradicional Carta de los Fundadores de Google de 2018, Sergey Brin, cofundador de la empresa, expresaba claramente las preocupaciones sobre el mal uso de la inteligencia artificial:

“¿Cómo afectarán al empleo en diferentes sectores? ¿Cómo podemos entender lo que están haciendo bajo la capa? ¿Qué pasa con las medidas de equidad? ¿Cómo podrían manipular a las personas? ¿Están a salvo? Hay una seria reflexión e investigación abordando todos estos temas. En particular, la seguridad abarca una amplia gama de preocupaciones, desde los temores de la sensibilidad del estilo de ciencia ficción hasta las preguntas a más corto plazo, como la validación del rendimiento de los autos sin conductor.”

Tenía razones para preocuparse, las computadoras que usaba Google para realizar sus procesos al principio de su existencia tenían una potencia de aproximadamente 100 millones de operaciones de punto flotante por segundo, ahora supera los 20 mil millones.

“Estamos en una era de gran inspiración y posibilidad, pero con esta oportunidad surge la necesidad de una tremenda consideración y responsabilidad como tecnología está profundamente e irrevocablemente entretejida en nuestras sociedades”, afirmaba Brin.

Ante la falta de una legislación internacional, en 2018 la Universidad de Montreal creó una iniciativa para el desarrollo responsable de inteligencia artificial a la que se sumaron más de 70 instituciones internacionales. Son una pautas que dictan a los desarrolladores lo que es ético y no a la hora de crear una inteligencia artificial. A grandes rasgos, sus principios son:

  • Principio de bienestar: El desarrollo y uso de sistemas de inteligencia artificial (AIS) debe permitir el crecimiento del bienestar de todos los seres “sintientes”.
  • Principio de respeto a la autonomía: Los sistemas de inteligencia artificial deben desarrollarse y utilizarse respetando la autonomía de las personas y con el objetivo de aumentar el control de las personas sobre sus vidas y su entorno.
  • Principio de protección a la privacidad y la intimidad: La privacidad y la intimidad deben protegerse de la intrusión de sistemas de inteligencia artificial y de los sistemas de adquisición y archivo de datos (DAAS).
  • Principio de solidaridad: El desarrollo de sistemas de inteligencia artificial debe ser compatible con el mantenimiento de los lazos de solidaridad entre las personas y las generaciones.
  • Principio de participación democrática: Los sistemas de inteligencia artificial deben cumplir con los criterios de inteligibilidad, justificación y accesibilidad, y deben estar sujetos al escrutinio democrático, el debate y el control.
  • Principio de equidad: El desarrollo y uso de sistemas de inteligencia artificial debe contribuir a la creación de una sociedad justa y equitativa.
  • Principio de inclusión y diversidad: El desarrollo y uso de sistemas de inteligencia artificial debe ser compatible con el mantenimiento de la diversidad social y cultural y no debe restringir el alcance de las elecciones de estilo de vida o experiencias personales.
  • Principio de prudencia: Toda persona involucrada en el desarrollo de IA debe tener precaución anticipando, en la medida de lo posible, las consecuencias adversas del uso de sistemas de inteligencia artificial y tomando las medidas apropiadas para evitarlas.
  • Principio de responsabilidad: El desarrollo y uso de sistemas de inteligencia artificial no debe contribuir a disminuir la responsabilidad de los seres humanos en la toma de decisiones.
  • Principio de desarrollo sostenible: El desarrollo y uso de sistemas de inteligencia artificial debe llevarse a cabo para garantizar una fuerte sostenibilidad ambiental del planeta.

(quisnovus)

Las cosas no son malas o buenas

La tecnología no es mala o buena, el uso es malo o bueno. La inteligencia artificial puede detectar problemas cardíacos a través de los ojos, predecir trayectorias, evitar accidentes, acelerar el trabajo en las fábricas y construcciones, detectar estrellas e incluso juntar millones de datos en un segundo para crear fotos de agujeros negros o predecir pandemias. Sí, la inteligencia artificial pudo predecir la pandemia de Covid-19, el problema es que los gobiernos no le hacen caso. La parte positiva, como en casi todos los descubrimientos científicos, se pasa por alto, se manejan los resultados a conveniencia y se evita la democratización de la ciencia.

“El machin learning lo que permite es buscar modelos algorítmicos predictivos para buscar distintos escenarios futuros en base a información que tenemos en el presente -Explica Adriana Gómez, Vicepresidenta de Soluciones empresariales de ATT México – Eso es posible hoy gracias al big data y al internet de las cosas que genera muchos datos que antes no creíamos relevantes. Lo que vamos a ver es que esto va a ir uniéndose cada vez más para lograr resultados más impactantes en términos de la calidad de vida, la medicina, la salud, el entretenimiento, que se ven beneficiados por la convergencia técnologica. “

Esta revolución técnologica nos va a tocar a todos, y comenzará afectando el empleo. La automatización de las cosas hará que muchos trabajos que realizamos los humanos sean hechos por robots, mientras que se van a requerir nuevos especialistas en carreras que incluso no existen o apenas han dado sus primeras generaciones.

“Habrá un tecnicismo mucho más fuerte y necesitamos preparar a la sociedad desde la educación a crear curiosidad, a crear trabajos o carreras de científicos de datos. Todo lo que es la parte de machin learning. Incluso a cómo operar maquinaria en algunas industrias como es la parte de la salud. Entonces si vamos a necesitar”, destaca Adriana Gómez.

El uso ideal de este avance tecnológico debería ser como un suplemento y no como una sustitución de la fuerza laboral humana, pero para eso se tendría que legislar, aunque la tendencia hacia los derechos laborales va hacia el otro lado.

Las herramientas están ahí, falta ir y tomarlas. El momento del cisma, de la cuarta revolución industrial, ya inició. ¿Qué vas a hacer al respecto?