La Inteligencia Artificial es la última novedad tecnológica que está de moda, pero como todo, siempre deben existir medidas de seguridad para todos, pues a pesar de que pueda ser de mucha ayuda, al no usarla bien, podría causar peligro y no como en las películas de ciencia ficción.
La reconocida empresa OpenAI, creadora de ChatGPT definió cuáles son las medidas que se tomarán en caso de que la Inteligencia Artificial represente un riesgo para los seres humanos, pues ya cuenta con un equipo de preparación ante cualquier situación.
Se trata de una serie de pasos en las que evaluará a su modelo de tecnología, con lineamientos para rastrear y mitigar estos problemas antes de que sea demasiado tarde, y lo hará en cuatro categorías: Ciberseguridad, QBRN (amenazas químicas, biológicas, radiológicas y nucleares), persuasión y autonomía.
En ese sentido, este equipo realizará pruebas exhaustivas para calificar cada una sobre su nivel de riesgo, ya sea bajo, medio, alto y hasta crítico.

Dependiendo del tipo de resultados que tengan en la evaluación, será el tipo de acción que ejecutará a la Inteligencia Artificial. Algo que explican es que uno de los riesgos críticos es que la misma tecnología pueda realizar una investigación sobre sí misma de forma autónoma, pues no quieren algo parecido a Skynet.
Las evaluaciones se probarán en un entorno real, mientras que otras apoyarán en conocimientos a los expertos en seguridad y biología. Sin embargo, a pesar de que el Grupo Asesor de Seguridad de OpenAI, revisará a detalle los informes, los resultados los pasará a los directivos y a la junta.
Pero toda la decisión sobre que hacer con estas tecnologías será de Sam Altam, la junta también tendrá la última palabra y revertir cualquier acción si el modelo que se presenta es totalmente inseguro.
***
No te pierdas el mejor contenido de Código Espagueti a través de nuestro canal de YouTube.






