OpenAI busca contratar un nuevo ejecutivo responsable de estudiar los riesgos emergentes relacionados con la IA en áreas que van desde la seguridad informática hasta la salud mental.
En una publicación en Xel director ejecutivo Sam Altman reconoció que los modelos de IA están “comenzando a presentar algunos desafíos reales”, incluido el “impacto potencial de los modelos en la salud mental”, así como modelos que son “tan buenos en seguridad informática que están comenzando a encontrar vulnerabilidades críticas”.
«Si desea ayudar al mundo a descubrir cómo habilitar a los defensores de la ciberseguridad con capacidades de vanguardia y al mismo tiempo garantizar que los atacantes no puedan usarlas para causar daño, idealmente haciendo que todos los sistemas sean más seguros, y de manera similar cómo liberamos capacidades biológicas e incluso ganamos confianza en la seguridad de los sistemas en ejecución que pueden mejorarse por sí solos, considere postularse», escribió Altman.
OpenAI listado para el puesto de Jefe de Preparación describe el trabajo como responsable de ejecutar el marco de preparación de la empresa, «nuestro marco que explica el enfoque de OpenAI para rastrear y prepararse para capacidades de vanguardia que crean nuevos riesgos de daños graves».
La compañía anunció por primera vez la creación de un equipo de preparación en 2023, diciendo que sería responsable de estudiar posibles “riesgos catastróficos”, ya sean más inmediatos, como ataques de phishing, o más especulativos, como amenazas nucleares.
Menos de un año después, OpenAI reasignó al jefe de preparación, Aleksander Madry a un trabajo centrado en el razonamiento de la IA. Otros ejecutivos de seguridad de OpenAI también dejaron la empresa o asumido nuevos roles fuera de la preparación y la seguridad.
La compañía también actualizó recientemente su Marco de Preparación, afirmando que podría «ajustar» sus requisitos de seguridad si un laboratorio de IA de la competencia lanza un modelo de «alto riesgo» sin protecciones similares.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
Como aludió Altman en su publicación, los chatbots de IA generativa se han enfrentado a un escrutinio cada vez mayor en torno a su impacto en la salud mental. Demandas recientes alegan que ChatGPT de OpenAI reforzó los delirios de los usuarios, aumentó su aislamiento social e incluso llevó a algunos al suicidio. (La compañía dijo que continúa trabajando para mejorar la capacidad de ChatGPT para reconocer signos de angustia emocional y conectar a los usuarios con soporte en el mundo real).








