Jan Leike, exlíder del equipo de “Superalineamiento” de OpenAI, ha renunciado esta semana a la compañía, afirmando que la seguridad ha dejado de ser prioridad en la empresa de inteligencia artificial con sede en San Francisco. Leike expresó en una serie de publicaciones en la red social X que, pese a unirse inicialmente por el potencial de investigación de OpenAI, discrepancias fundamentales con la dirigencia llevaron a su salida, efectuada el jueves pasado.

Leike subrayó la necesidad de priorizar la preparación para nuevas generaciones de modelos de IA, abordando su seguridad y el impacto social. Argumentó que construir “máquinas más inteligentes que los humanos” es inherentemente peligroso y subrayó la enorme responsabilidad de OpenAI hacia la humanidad, llamándola a convertirse en una empresa de inteligencia artificial general (AGI) enfocada en la seguridad.

El cofundador y científico en jefe de OpenAI, Ilya Sutskever, también renunció esta semana. Sutskever, quien previamente había participado en la controversia de despedir y readmitir al CEO Sam Altman, mencionó que está embarcado en un nuevo proyecto sin especificar detalles. Jakub Pachoki asumirá su cargo, y Altman destacó su potencial para guiar la misión de OpenAI hacia garantizar que la AGI beneficie a todos.

La salida de estas figuras clave ocurre tras la presentación del último modelo de IA de OpenAI, diseñado para imitar la cadencia humana en respuestas verbales y detectar el estado de ánimo.