Miércoles 25 de diciembre de 2024
OpenAI ha dado un paso controvertido esta semana al disolver un equipo dedicado a mitigar los peligros a largo plazo de la inteligencia artificial (IA), en medio de crecientes críticas y preocupaciones sobre el desarrollo y la seguridad de sus tecnologías, en particular su famoso chatbot ChatGPT.
La firma con sede en San Francisco confirmó el viernes que ha comenzado la disolución del equipo conocido como “superalineación”, reasignando a sus miembros a otros proyectos e investigaciones dentro de la empresa.
El directivo del equipo de seguridad, Jan Leike, explicó en la red social X que renunció debido a desacuerdos fundamentales con la alta dirección sobre las prioridades de la empresa, especialmente en lo que respecta a la investigación y la seguridad.
El equipo de “superalineación” tenía la tarea crucial de garantizar que una futura IA general, capaz de igualar la inteligencia humana, esté alineada con los valores y objetivos de la sociedad. Sin embargo, su disolución sugiere un cambio en las prioridades de OpenAI hacia la innovación y el desarrollo tecnológico sin un enfoque tan marcado en la seguridad y la ética.
Sam Altman, cofundador y CEO de OpenAI, expresó tristeza por la marcha de Leike y reconoció que aún queda mucho por hacer en términos de investigación sobre alineación y seguridad en IA.
El equipo de “superalineación” también estaba dirigido por Ilya Sutskever, otro cofundador de OpenAI que anunció su salida recientemente.
Esta decisión llega en un momento en que OpenAI ha lanzado una nueva versión de su chatbot ChatGPT, capaz de mantener conversaciones orales fluidas con los usuarios, lo que representa un avance significativo hacia asistentes de IA más personales y potentes. Sin embargo, también plantea nuevas preocupaciones sobre la seguridad y el uso ético de la IA en la sociedad.