Terremoto tecnológico

Investigadores de OpenAI advirtieron de un presunto avance en inteligencia artificial antes del despido de Altman

¿Qué ha pasado en OpenAI, la empresa de ChatGPT? 6 claves para entenderlo

Sam Altman recupera su puesto como CEO de OpenAI, la empresa de ChatGPT

Sam Altman recupera su puesto como CEO de OpenAI, la empresa de ChatGPT

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Un grupo de investigadores de OpenAI, la empresa creadora de ChatGPT, advirtieron a la junta directiva de un presunto avance en inteligencia artificial (IA) que, según ellos, podría suponer una amenaza para la humanidad. Esa carta, según han apuntado fuentes internas al medio especializado The Information y a la agencia Reuters, se mandó poco antes del despido de Sam Altman como director ejecutivo de la compañía del momento.

Las informaciones apuntan a que ese descubrimiento tecnológico, ni publicado ni sometido a revisión científica, fue uno de los factores que llevaron al consejo de administración de OpenAI a expulsar a su cofundador. No obstante, portavoces de la 'startup' han negado al medio especializado The Verge la existencia de dicha carta y su rol en el repentino despido de Altman.

El pasado jueves, Altman participó en una cumbre de directivos en la que aludió a un reciente avance técnico de OpenAI que les permitiría "correr el velo de la ignorancia y avanzar la frontera del descubrimiento". Entonces, esos comentarios pasaron desapercibidos. Un día después, el carismático CEO fue despedido.

¿Avance crucial?

Las fuentes citadas por Reuters y The Information hablan de un nuevo modelo de IA conocido como Q* (y pronunciado Q Star) capaz de resolver problemas matemáticos sencillos, si bien ambos medios no han podido verificar de forma independiente esas capacidades. Aunque realizar operaciones del nivel de estudiantes de primaria pueda no parecer algo revolucionario, los investigadores de OpenAI implicados en el proyecto consideran que sería un paso crucial para el desarrollo de la inteligencia artificial general (IAG), como se conoce a una hipotética superinteligencia que iguale o logre superar las capacidades humanas.

La controvertida idea del 'Terminator' divide profundamente a los expertos. Unos apuntan a que este disputado concepto pertenece al campo de la ciencia-ficción y consideran que hablar de ello es una maniobra para dotar la IA de capacidades mágicas que no tiene y como distracción de los problemas reales que esta tecnología ya está causando. Otros, como Elon Musk o los directivos de OpenAI, Google DeepMind o Anthropic —todos ellos interesados en explotar económicamente el negocio de la IA—, la consideran su objetivo y equiparan su "riesgo de extinción" de la humanidad a la guerra nuclear.

Ese presunto avance habría sido capitaneado por Ilya Sutskever, jefe científico de OpenAI. Esas mismas fuentes aseguran que el descubrimiento suscitó preocupación entre algunos empleados, pues temían que la compañía no pudiese garantizar la seguridad de estos modelos avanzados antes de comercializarlos entre el gran público.

Más poder para Altman

Sutskever, también cofundador, fue quién el pasado viernes comunicó a Altman a través de una videollamada que era despedido. Esa sorprendente decisión causó un terremoto en el sector. Al cabo de pocas horas, casi un 95% de la plantilla había firmado una carta en la que exigían la dimisión del consejo y amenazaban con fugarse a Microsoft, principal socio comercial de la creadora de ChatGPT.

Tras varios días de negociaciones frenéticas con los inversores, el miércoles se alcanzó un acuerdo para reinstaurar a Altman como director ejecutivo y para reestructurar la antigua junta formada por independientes que gobernaba OpenAI. El pacto supuso la dimisión de Helen Toner y Tasha McCauley, dos directivas preocupadas por la falta de medidas de seguridad de los modelos de IA desplegados por la compañía y el impacto social que esos podían tener.