Empresa OpenAI

Qué es el proyecto Q* y qué puede hacer la inteligencia artificial que supone un riesgo para la humanidad

Investigadores de OpenAI advirtieron de un gran avance en inteligencia artificial antes del despido de Altman

Insultos y comentarios sexuales: la Inteligencia Artificial pierde los papeles con una adolescente de 14 años

La IA provoca una revolución silenciosa en el pronóstico del tiempo.

La IA provoca una revolución silenciosa en el pronóstico del tiempo. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

Raúl Vázquez

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La empresa OpenAI, creadora de la aplicación ChatGPT, ha acaparado el foco mediático estos días debido al despido del propio director ejecutivo de la empresa, Sam Altman, y su posterior vuelta, tras las amenazas de dimisión de la mayoría de los empleados. Sin embargo, el motivo del despido inicial aún se desconoce, aunque algunos aseguran que Altman y la junta directiva de la empresa tenían diferencias sobre el peligroso nuevo modelo de IA, el proyecto Q* (Q Star).

La agencia de noticias Reuters ha publicado una información donde asegura que varios investigadores de la empresa escribieron una carta a la junta advirtiendo de un "poderoso descubrimiento de la inteligencia artificial" que, según su opinión, "podría amenazar a la humanidad". Se trata del proyecto Q*, un modelo que puede resolver problemas matemáticos del nivel de estudiantes de primaria, algo que puede parecer poco peligroso, pero lo cierto es que es un paso fundamental para el desarrollo de la inteligencia artificial general (IAG). Dicha nueva IA es una hipotética superinteligencia que igualaría o lograría superar las capacidades de un ser humano.

Comercialización sin barreras

El objetivo principal de la empresa OpenAI es desarrollar la IAG, tal como declaran ellos mismos. La propia empresa la define como "sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas". Por lo tanto, conseguir desarrollarla no fue una sorpresa para la empresa, sino que el problema estaba en que la junta creía que Sam Altman tenía intenciones de comercializar la tecnología antes de comprender las consecuencias.

La supuesta rapidez por lanzarlo al mercado no permitía "poner barreras" a los equipos de seguridad de la compañía para evitar posteriores consecuencias no deseadas una vez puede ser comprada por cualquier empresa.

IAG, un peligro para el ser humano

Resolver problemas matemáticos por parte de la IA no es, a primeras, algo muy impactante para la humanidad, pero en realidad se trata de un gran avance, ya que los expertos aseguran que las matemáticas eran la frontera que se le resistía a esta tecnología. Actualmente, es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra. Sin embargo, en las matemáticas es más complicado porque solo hay una respuesta correcta.

Asimismo, la IAG es mucho más que una calculadora, ya que puede generalizar, aprender y comprender, asemejándose a la inteligencia humana. Es por eso que muchos expertos son cautelosos con el desarrollo de esta tecnología y advierten de sus posibles consecuencias. Es el caso del fallecido Stephen Hawking, que ya aseguró en 2014 que "podría decidir rediseñarse por cuenta propia y así llegar a un nivel superior".

Elon Musk también ha opinado sobre el avance afirmando a inicios de este año que la IA debía regularse y tratarse con cautela, ya que la IAG “sería más peligrosa que una guerra nuclear”. Por lo tanto, habrá que estar atentos a los posibles avances en el sector de la inteligencia artificial, que será clave para el desarrollo de la humanidad en los próximos años.