INTELIGENCIA ARTIFICIAL

Investigadores de OpenAI advirtieron de un avance que amenazaba a la humanidad antes de la destitución de Altman

Sam Altman ha sido restituido en su puesto como CEO de la compañía tan solo cuatro días después de su despido.

📌 OpenAI, obligado a readmitir a Sam Altman, después de que todo su equipo amenazase con irse con él a Microsoft 

ondacero.es

Madrid | 23.11.2023 12:47

Investigadores de OpenAI advirtieron de un avance que amenazaba a la humanidad antes de la destitución de Altman
Sam Altman, CEO de OpenAI | EFE/ John G. Mabanglo

La agencia Reuters y 'The Information' han desvelado que días antes de que Sam Altman fuera despedido como CEO de OpenAI, varios investigadores de la empresa enviaron al Consejo de Administración una carta en la que advertían de un peligroso descubrimiento relacionado con la inteligencia artificial.

Los expertos explicaron en el escrito que el nuevo hallazgo podría suponer una amenaza para la humanidad. Además, alertaban sobre el peligro de su comercialización antes de conocerse realmente cuáles son sus consecuencias.

Asimismo, las fuentes citadas por Reuters sostienen que la carta jugó un papel importante en el despido del CEO, que tan solo un día antes participó en una cumbre de directivos y pronunció unas extrañas palabras que ahora algunos relacionan con el descubrimiento. "Cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida", apuntó.

Por su parte, las fuentes también han señalado que la directiva Mira Murati, la sustituta provisional de Altman, hizo referencia, el pasado miércoles, al proyecto al que han bautizado como Q*. Y aseguró que se había remitido una carta al consejo antes de que Altman, fuese despedido.

El avance técnico, ha estado liderado Ilya Sutskever, científico jefe de la empresa creadora de ChatGPT, ha generado preocupación entre algunos empleados por el hecho de que la compañía no haya dispuestos de la prevención necesaria para la comercialización de los modelos de IA tan avanzados.

Por otro lado, un portavoz de OpenAI declaró a Reuters que Murati había confirmado a los trabajadores de la empresa de la información que se iba a hacer pública. Sin embargo, no aclaró si eran ciertas o no.

Algunas informaciones sostienen que el nuevo proyecto podría estar relacionado con la superinteligencia o inteligencia artificial general (AGI). Algo de lo que los expertos llevan debatiendo mucho tiempo, por sus beneficios y peligros, según Reuters.