inteligencia artifical

El creador de ChatGPT reconoce estar "asustado" por los riesgos de la inteligencia artificial

Sam Altman, CEO de OpenAI, ha mostrado su preocupación por los posibles usos delictivos de la inteligencia artificial

ondacero.es

Madrid | 20.03.2023 20:26

El creador de ChatGPT reconoce estar "asustado" por los riesgos de la inteligencia artificial
El creador de ChatGPT reconoce estar "asustado" por los riesgos de la inteligencia artificial | Pexels

Los avances de las inteligencias artificiales abren un mundo de posibilidades de los que se pueden beneficiar las personas. Pero como toda arma poderosa, empleada de la forma incorrecta, puede generar una serie de problemas. "Ahora que han mejorado su capacidad para programación, podrían utilizarse para realizar ciberataques más agresivos".

Sam Altman, CEO de OpenAI, creador de Chat GPT, ha lazado un mensaje en el que muestra su preocupación por los riesgos que puede entrañar algunos de los malos usos de esta tecnología. El mensaje tiene más calado si se tiene en cuenta que viene de una persona implicada en el sector y que se beneficia de su desarrollo. "Si pudiera decir que no me asusta, no deberíais confiar en mí", ha reconocido Altman en una entrevista en ABC News.

Este tipo de tecnología, ya es capaz de generar textos, por ejemplo para trabajos académicos, de mantener conversaciones online como si fuera una persona, de realizar ilustraciones o presentaciones para exposiciones y otro tipo de funciones. Lo que preocupa a Sam Altman es que la inteligencia artificial se emplee con fines de desinformación a gran escala.

En este sentido, señala que puede haber un problema con el robo de contraseñas a través del phising o mediante conversaciones ficticias en las que extraería los datos de la otra persona de forma natural. Para el empresario, la buena noticia es que ya exista preocupación por este asunto y se pueda trabajar con el suficiente tiempo como para mejorarlo o prevenirlo. "Seguro que haremos correcciones al mismo tiempo que ocurren estos hechos negativos. Ahora que los riesgos son bajos, estamos aprendiendo lo más que podemos y estableciendo una constante retroalimentación para mejorar el sistema para evitar los escenarios más peligrosos", ha señalado.

En ese sentido, explica que será importante las limitaciones que haya detrás del uso de la IA. Por ello, insta a las empresas a que impongan unas condiciones éticas de su uso.