Expertos afirman que la inteligencia artificial es una amenaza para la humanidad

Un colectivo de especialistas en IA y ejecutivos del sector tecnológico han solicitado una pausa de seis meses en el entrenamiento de los sistemas de IA más potentes, alegando que estos representan una amenaza potencial para la humanidad. 

Tecnología30/03/2023Ahora NoticiasAhora Noticias
ia 1000_Mesa de trabajo 1

La moción fue emitida a tan solo dos semanas de que OpenAI diera a conocer GPT-4, una versión aún más avanzada de la tecnología que alimenta el popular chatbot de inteligencia artificial, ChatGPT. 

En sus primeras pruebas y en una demostración de la empresa, se mostró que esta tecnología puede redactar demandas, aprobar exámenes estandarizados y crear un sitio web funcional a partir de un simple boceto dibujado a mano.

Se ha afirmado que los laboratorios que trabajan en esta tecnología se encuentran en una carrera desenfrenada para desarrollar y desplegar mentes digitales cada vez más poderosas, que incluso sus creadores no pueden entender, predecir o controlar de manera fiable. 

La declaración fue firmada por más de 1.000 personas, incluyendo al empresario Elon Musk, al cofundador de Apple Steve Wozniak, y al CEO de la compañía Stability AI, Emad Mostaque, además de investigadores de DeepMind.

El colectivo ha instado a las empresas que desarrollan estos programas a que "pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más poderosos, incluyendo GPT-4", la versión más avanzada de ChatGPT, uno de los sistemas de IA más potentes del mundo desarrollado por OpenAI. Tanto GPT-4 como ChatGPT son sistemas de IA generativa que utilizan algoritmos y texto predictivo para crear contenido nuevo basado en instrucciones. 

La declaración advierte que estos sistemas pueden plantear "profundos riesgos para la sociedad y la humanidad", y que la pausa en el entrenamiento debe ser pública, verificable e incluir a todos los actores clave. Si no se puede implementar rápidamente, los gobiernos deberían intervenir e instituir una suspensión.

Los expertos argumentan que los sistemas de IA pueden generar información errónea y reemplazar los trabajos con automatización, lo que podría conducir a la desaparición de 300 millones de empleos, según un informe reciente de Goldman Sachs. Sin embargo, también podría crear nuevos empleos y aumentar la productividad. 

La nota emitida plantea la pregunta de si se deberían desarrollar mentes no humanas que eventualmente podrían super en número, ser más inteligentes, dejar obsoletos y reemplazar a los seres humanos.

OpenAI, la empresa detrás de GPT-4, también ha advertido sobre los potenciales riesgos de la tecnología, señalando que "una superinteligencia desalineada podría causar un daño grave al mundo; un régimen autocrático con una superinteligencia decisiva podría hacer eso también". 

Elon Musk, quien fue cofundador de OpenAI pero renunció a la junta directiva de la organización hace algunos años, ha publicado mensajes críticos en Twitter sobre la dirección de la empresa. Las funciones de conducción autónoma desarrolladas por su empresa de automóviles Tesla, al igual que la mayoría de otros sistemas similares, utilizan tecnología artificial.

Se han presentado propuestas para la regulación de la tecnología en EE.UU., Reino Unido y la Unión Europea. A pesar de que el Reino Unido ha descartado la creación de un organismo regulador dedicado a la IA.

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email