EE. UU. impulsa Medidas para Garantizar la Seguridad en el Uso de la Inteligencia Artificial

El presidente de Estados Unidos, Joe Biden, tiene programado aprobar una orden ejecutiva este lunes para establecer mayores controles de seguridad en los sistemas de inteligencia artificial (IA) con el objetivo de mitigar los riesgos asociados con esta tecnología.

Tecnología10/11/2023Ahora NoticiasAhora Noticias
aaaa
Foto: Freepik

Según la Casa Blanca, esta orden ejecutiva representa el conjunto de acciones más robusto implementado por un gobierno a nivel mundial. Bruce Reed, el subjefe de gabinete, destacó que este decreto es el siguiente paso en una estrategia agresiva para aprovechar los beneficios de la IA y al mismo tiempo mitigar sus riesgos.

La medida surge después de que, en julio, 15 de las principales empresas tecnológicas estadounidenses, incluyendo Amazon, Google, Meta y Microsoft, acordaron adoptar medidas de seguridad propuestas por la Administración Biden para el desarrollo de la IA. La orden ejecutiva que será presentada en la Casa Blanca incorpora cláusulas destinadas a proteger la privacidad, mejorar los derechos civiles, resguardar a los consumidores, respaldar a los trabajadores y fomentar la innovación.

Entre las disposiciones clave se encuentra la exigencia de que los desarrolladores de IA más destacados compartan con el gobierno estadounidense los resultados de sus pruebas de seguridad y otra información considerada "crucial". La Ley de Producción de Defensa establece que las empresas que desarrollen sistemas que representen un riesgo grave para la seguridad nacional deben notificar a la administración antes de poner a prueba esos modelos. Estas medidas buscan garantizar que los sistemas de inteligencia artificial sean seguros y confiables antes de su lanzamiento público.

El Instituto Nacional de Estándares y Tecnología establecerá rigurosos estándares para las pruebas de seguridad, y el Departamento de Interior los aplicará en sectores fundamentales. Además, los Departamentos de Energía e Interior supervisarán las posibles amenazas de sistemas de IA sobre infraestructuras críticas y los riesgos en los campos químico, biológico, radiológico, nuclear y de ciberseguridad.

La orden ejecutiva también incluye medidas para prevenir la creación de materiales biológicos peligrosos y abordar el fraude y el engaño mediante el uso de la IA, incluyendo la clara etiquetación del contenido generado por esta tecnología. Asimismo, se establecerá un programa para que la IA descubra y corrija vulnerabilidades del software, y se desarrollará un memorándum de seguridad nacional para el uso ético de la IA por parte de las fuerzas armadas y los servicios de inteligencia. Además, se están llevando a cabo esfuerzos para lograr compromisos multilaterales y una aproximación armonizada al control de la IA a nivel internacional.

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email