El "Proceso de IA de Hiroshima"

Los países del G7 acuerdan un código de conducta para los desarrolladores de IA

Los integrantes del Grupo de los Siete han acordado hoy un listado de once principios para impulsar el desarrollo de sistemas de inteligencia artificial minimizando los riesgos de desinformación y vulneración de derechos. 

Los países del G7 acuerdan un código de conducta para los desarrolladores de IA
Los países del G7 acuerdan un código de conducta para los desarrolladores de IA
Europa Press

Los países del G7 han llegado este lunes a un acuerdo sobre el código de conducta a seguir por parte de las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA). Esta serie de orientaciones están dirigidas a reducir los riesgos que puedan surgir del uso de esta tecnología, como la desinformación o la vulneración de los derechos de privacidad y propiedad intelectual.

Los países integrantes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) continúan así con la iniciativa emprendida el pasado mayo bajo la presidencia nipona de turno, conocida como el "Proceso de IA de Hiroshima". Este proceso tiene como fin establecer una guía para el desarrollo del sector de la inteligencia artificial.

La hoja de ruta elaborada contiene once principios que buscan impulsar el desarrollo de sistemas de IA que cumplan unos estándares de seguridad y fiabilidad, además de permitir "gestionar el riesgo" de esta tecnología. Los países del G7 han aprovechado la declaración en la que se ha presentado el código de conducta para instar también a los desarrolladores a comprometerse a su cumplimiento.

Desarrollo supervisado por observadores independientes

El G7 destaca el "potencial innovador y transformador" de los sistemas avanzados de IA, y en particular, de modelos generativos como el bot de conversación ChatGPT, y al mismo tiempo reconoce la necesidad de "proteger a los individuos, la sociedad y los principios compartidos", además de "mantener a la humanidad en el centro".

Entre las medidas recomendadas figura contar con la supervisión de observadores independientes en todas las fases de desarrollo y salida al mercado de las IA, y de que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades. De cara a una mayor transparencia de estos modelos, se pide a los desarrolladores informar de forma pública sobre las "capacidades y limitaciones" y los "dominios de uso apropiado e inapropiado" de sus sistemas.

También se llama poner en marcha "mecanismos de autentificación" como pueden ser la creación de "marcas de agua" digitales que permitan a los usuarios identificar los textos, imágenes o vídeos generados por inteligencias artificiales. Estas orientaciones serán revisadas de forma periódica cuando sea necesario "para adaptarse a la rápida evolución de la tecnología" y en consultas con los actores implicados, según la declaración conjunta.

Además de invitar a las firmas e instituciones del sector a seguir este código de conducta, los países del G7 "acelerarán el proceso para desarrollar un marco de políticas" para promover la implementación del Proceso de Hiroshima, lo que incluirá "la cooperación basada en proyectos".

El Grupo de los Siete también fomentará el cumplimiento de esta hoja de ruta a través de la cooperación y consulta con diferentes organismos internacionales como la Alianza Global sobre Inteligencia Artificial (GPAI, de sus siglas en inglés), la Organización para la Cooperación y el Desarrollo Económicos (OECD) y con actores públicos y privados, así como con países que no forman parte del G7.

Mostrar comentarios