Las "Medidas provisionales para la gestión de servicios de inteligencia artificial generativa" están a punto de entrar en vigor, ¿cómo pueden las empresas controlar los riesgos en el proceso de investigación y desarrollo de IA?

La inteligencia artificial generativa representada por ChatGPT está remodelando el modo de producción y el modo de consumo de contenido digital, afectando significativamente la transformación de todos los ámbitos de la vida. Sin embargo, los daños correspondientes provocados por la IA también están surgiendo uno tras otro. Riesgos como los ataques cibernéticos y la fuga de datos son cada vez más prominentes. Problemas como la recopilación excesiva, los algoritmos discriminatorios y el abuso de la falsificación profunda pueden afectar seriamente las operaciones sociales y económicas.

Con el fin de promover el sano desarrollo y la aplicación estandarizada de la inteligencia artificial generativa, salvaguardar la seguridad nacional y los intereses públicos sociales, y proteger los derechos e intereses legítimos de los ciudadanos, personas jurídicas y otras organizaciones. Recientemente, la Administración Estatal del Ciberespacio de China, junto con la Comisión Nacional de Desarrollo y Reforma, el Ministerio de Educación, el Ministerio de Ciencia y Tecnología, el Ministerio de Industria y Tecnología de la Información, el Ministerio de Seguridad Pública y la Administración Estatal de Radio , Cine y Televisión, anunció las "Medidas Provisionales para la Administración de Servicios de Inteligencia Artificial Generativa" (en adelante, las "Medidas"). Las "Medidas" entrarán en vigor el 15 de agosto de 2023.

El artículo 7 de las “Medidas” establece: La prestación de servicios de inteligencia artificial generativa deberá realizar actividades de procesamiento de datos de capacitación tales como capacitación previa y capacitación de optimización de conformidad con la ley, y sujetarse a las siguientes disposiciones:

  • Usar datos y modelos subyacentes de fuentes legítimas

  • Si se trata de derechos de propiedad intelectual, no se infringirán los derechos de propiedad intelectual disfrutados por otros.

  • Si se trata de datos personales, se deberá obtener el consentimiento de la persona o cumplir con las demás circunstancias previstas por las leyes y reglamentos administrativos.

Con el desarrollo de la tecnología digital, la tecnología de código abierto se usa ampliamente en varias industrias, y la industria de la IA también necesita usar una gran cantidad de componentes de terceros para garantizar la calidad del software hasta cierto punto y acelerar el progreso del proyecto en un costo más bajo y promover la rápida ocupación del mercado empresarial de inteligencia artificial para lograr objetivos comerciales.

Sin embargo, la tecnología de código abierto es un arma de doble filo, el uso inadecuado de la tecnología de código abierto también traerá muchos riesgos y su seguridad está directamente relacionada con la seguridad de la infraestructura del sistema de información. Luego, en el proceso de desarrollo de tecnología de IA, ¿cómo deben responder las empresas a los requisitos normativos y reglamentarios y garantizar la seguridad de los componentes de código abierto?

01 Establecer una lista de activos de software SBOM

Las empresas deben establecer una lista clara de SBOM, comprender la información de los componentes del software en detalle, facilitar el inventario de activos, detectar los componentes con los que se "alimenta" el programa de IA durante la etapa de desarrollo, reducir y limitar los posibles riesgos de cumplimiento. y facilitar el cumplimiento de las empresas la carga de las obligaciones regulatorias. También puede ayudar a las empresas de IA a demostrar la calidad y confiabilidad de sus programas a los clientes, reguladores y otras partes interesadas.

02 Controlar los riesgos de propiedad intelectual

Los componentes de código abierto de terceros a menudo tienen fuentes complejas, incluidos muchos acuerdos de licencia, como GPL, MIT, Apache, etc., e incluso encuentran el problema de la incompatibilidad de varios acuerdos de licencia de código abierto. Las empresas deben controlar estrictamente los componentes de terceros en el proceso de desarrollo del programa de IA, evitar el código cerrado debido a derechos de autor o factores comerciales, acumular más conjuntos de datos y códigos de código abierto de alta calidad y reducir las pérdidas causadas por problemas de propiedad intelectual.

03 Controlar la seguridad y establecer puntos de control de seguridad

Los programas de IA son los mismos que las aplicaciones ordinarias, cuanto antes se descubran los problemas de seguridad, menor será el costo de reparación. Las empresas deben agregar puntos de control de seguridad (como almacenes de códigos, plataformas de integración continua, bibliotecas de productos, etc.) en nodos clave en todo el proceso de I+D de las aplicaciones de IA para realizar controles de cumplimiento. Si no cumplen con las reglas, se emitirán alertas tempranas. se emitirá para reducir la IA empresarial de manera integral Gestión de la seguridad empresarial y costos de control.

Plataforma de gestión de cumplimiento y seguridad de componentes de código abierto (SCA)

La plataforma de gestión de cumplimiento y seguridad de componentes de código abierto (SourceCheck) es un producto de análisis de componentes de software (SCA) desarrollado de forma independiente por Open Source Network Security, que puede ayudar a las empresas a realizar análisis de seguridad y control de componentes de terceros en el proceso de desarrollo de aplicaciones de IA. , incluido el uso de la gestión de componentes empresariales, la auditoría de cumplimiento de uso de componentes, la nueva advertencia de conciencia de vulnerabilidad, la auditoría de propiedad intelectual de código fuente abierto, etc., puede realizar un análisis preciso del código fuente y los productos, de modo que el negocio de IA empresarial pueda apoyarse en los hombros de "código abierto" para avanzar sin problemas.

Supongo que te gusta

Origin blog.csdn.net/weixin_55163056/article/details/131902315
Recomendado
Clasificación