"Des mesures provisoires pour la gestion des services d'intelligence artificielle générative" sont sur le point d'entrer en vigueur, comment les entreprises peuvent-elles contrôler les risques dans le processus de recherche et de développement de l'IA

L'intelligence artificielle générative représentée par ChatGPT remodèle le mode de production et le mode de consommation des contenus numériques, affectant de manière significative la transformation de tous les horizons. Cependant, les dommages correspondants causés par l'IA apparaissent également les uns après les autres. Des risques tels que les cyberattaques et les fuites de données deviennent de plus en plus importants. Des problèmes tels que la collecte excessive, les algorithmes discriminatoires et l'abus de falsification profonde peuvent gravement affecter les opérations sociales et économiques.

Afin de promouvoir le développement sain et l'application normalisée de l'intelligence artificielle générative, de sauvegarder la sécurité nationale et les intérêts publics sociaux, et de protéger les droits et intérêts légitimes des citoyens, des personnes morales et d'autres organisations. Récemment, l'Administration d'État du cyberespace de Chine, en collaboration avec la Commission nationale du développement et de la réforme, le Ministère de l'éducation, le Ministère des sciences et de la technologie, le Ministère de l'industrie et des technologies de l'information, le Ministère de la sécurité publique et l'Administration d'État de la radio , Cinéma et Télévision, a annoncé les « Mesures provisoires pour l'administration des services d'intelligence artificielle générative » (ci-après dénommées les « Mesures »). Les « Mesures » entreront en vigueur le 15 août 2023.

L'article 7 des « Mesures » stipule : Le fournisseur de services d'intelligence artificielle générative doit effectuer des activités de traitement de données de formation telles que la pré-formation et la formation à l'optimisation conformément à la loi, et respecter les dispositions suivantes :

  • Utiliser des données et des modèles sous-jacents provenant de sources légitimes

  • Si des droits de propriété intellectuelle sont impliqués, les droits de propriété intellectuelle dont jouissent les autres ne doivent pas être enfreints

  • Si des informations personnelles sont impliquées, le consentement de l'individu doit être obtenu ou d'autres circonstances stipulées par les lois et les règlements administratifs doivent être respectées.

Avec le développement de la technologie numérique, la technologie open source est largement utilisée dans diverses industries, et l'industrie de l'IA doit également utiliser un grand nombre de composants tiers pour assurer la qualité des logiciels dans une certaine mesure et accélérer l'avancement des projets à un coût inférieur et promouvoir l'occupation rapide du marché des entreprises de l'IA d'entreprise pour atteindre des objectifs commerciaux.

Cependant, la technologie open source est une épée à double tranchant, une mauvaise utilisation de la technologie open source entraînera également de nombreux risques et sa sécurité est directement liée à la sécurité de l'infrastructure du système d'information. Ensuite, dans le processus de développement de la technologie d'IA, comment les entreprises doivent-elles répondre aux exigences politiques et réglementaires et assurer la sécurité des composants open source ?

01 Établir la liste des actifs logiciels SBOM

Les entreprises doivent établir une liste claire de SBOM, comprendre en détail les informations sur les composants du logiciel, faciliter l'inventaire des actifs, détecter les composants dont le programme d'IA est "alimenté" pendant la phase de développement, réduire et limiter les risques de conformité potentiels, et faciliter la mise en conformité des entreprises le fardeau des obligations réglementaires. Cela peut également aider les entreprises d'IA à démontrer la qualité et la fiabilité de leurs programmes aux clients, aux régulateurs et aux autres parties prenantes.

02 Maîtriser les risques de propriété intellectuelle

Les composants open source tiers ont souvent des sources complexes, y compris de nombreux accords de licence, tels que GPL, MIT, Apache, etc., et rencontrent même le problème de l'incompatibilité de plusieurs accords de licence open source. Les entreprises doivent contrôler strictement les composants tiers dans le processus de développement du programme d'IA, empêcher la source fermée en raison de droits d'auteur ou de facteurs commerciaux, accumuler davantage d'ensembles de données et de codes open source de haute qualité et réduire les pertes causées par des problèmes de propriété intellectuelle.

03 Contrôler la sécurité et établir des points de contrôle de sécurité

Les programmes d'IA sont les mêmes que les applications ordinaires, plus les problèmes de sécurité sont découverts tôt, plus le coût de réparation est faible. Les entreprises doivent ajouter des points de contrôle de sécurité (tels que des entrepôts de code, des plateformes d'intégration continue, des bibliothèques de produits, etc.) aux nœuds clés de l'ensemble du processus de R&D des applications d'IA pour effectuer des contrôles de conformité. être émis pour réduire l'IA d'entreprise de manière globale.Gestion de la sécurité de l'entreprise et contrôler les coûts.

Plateforme open source de gestion de la sécurité et de la conformité des composants (SCA)

La plate-forme open source de gestion de la sécurité et de la conformité des composants (SourceCheck) est un produit d'analyse des composants logiciels (SCA) développé indépendamment par Open Source Network Security, qui peut aider les entreprises à effectuer des analyses de sécurité et à contrôler les composants tiers dans le processus de développement d'applications d'IA. , y compris l'utilisation de la gestion des composants d'entreprise, l'audit de conformité de l'utilisation des composants, le nouvel avertissement de sensibilisation aux vulnérabilités, l'audit de la propriété intellectuelle du code source ouvert, etc. "open source" pour avancer en douceur.

Je suppose que tu aimes

Origine blog.csdn.net/weixin_55163056/article/details/131902315
conseillé
Classement