知らせ!世界中の政府は、主に次の 6 つの側面に焦点を当てた AI の安全規制措置を導入しています。

目次

各国は人工知能の安全監視を強化している

監督上の提案は主に 6 つの側面に焦点を当てています

テクノロジーが人工知能のセキュリティを進歩させる


世界的な人工知能技術の急速な発展は、経済的、社会的発展と人類文明の進歩に多大な影響を与え、世界に大きなチャンスをもたらします。同時に、人工知能テクノロジーは、予測不可能なリスクと複雑な課題ももたらします。

人工知能 (AI) の技術ロジックと適用プロセスには曖昧性があるため、データ、アルゴリズムのリスク、倫理的リスク、技術悪用のリスク、サイバー攻撃のリスクなど、一連のリスクを引き起こす可能性があります。これらのリスクは、個人のプライバシーや企業の利益を脅かすだけでなく、社会全体の公平性や安定性に悪影響を与える可能性があります。

写真

まず、アルゴリズム上のリスクです。人工知能はビッグデータ、ディープラーニング、コンピューターアルゴリズムに基づく「ブラックボックス」であるため、その意思決定ロジックや根拠は説明が難しいことが多く、不確実性のリスクにつながります。高いフォールト トレランス要件が求められる一部のアプリケーション分野では、この不可解さがセキュリティ リスクにつながる可能性さえあります。

2番目に、データリスクです。データの価値のマイニングは人工知能の能力を向上させる鍵ですが、個人のプライバシーなどの機密情報の流通には漏洩や悪用のリスクが伴います。セキュリティ上の配慮によりデータが孤立してしまうと、データ要素の価値の生成や AI 産業の発展が制限されてしまいます。また、AI モデルの学習に著作権で保護された素材を使用すると著作権紛争が発生する可能性があり、特定された、または特定可能な自然人に関連する情報を入力すると営業秘密の漏洩などの問題が発生する可能性があります。

無視できない社会的および倫理的リスク。ビッグデータ、性差別、人種差別、地域差別などは社会的公平性の問題につながる可能性がありますAI は大量のデータに基づいていますが、これらのデータには偏りがあることが多く、これらのデータに基づいて意思決定を行うと、社会的不公平が悪化する可能性があります。さらに、アルゴリズム設計プロセスは開発者の価値観の影響を受ける可能性があり、取引決定の公平性を効果的に保証することが困難になります。

テクノロジーの悪用のリスクについて。AI を使用してフェイクニュース、フェイクニュース、偽アカウント、偽音声、偽写真などを作成することは、社会にますます深刻な影響を与えていますこれらの行為は、社会的および経済的安全、企業の個人的評判、個人財産の安全を損なう可能性があります。深層合成技術の継続的な発展に伴い、この技術を利用した詐欺、脅迫、捏造、名誉毀損などの違法行為や事件が多発しています。

最後に、サイバー攻撃の深刻なリスクがあります。攻撃者は、人工知能システムのセキュリティの脆弱性を悪用して、ハイジャック、攻撃、ブロック、人工知能の学習や予測の妨害などの攻撃を実行する可能性があります。さらに、攻撃者は、機械学習アルゴリズムを使用してユーザーのパスワードや暗号化キーを推測するなど、人工知能テクノロジーを使用して攻撃を開始することもできます。

写真


各国は人工知能の安全監視を強化している

人工知能のガバナンスは全人類の運命に関係しており、世界のすべての国が直面する共通の課題です。今年以来、世界中の多くの国や組織がイニシアチブや規制を導入し、一斉に人工知能の安全監督の強化を求めています。人工知能は大規模な開発に別れを告げ、セキュリティと開発が同期する段階を迎えます。

写真

11月1日、第1回グローバル人工知能(AI)セキュリティサミットで、28カ国が人工知能の国際ガバナンスに関する「ブレッチリー宣言」に共同署名した。これは、急速に発展している人工知能技術に関する世界初の国際宣言である。 。この宣言は、AI の潜在的な有害な機能とその考えられる影響を測定、監視、軽減するため、また透明性と説明責任を提供するために、関連主体がセキュリティ テストや評価などの適切な措置を講じることを奨励しています。各国には、適切な評価指標、セキュリティテストツールの開発、公共部門の能力や科学研究の開発など、リスクに基づいたリスクベースの政策を策定することが求められています。そして、既存および新規の多国間および二国間協力メカニズムを含めて補完し、既存の国際フォーラムや公共の利益を通じた意思決定および公共の利益のための情報提供を促進する、最先端の AI 安全性科学研究の国際的に包括的なネットワークの確立を支援することを決意した。その他の関連する取り組み。最高の科学。

先進7カ国(G7)は10月30日、「高度な人工知能システムを開発する組織のための国際行動規範」を発表した。行動規範は全11項目からなり、信頼性、安全性、安心感を確保するために開発プロセスで講じるべき措置を強調しています。開発者はとりわけ、レッドチームのテスト、テスト、軽減策などのリスクを特定して軽減する必要があります。開発者はまた、脆弱性やインシデントを監視し、サードパーティやユーザーが問題を発見して報告できるようにするなど、展開後に脆弱性、インシデント、悪用パターンを特定して軽減する必要があります。さらに、ガイドラインでは、信頼性の高いコンテンツ認証と透かしなどの出所メカニズムを開発および導入することの重要性を強調しています。これらの対策は、人工知能システムの安全性と信頼性を確保し、人工知能システムに対するユーザーの信頼を高めるのに役立ちます。

また、10月30日、バイデン米国大統領は、生成型人工知能に関するホワイトハウス初の一連の規制である「安全、信頼性、信頼できる人工知能」大統領令を正式に発令した。この大統領令は、複数の米国政府機関に対し、基準の開発、人工知能製品のテスト、「透かし」などのコンテンツ検証に最適な方法の模索、サイバーセキュリティ計画の策定、プライバシーを保護し、公平性と公民権を促進するための技術人材の誘致を義務付けている。消費者と労働者の利益を守り、イノベーションと競争を促進し、米国のリーダーシップの地位を強化します。同時に大統領令では、AI生成コンテンツの検出と公式コンテンツの認証基準を確立することで、米国のユーザーをAI詐欺や欺瞞から保護すると述べている。

中国サイバースペース局は10月18日、「グローバル人工知能ガバナンス構想」を発表し、具体策として、リスクレベルのテスト・評価システムの構築促進、機敏なガバナンスの導入、機密化・階層化した管理、迅速かつ効果的な対応などが盛り込まれた。研究開発機関は、人工知能の解釈可能性と予測可能性を向上させ、データの信頼性と正確性を向上させ、人工知能が常に人間の制御下にあることを保証し、監査可能、監視可能、追跡可能で信頼できる人工知能テクノロジーを作成する必要があります。同時に、人工知能ガバナンスのための関連技術の開発と応用を積極的に開発し、リスクを防止しガバナンス能力を向上させるための人工知能技術の使用をサポートする必要があります。さらに、この取り組みでは、人工知能の研究開発と応用における個人のプライバシーとデータのセキュリティを確保し、個人情報の違法な収集、盗難、改ざん、漏洩に対抗するための法規制の段階的な確立と改善も強調しています。

7月13日、中国サイバースペース局と国家関連部門は「生成型人工知能サービスの管理に関する暫定措置」を発表した。世論属性または社会動員機能を備えた生成型人工知能サービスを必要とする者は、関連する国の規制に従ってセキュリティ評価を実施し、「インターネット情報のアルゴリズム勧告の管理に関する規則」に従ってアルゴリズムの申請および変更およびキャンセルの申請手続きを実行する必要があります。サービス」。

今年6月、欧州議会はEU人工知能法の認可草案を可決し、正式に承認されれば世界初のAI規制となる。この法案では、AIシステムをリスクレベルに基づいて、最小限から許容不可能までの4つの分類に分類しています。その中で、「技術的な堅牢性とセキュリティ」では、人工知能システムが開発中および使用中の偶発的な危害を最小限に抑え、悪意のある第三者によるシステムの不正使用や使用方法の変更を防ぐために、予期せぬ問題に対応する堅牢な能力を備えていることが求められます。パフォーマンス動作。さらに、この法案では、インターネットや監視カメラの映像から顔画像を対象を絞らずに抽出することによる顔認識データベースの作成や拡張、および人工知能システムの市場投入、実用化、使用のためにそのような方法を使用することを禁止しています。 。これらのモデルに基づく生成 AI システムについて、この法案は透明性要件の遵守を義務付けています。つまり、コンテンツが AI システムによって生成されたものであることを明らかにし、違法なコンテンツの生成を確実に防止する必要があります。さらに、著作権で保護されたトレーニング データを使用する場合は、これらのデータの詳細な概要を公開する必要があります。

さらに10月下旬には、チューリング賞受賞者や「人工知能のビッグ3」などの学者の間で、人工知能の制御を巡る激しい議論が勃発した。中国と外国の人工知能科学者24名が、人工知能技術に対するより厳格な管理を求める声明に署名した。国際的な規制機関を設立し、高度な人工知能システムに必須の登録と審査を義務付け、即時「シャットダウン」手順を導入し、開発企業に研究予算の30%を人工知能の安全性に充てるよう義務付ける。

写真


監督上の提案は主に 6 つの側面に焦点を当てています

人工知能の学術界と産業界の間には規制の優先順位の違いや激しい議論があるものの、世界中の政府は人工知能の監督強化に向けた姿勢について基本的に合意に達している。現在、人工知能の監督は主に、セキュリティのテストと評価、コンテンツの認証と透かし入れ、情報悪用の防止、プログラムの強制終了、独立した規制機関、リスクの特定とセキュリティ保証の6つの側面に焦点を当てている。

セキュリティのテストと評価:潜在的に有害な機能を測定、監視、軽減し、透明性と説明責任を提供するために、AI システムのセキュリティ テストと評価を義務付けます。開発者は、リリース前にシステムの安全性と信頼性を確保するために、セキュリティ テストの結果やその他の重要な情報を政府と共有する必要があります。

コンテンツ認証と透かし: AI による詐欺や欺瞞からユーザーを保護するために、AI が生成したコンテンツを検出し、公式コンテンツを認証するための標準を確立します。信頼性の高いコンテンツ認証と透かしなどの出所メカニズムの開発と展開を重視します。

顔のセキュリティを確保する:顔は人工知能にとって重要なプライベート データであり、アプリケーションの重要な出力でもあるため、悪用を防ぐことが特に重要です。インターネットや監視カメラの映像から顔画像を対象を絞らずに抽出して顔認識データベースを構築または拡張することは禁止されています。生成 AI システムの場合は、コンテンツの生成方法を開示して違法なコンテンツの生成を防止するための透明性要件の遵守を要求します。

リスクの特定と安全性の保証:人工知能システムは、堅牢かつ安全であり、偶発的な危害を最小限に抑え、問題や悪意のある使用に対処できる必要があります。開発者は、脆弱性やインシデントの監視、ユーザーやサードパーティによる問題の発見と報告の促進など、展開後に脆弱性、インシデント、悪用パターンを特定して軽減する必要があります。

強制シャットダウンの設定:人工知能プログラムの予期せぬ使用や悪意のある使用を防ぐために、即時の「ワンクリック シャットダウン」機能を導入します。

独立した三者機関の設立:国際的かつ包括的な最先端の AI 安全性研究ネットワークの設立を促進し、国際的な規制機関を設立し、高度な人工知能システムの登録と審査の義務化を義務付けます。

写真


テクノロジーが人工知能のセキュリティを進歩させる

人工知能リスクの現状とさまざまな国のセキュリティ監視ニーズに基づいて、Dingxiang は、人工知能セキュリティ検出、セキュリティ インテリジェンス、セキュリティ防御、顔面セキュリティ保証の 4 つのセキュリティ機能を提供します。

人工知能システムのセキュリティテスト: 人工知能のアプリケーション、製品、アプリに対して包括的なセキュリティテストを実施し、潜在的なセキュリティ脆弱性を特定して検出し、タイムリーな修復提案を提供します。この検出メカニズムにより、攻撃者がセキュリティの脆弱性を利用して悪意のある攻撃を行うことを防ぐことができます。

人工知能脅威インテリジェンス: Dingxiang Defense Cloud Business Security Intelligence は、テクノロジーと専門家の経験を組み合わせて、攻撃者の脅威手法を包括的に予測する、多面的かつ多角的な人工知能攻撃インテリジェンスを提供します。企業が迅速に対応し、潜在的な脅威から人工知能システムを保護するための正確な制御を提供できるように支援します。

フルプロセスのセキュリティ防御: Dingxiang Defense Cloud を使用して、人工知能アプリケーション、アプリ、デバイスを強化およびコード難読化し、セキュリティを向上させます。同時に、人工知能データ通信伝送の難読化と暗号化により、情報伝送プロセス中の盗聴、改ざん、不正使用などの問題を防ぐことができます。さらに、Dingxiang の Dinsigh リスク管理意思決定エンジンの助けを借りて、機器環境を包括的に検出し、さまざまなリスクや異常動作をリアルタイムで発見し、全体的なセキュリティを向上させることができます。さらに、Dingxiang の Xintell モデリング プラットフォームは、人工知能セキュリティの戦略的サポートを提供し、潜在的なリスクや未知の脅威を迅速に発見できます。

写真

Face アプリケーションのセキュリティ保護: Dingxiang のビジネス セキュリティ認識および防御プラットフォームは、脅威プローブ、ストリーム コンピューティング、機械学習などの高度なテクノロジに基づいており、機器のリスク分析、運用上の攻撃の特定、異常な動作の検出、早期警告、保護処置を統合しています。 1 つのアクティブなセキュリティ防御プラットフォームは、カメラのハイジャックや機器の偽造などの悪意のある行為をリアルタイムで検出し、顔アプリケーションのさまざまなリスクを効果的に防止および制御できます。脅威の視覚化、脅威の追跡可能性、デバイス相関分析、マルチアカウント管理、クロスプラットフォームのサポート、アクティブな防御、オープンデータアクセス、防御のカスタマイズ、および完全なプロセスの防止と制御という特徴があります。

Dingxiang の 4 層セキュリティ機能により、企業は自社の人工知能システムをセキュリティ リスクや攻撃からより適切に保護し、人工知能アプリケーションのセキュリティを向上させ、さまざまな国のセキュリティ規制のニーズを満たすことができます。

おすすめ

転載: blog.csdn.net/dingxiangtech/article/details/134336763
おすすめ