サイバーセキュリティにおけるAI:2021年の6つの考慮事項

2021年に入り、ますます多くの組織が新しいテクノロジーを採用するにつれて、テクノロジーとネットワークセキュリティの観点から人工知能の未来は発展し続けます。最近の調査によると、組織の3分の2はすでにサイバーセキュリティの目的でスマートテクノロジーを使用しています。これらのツールを使用することで、企業はサイバー犯罪テクノロジーを使用して絶えず進化している革新的な攻撃に完全に備えることができ、AIテクノロジーも使用できます。たとえば、昨年だけでも、犯罪者はAIベースのソフトウェアを使用してCEOの声を複製し、22万ユーロ(約243,000米ドル)の現金送金を要求しました。

2021年にさらに多くのAIをセキュリティスタックに統合することを望んでいる企業にとって、他の場所のセキュリティを損なうことなくAIを効果的に使用するには、次の6つの手順に従うことが不可欠です。

サイバーセキュリティのためのAIの責任ある使用を奨励する

最近のデータによると、経営幹部の4分の3は、AIを使用することで、組織が違反に対してより迅速に対応できると考えています。脅威の状況は急速に変化し続けており、サイバーセキュリティのリーダーはサイバー犯罪者によって開発された新しい戦略に対応するためにAIを採用する必要があります。同様に、企業は、ポリシーがこの受け入れをサポートすることを保証することに焦点を当てる必要があります。たとえば、AIプログラムに対する米国の輸出管理は、企業がAIの使用において世界のサイバーセキュリティ市場で競争力を維持し続けることを保証する必要があります。

AIの概念が脅威のモデリングとリスク管理に関与していることを確認します

AIの展開は世界的に拡大しています。AIプログラムの4分の1以上が本番環境に移行し、プロジェクトの3分の1以上が高度な開発段階にあります。ただし、攻撃者がこの成長と新しく統合されたAIシステムの安定性をどのように妨害しようとするかを慎重に検討してください。まだ広く使用されていませんが、データ攻撃が広く採用されているため、データポイズニング攻撃やトレーニングモデルのバックドアなどのサイバー攻撃が機械学習システムに対して展開される可能性があります。AIシステムを組み込んだ脅威モデルはまれであり、多くの場合未成熟です。ビジネスリーダーは、AIがそのような脅威を最小限に抑えるために、リスク管理活動の範囲内にあることを保証する方法の開発に努める必要があります。

AIシステムの倫理規定を開発および促進する

公的部門と民間部門の両方がAIアプリケーションで倫理規定を使用し、これらの倫理的フレームワークに強力なセキュリティと透明性の管理を含めることを奨励する必要があります。AIをサイバーセキュリティプログラムに適用する方法はたくさんありますが、Microsoft AIPrinciplesなどのフレームワークが認識されていることを確認することが重要です。倫理的なAIをサポートできる原則には、AIバイアスの排除、AIデータの保護、AIテクノロジーが世界に与える影響について人々に説明責任を持たせることが含まれます。

透明性をサポートし、新しい発見を公に共有する

AIと新しい敵対者の攻撃と防御に関する新しい研究は、会議の議事録や学術雑誌に掲載されることがよくあります。ただし、これらの寄稿では、これらの調査結果に到達する方法が十分に詳細に説明されていない場合があり、多くの論文では、結果の正確な再現につながるコードが提供またはリンクされていませんでした。同様に、AI研究を行う企業は通常、秘密裏にそれを行います。これは、AIの進歩の検証と実装に負担をかけます。これにより、セキュリティ担当者は、これらのモデルに対する攻撃の可能性を評価するためのより困難な環境を提供し、最終的に企業がこれらの脅威に対応することをより困難にします。

AIシステムに関する攻撃的な研究を優先する

AIテクノロジーを製品に適用する前に、企業はこれらの新しいテクノロジーの潜在的なリスクを検証する必要があります。組織は、AIアプリケーションと関連する機械学習システムが、セキュリティプログラムの監視とテストの現在の範囲にとって意味のあるものであることを確認する必要があります。監視とテストには、気づかなかった可能性のある予期しないAIの欠陥の発見をサポートするために両社が自発的に講じた対策、セキュリティフレームワークとガイダンス、およびセキュリティ研究者とのコラボレーションを含める必要があります。

プライバシーを保護する機械学習の作成と統合を促す

機械学習とAIテクノロジーはますます普及し続けていますが、プライバシーへの影響についてはまだ広く議論されていません。特に、ニューラルネットワークはトレーニングデータから特定の例を記憶できます。したがって、AIシステムはモデル反転攻撃に対して脆弱である可能性があり、モデルに繰り返しクエリを実行してトレーニング例を再作成することにより、モデルによってトレーニングされたデータの盗難につながります。モデルが機密データでトレーニングされている場合、攻撃者はトレーニングデータに関する情報を回復できる可能性があります。プライバシーの脆弱性のリスクが高まるにつれ、プライバシーを保護する機械学習システムを採用して開発する必要性が高まっています。これにより、ビジネスだけでなく、データを使用してモデルをトレーニングする消費者も保護されます。

AIをサイバーセキュリティ計画に統合することは簡単ではありません。ビジネスリーダーは、合併によってもたらされる課題を認識し、倫理を維持し、個人データを保護しながらサイバーセキュリティプログラムを強化するためのソリューションを開発する必要があります。明確な公開ガイドラインに従うことに加えて、人工知能技術の責任ある使用は、脅威のモデリングと継続的な人工知能の研究を奨励することは、AIをサイバーセキュリティプログラムに統合するときに成功をもたらす重要なステップです。

おすすめ

転載: blog.csdn.net/weixin_42137700/article/details/115238674