人工知能の生成を急ぐのは危険です: データを保護する方法

ビジネス ユーザーは毎日、ChatGPT やその他の生成 AI ツールを試しています。実際、Gartner は、2025 年までにマーケティング コンテンツの 30% が生成 AI によって作成され、人間によって強化されると予測しています。

しかし、サムスンのような企業は、新しいテクノロジーのリスクに気づいていないユーザーが、知らず知らずのうちに内部関係者による脅威になっていることに気づきました。そのため、ガードレールを構築せずに急いで行動すると、データ侵害やその他のセキュリティインシデントが発生する可能性があります。 

生成 AI がビジネスにとって有用なツールであることは間違いありませんが、導入には注意が必要です。

非構造化データが急増し、新しいアルゴリズムやそれを使用するアプリケーションに組み込まれるにつれて、企業はこの新しい時代に耐えられる責任ある AI の使用とデータ保護戦略を開発する必要があります。 

インサイダーの脅威はかつてないほど大きくなっている

サムスンのデータ侵害は単独の事件ではありません。調査によると、過去 2 年間で内部関係者による脅威インシデントが 44% 増加しました。

ある程度の人的エラーは常に発生しますが、この前例のないリスクは軽減することができます。

多くの CIO は、従業員が不信感を抱くことを懸念して、生成 AI のルールを設定することに消極的ですが、寛容なアプローチでは組織が危険にさらされやすくなります。 

最終的に、IT 部門は、従業員に必要なツールやデータへのアクセスを提供することと、従業員が間違いを犯す可能性とのバランスをとる必要があります。

人的エラーは最大のセキュリティ リスクの 1 つです。データを保護する最善の方法は、すべてのユーザーが責任を感じ、その方法を知っていることを保証することです。 

企業は従業員を、その役割とアクセス レベルに基づいてデータ管理者としてトレーニングする必要があります。

CMO、開発者、データベース管理者、人事アシスタントは皆、扱うデータとの関係が異なります。

すべての従業員は、自らが引き起こすリスクと、データをより適切に保護する方法を理解する必要があります。私たち全員がコミュニティの活動的な市民であり、安全を確保するために交通法規などの規制に従っている場合、従業員も同じように行動し、すべての行動にデータ セキュリティとセキュリティに対する姿勢をもたらす必要があります。  

シャドーITの撲滅

組織によっては、生成 AI は、IT 部門が監視すべき無数のアプリケーションの 1 つにすぎない場合がありますが、データの出入りを常に完全に可視化できるわけではありません。

現実には、ほとんどの企業が非構造化データを会計や保護なしで IT 環境に通過させる「シャドー IT」デバイスを導入しています。

衝撃的なことに、この調査では、IT リーダーの 42 パーセントが、自社のデータの少なくとも半分が影の中にあり、つまり、データを見つけたり、管理したり、保護したりすることができないと答えていることがわかりました。

生成 AI ツールなどの未承認のアプリケーションを使用している従業員は、知らないうちに不正な IT 資産やダーク データ資産を追加する可能性があり、企業は偶発的なデータ侵害を防ぐための洞察がほとんど得られません。

データとアプリケーションへのアクセスは依然として非常に重要ですが、これらの資産に対する適切な可視性を確保し、アクセスを慎重に管理することは、企業がバランスを取るのに役立ちます。 

これは、いくつかの異なるレベルで実行できます。

  • アクセス許可: IT 部門は定期的にデータセットやアプリケーションにアクセスする必要があるユーザーを定期的に更新および監視し、役割や雇用ステータスが変更された場合には更新する必要があります。 

  • データ スクレイピングの防止: 生成 AI ツールはインターネット データをトレーニングします。従業員が会社の機密データをチャットボットに入力すると、その情報が公開され、誤ってパブリック ドメインの一部になる可能性があります。OpenAI や Anthropic などのベンダーはプライバシー管理の実装に熱心に取り組んでいますが、企業は資産を保護するために待ったり、外部の者に頼ったりすべきではありません。独自のコントロールを作成する必要があります。

  • プロアクティブな可観測性: データ環境を定期的にスキャンすることで、シャドウ データやサードパーティ アプリケーションの発見から組織全体のデータ フローの測定まで、脅威をより深く理解することができます。たとえば、IT プロフェッショナルは、興奮しすぎた従業員がサードパーティの拡張機能にデータを入れていることを発見し、サードパーティのアクセスを修復し、その従業員にデータ保護における役割について教育するための措置を講じることができます。

組織全体の取り組み

生成 AI によって引き起こされる独自のデータ侵害を防ぐ最善の方法は、責任を持って AI を使用することです。セキュリティとアクセスのバランスをとる意図的なデータ戦略の導入は、すべての組織にとって不可欠です。 

企業は、AI の優れた側面を活用しながら今日のセキュリティの脅威から身を守ることができますが、それはデータ セキュリティが優先事項になった場合に限られます。これには、技術的なガードレールと説明責任プロセスを含む調整された取り組みと、組織全体でカスタマイズされた従業員の教育が必要です。

そうすることで初めて、企業は AI の最良の側面を活用しながら、今日のセキュリティの脅威に対して真に防御できるようになります。

おすすめ

転載: blog.csdn.net/qq_29607687/article/details/131237627