テクノロジー爆発の時代、AIの暴走をどう防ぐか?

fcf801c7e9d0ec6ab007a597e5c35349.jpeg

ソース/テクノロジーレビュー

編集/イカワード

350人以上のテクノロジー企業の幹部や科学者が共同声明に署名し、人工知能(AI)の潜在的な危険性について懸念と警告を表明し、人工知能によってもたらされる制御の喪失はパンデミックや核攻撃に劣らないとも述べた。戦争。非営利団体 AI Safety Center が発表したこの声明には、生成人工知能から学んだ企業である Open AI、Microsoft、Google のリーダーを含むテクノロジー業界の著名人が署名しました。知能。

しかし、多くの人は依然として人工知能の危険性を懸念しています。イェール大学 CEO サミットでの調査によると、参加した経営幹部の 42% が、人工知能が 10 年以内に大惨事を引き起こし、人類を滅ぼす可能性があると信じていることがわかりました。

AI の制御不能とは、AI システムの動作中に予期せぬ動作や結果が発生することを指し、これらの結果は人間の期待と矛盾し、場合によってはマイナスの影響を与える可能性があります。たとえば、自動運転車システムに障害が発生すると、車両が制御を失い、ドライバーや他の交通参加者の安全に重大な脅威が生じます。あるいは、AI システムが特定の人の行動を誤って判断し、その人が不当な扱いを受けたり、処罰されたりして、その人の権利や自由に重大な影響を与える可能性があります。

AIが人類をどのように滅ぼすのかはまだ明らかではない。多くの専門家は、悪意のある者が大量のデータセットを使用して生物兵器を作成したり、新しいウイルスを導入したりすることによって引き起こされる可能性があると推測しています。また、AI を使用してミッションクリティカルなコンピューター システムをハッキングしたり、世界中にパニックを引き起こす可能性のある誤った情報を意図的に広めたりすることも意味する可能性があります。別のシナリオでは、AI が高精度になること自体が問題になる可能性があります。特定の病気の撲滅に熱心に取り組み、その経路にあるすべてのものを破壊する AI アルゴリズムを想像してみてください。

多くの終末シナリオは決して起こらないかもしれませんが、AI には議論されている危険を引き起こす能力があります。問題の一部は、テクノロジーが誰もが予想していたよりも速く進歩していることです。OpenAI によって開始された注目の生成人工知能ソリューションである ChatGPT を例に挙げます。4月にAccounting TodayがCPA試験を実施したときは惨めに不合格だったが、数週間以内に見事合格した。

01

AIに関する規制の整備

大小のテクノロジー企業が生成 AI の流行に飛び乗り、ほんの数か月前には想像もできなかった大規模なデータセットを構築しているため、これには明らかに規制上の監視が必要になります。

2022年10月、ホワイトハウス科学技術政策局は、人工知能の使用または構築時にプライバシーと公平性の尊重を義務付ける「人工知能権限法」の青写真を発表した。この青写真では、アメリカ国民を保護するための設計、使用、配備の指針となる 5 つの原則が特定されています。これらのガイドラインには次のものが含まれます。

  • 安全で効果的なシステム: AI ソリューションは徹底的にテストして、懸念事項、リスク、潜在的な影響を評価する必要があります。

  • アルゴリズムによる差別保護: 偏見の可能性を排除するために、ソリューションは公正な方法で設計される必要があります。

  • データのプライバシー: 人々は自分のデータがどのように使用され、プライバシー侵害から保護されるかを決定する権利を有するべきです。

  • 通知と説明: AI を使用する場合は明確な透明性が必要です。

  • 人間の代替手段、考慮事項、フォールバック: 人間の代替手段を優先して、AI との対話をオプトアウトできる必要があります。

ブループリントが確立され、ChatGPT やその他の生成 AI ソリューションがリリースされて以来、バイデン政権はブループリントをより深く理解し、規制戦略を策定するために定期的に会議を開催してきました。

2023年6月中旬、欧州議会は人工知能の安全な使用に関する独自の規制を起草し、採択に向けて一歩ずつ近づいている。AI法では、公共の場でのリアルタイムの顔認識、操作技術を使用したシステムやモデルのスコアリング、AIシステム開発コンテンツ生成時の完全開示、要求に応じたデータソースの提供が禁止されている。

02

規制をどのように執行するか

透明、公平、安全、公正な AI の行動規範に何を含める必要があるかは明らかですが、それをどのように実施するかは数百万ドルの問題であり、ここではいくつかの考慮事項を示します。

標準化団体を作成する

米国食品医薬品局 (FDA) のライフ サイエンス企業に対する適正製造基準 (GMP) 規制と同様に、明確なガイドラインを作成し、「適正 AI 基準」の認定を希望する企業に伝える必要があります。そのためには、AIソリューションを開発している企業を検査し、必要な文書を収集する任務を負った米国食品医薬品局に似た連邦機関の監督が必要となる。

免責事項を強制する

生成 AI がコンテンツ、マーケティング資料、ソフトウェア コード、または研究の開発に使用されるかどうかに関係なく、コンテンツの一部またはすべてが機械生成であることを示す、非常に目立つ公開免責事項が必要とされるべきです。

独立したリスク評価を実施する

Google とその AI 研究機関 DeepMind は、「高リスク AI システム」がそのソリューションに関する詳細な文書を提供できるようにするためのいくつかの手順を推奨しています。これらの推奨事項の中で最も重要なのは、独立機関によるリスク評価を義務化すべきであるということです。

AI を説明可能にする

AI が人々の生活に影響を与える決定を下す場合、個人はアルゴリズムがその決定をどのように行ったかを完全に理解できる必要があります。

クラウドでの AI ガバナンスの構築

パブリック クラウドに人工知能を導入する場合、連邦政府は許可を得る必要があるだけでなく、邪悪な人工知能が侵入できないように、クラウドとクラウドに導入されたプロジェクトを厳密に監視するために特別な人員を派遣する必要があります。

AI 倫理をすべてのデータ サイエンティストの必須コースに

ソフトウェア エンジニアリングとデータ サイエンスのすべての学生は、業界で働く前に AI 倫理の必須コースを完了する必要があります。AI 倫理認証を作成して実装することもできます。医師が「まず害を与えない」ことを誓うヒポクラテスの誓いのように、データ サイエンティストも AI ソリューションを構築する際に同じことを誓う必要があります。

03

結論は

私たちは歴史的な技術開発の新たなサイクルの中にいます。生成型人工知能は、良くも悪くも社会のあらゆる側面に革命を起こす可能性を秘めています。しかし、歴史上の他のすべての大きな転換点と同様に、人間は AI 開発の「ハンドル」を制御し、公平性、透明性、人権の尊重に基づいて適切な判断を下し、人工知能の可能性を確保する必要があります。知性は人類に利益をもたらすために使われます。

ab0a5cea7845795b038e80e23ea10926.gif

ジャイロ・ファイナンスの連絡先情報

事業協力|寄稿:

シャオ・ファン (WeChat ID 18925291949)

寧 (WeChat ID 13631579042) 


推奨読書

70bdd8154a844121bb6a5f575dc7ff77.png8f6503b10eb79795f689d9459d5d88af.pnge19a89bf937e0e4619d6cdd5a6ce2212.png

おすすめ

転載: blog.csdn.net/tuoluocaijing/article/details/132439735