Musk と 1,200 人を超える人々が共同で、より強力な AI のトレーニングを停止することを求める公開書簡に署名しました.この背後にある理由は考えさせられます.ChatGPT に冷水を注ぐ時が来ました.

巨大な AI 実験のモラトリアム: 公開書簡

3 月 29 日、**Future of Life** は、「大規模な人工知能研究の一時停止」という公開書簡を社会全体に発行し、すべての人工知能研究所に、GPT-4 よりも強力な AI の開発を直ちに一時停止するよう呼びかけました。 . 人工知能システムのトレーニングは、少なくとも 6 か月間中断されます。この機関の使命は、「非常に大規模なリスクから離れて、人生の利益のために革新的な技術を操縦すること」です。

「堅牢な人工知能システムは、その効果が肯定的であり、リスクが管理可能であると確信している場合にのみ開発されるべきです」と書簡は読みます.

OpenAI の CEO である Altman は、MIT の研究科学者である Lex Fridman との最新の 2 時間の会話で、OpenAI による継続的なテストの後、ChatGPT に始まり、GPT シリーズは推論能力を示しましたが、誰もその理由を解釈することはできませんでした。この能力のために、OpenAI チームと Altman 自身でさえ GPT-4 を完全に解釈することはできず、常に質問をすることによってその「アイデア」を判断することしかできません. AIは説明のつかない推論能力を発達させたと言え、アルトマン氏も「AIが人間を殺す」という一定の可能性があることを認めました。

フューチャー オブ ライフ インスティテュートからの公開書簡は、「巨大な AI 実験の一時停止: 公開書簡」と題されています。公開書簡の原文は次のとおりです

ここに画像の説明を挿入

広範な研究とトップの AI ラボによって認識されているように、AI システムは社会と人類に重大なリスクをもたらします。人工知能のためのアシロマーの原則では、高度な人工知能は地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の注意とリソースで計画および管理されるべきであると述べています。しかし、ここ数か月の AI ラボでの AI の狂乱、ますます強力なデジタル頭脳の開発と展開にもかかわらず、現在、誰も AI システムを理解、予測、または確実に制御することはできず、対応するレベルの計画と管理を行うこともできません。

人工知能が一般的なタスクで人間と競争するようになった今、私たちは自問する必要があります: 情報チャネルで機械に偽りの情報を広めさせるべきでしょうか? やりがいのある仕事も含めて、すべての仕事を自動化する必要がありますか? 人間以外の脳を開発して、最終的に人間よりも数が多く、頭が良くなり、それらを取り除いて置き換える必要がありますか? 私たちの文明のコントロールを失う危険を冒すべきですか? そのような決定は、選出されていない技術リーダーに委任してはなりません。強力な AI システムは、その効果が肯定的であり、リスクが管理可能であると確信できる場合にのみ開発する必要があります。同時に、システムへの潜在的な影響の大きさを考慮して、この信頼を検証し、強化する必要があります。人工知能に関する OpenAI の最近の声明では、将来のシステムのトレーニングを開始する前に独立したレビューを受ける必要がある可能性があると指摘し、最先端の取り組みのために、新しいモデルの作成に使用される計算の増加率を制限することに同意しました。私たちは、行動する時が今であることに同意します。

したがって、すべての AI ラボに対して、GPT-4 よりも強力な AI システムのトレーニングを少なくとも 6 か月間直ちに停止するよう求めます。この一時停止は公開され、検証可能であり、すべての主要なプレーヤーが含まれている必要があります。そのような禁止が迅速に実施できない場合、政府は介入してモラトリアムを設定する必要があります。

AI ラボと独立した専門家は、モラトリアム期間中に高度な AI の設計と開発のための一連の共有セキュリティ プロトコルを共同で開発および実装する必要があります。これは、独立した外部の専門家による厳格なレビューと監視の対象となります。これらのプロトコルは、プロトコルに従うシステムが安全であることを保証する必要があります。これは一般的な AI 開発を一時停止することを意味するものではなく、予測不可能な研究開発を制限するために危険な競争から一歩後退することを意味することに言及する価値があります

AI の研究開発は、現在の最先端の堅牢なシステムをより正確で、安全で、説明可能で、透明性があり、堅牢で、一貫性があり、信頼でき、忠実なものにすることに再び焦点を当てる必要があります。

同時に、**AI 開発者は政策立案者と協力して、堅牢な AI ガバナンス システムの開発を劇的に加速する必要があります。**これらには、少なくとも AI 固有の規制当局、大容量の AI システムと大規模なコンピューティング対応ハードウェアの監視と追跡、本物と合成を区別し、モデルの漏洩を追跡するのに役立つ来歴と透かしシステム、堅牢な検閲と認定されたエコシステムが含まれる必要があります。 ; AI によって引き起こされた損害に対する説明責任; AI 安全技術研究に対する強力な公的資金提供と、AI が引き起こす可能性のある大規模な経済的および政治的混乱に対処するための十分なリソースを備えた機関。

人類は、人工知能によって豊かな未来を享受できます。現在、堅牢な AI システムを作成するという私たちの成功は、この「AI の夏」に報われ、すべての人の明確な利益のためにそれらのシステムを設計し、社会に適応する機会を与えることができます。他のテクノロジーの使用を中止すると、社会に壊滅的な影響を与える可能性があるため、備えておく必要があります。秋に突入するのではなく、長い AI の夏を楽しみましょう。

現在のところ、この書簡にはマスク氏、Apple 共同創業者のスティーブ ウォズニアック氏、Stability AI の創業者エマド モストーク氏、チューリング賞受賞者のジョシュア ベンジオ (Yoshua Bengio) 氏、スチュアート ラッセル氏、人工知能: 最新のアプローチ、スティーブ ウォズニアック、Apple 共同創設者、Emad Mostak、Stability AI (Emad Mostaque) の CEO、およびその他のテクノロジ リーダー。

ここに画像の説明を挿入

OpenAI CEO Sam Altman: 「AI は実際に人間を殺すかもしれない」

OpenAIのCEOであるサム・アルトマン氏は、過度に強力なAGIが「人間を殺す可能性がある」という見方を否定していないと述べました。(AIが人を殺す)可能性はあると認めざるを得ない。AI の安全性と課題に関する多くの予測は間違っていることが証明されており、私たちはこれに直面し、できるだけ早く問題の解決策を見つけようとする必要があります。

マスクは人工知能について何度も懸念を表明しており, 人工知能は将来の人類文明にとって最大のリスクの1つであると考えている. その脅威は, 自動車事故, 飛行機の墜落事故, 麻薬の氾濫などよりもはるかに高い.核兵器よりも危険

したがって、超人工知能はまだ初期段階にあるため、AI が人間に混乱や死をもたらす可能性があることは否定できません。AIの開発を研究および評価し、AIが開発中にリスクをもたらさないようにするために、最初から慎重なアプローチをとらなければなりません。不測の事態を回避するために、人工知能の開発を効果的に監督および管理するために、適切な技術、評価システム、またはポリシーを採用する必要があります。

参考資料:日刊経済新聞

その他の情報ダウンロード

人工知能関連の学習ルートと知識システムについて引き続き学習したい場合は、私の別のブログ「ヘビー| 完全な人工知能 AI 学習 - 基礎知識学習ルート」をお読みください。すべての資料は、料金を支払うことなく、ネットワーク ディスクから直接ダウンロードできます。このブログ
は、Github の有名なオープン ソース プラットフォーム、AI テクノロジ プラットフォーム、および関連分野の専門家 (Datawhale、ApacheCN、AI Youdao、Dr. Huang Haiguang など) を参照しています。約 100G の関連資料があります。すべての友達を助けます。

おすすめ

転載: blog.csdn.net/qq_31136513/article/details/129850280