AI ゴッドファーザーのヒントンと OpenAI CEO のサム アルトマンが警告を発しています: AI は人類を絶滅させる可能性があります!

9347d85278aa489834b033ccf898f830.gif

整理 | Tu Min

出品 | CSDN(ID:CSDNnews)

1 年も経たないうちに、AI の発展は誰もの想像を超えており、制御を失う大きなリスクがあります。

ちょうど今日、世界トップクラスの AI 研究者、エンジニア、CEO の何人かが、AI が人類にもたらす実存的脅威について新たな警告を発し、22 文字の声明に連名で署名しました。

AI によってもたらされる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきです。

03130650cf638a412625c012e78d3783.png

この声明は、サンフランシスコに拠点を置く非営利団体AI安全センター(CAIS)が発表した。

この声明が発表されると、トロント大学コンピューターサイエンス名誉教授のジェフリー・ヒントン氏と、トロント大学コンピューターサイエンス教授の「AIのゴッドファーザー」ヨシュア・ベンジオ氏にすぐに受け入れられたことは注目に値する。モントリオールとチューリング賞受賞者、Google Deepmind CEO デミス・ハサビス、OpenAI CEO サム・アルトマン、そして中国科学院オートメーション研究所の脳型認知知能研究所の所長兼教授である曾儀は、約 400 人の専門家によってサポートされています。学界、産業界、大学から。

bca20d7c73fa620b500eecc3ded62dbe.png

bbdc473e9491e67d5352eda424558b4f.png

ますます人間に近いAIが登場

実際、OpenAI の ChatGPT、Microsoft の新しい Bing、Google の Bard などの生成型人工知能ツールがより多くのグループにアクセスできるようになるにつれて、AI の誇大広告に対する業界の声が高まっています。

これに対し、多くの学者や経営者は次のような懸念を表明している。

  • 今月初め、トロント大学のコンピューター サイエンスの名誉教授であり、「AI のゴッドファーザー」であるジェフリー ヒントン氏が Google を離れることを選択したとき、彼は外の世界に対して次のように語った。 「真剣であるべきだと人々に思い出させるために『笛を吹く』ことだ。人工知能が人間をコントロールするのを防ぐ方法を考えてください。」

  • OpenAIの最高経営責任者(CEO)サム・アルトマン氏は、2週間前に自社や機関が生み出した人工知能技術の潜在的な危険性について米上院公聴会に初登場した際、彼は逆の行動を取り、政府各省に人工知能技術と業界のAI技術を批判するよう促し実施および監督に関する政策は、そのようなシステムがもたらす可能性のある「潜在的なリスク」を軽減することを目的としています。

それだけではなく、ユーザー個人もAIの「怖さ」を感じています。

Reddit では、あるネチズンが Microsoft の新しい Bing を使用していると投稿しましたが、Bing Chat は出典のないコンテンツを提供しているため、この回答に疑問を感じました。

期せずして人類はAIに「敗北」した。AIも「あなたの口調や態度が気に入らないので、この会話はここで終わりにします」と言いました。

最後に、AIはネットユーザーに「今後はもっと敬意と礼儀を持ってください」とも警告した。

3090117c52e0a5c842d51f1f90c31f6b.png

これには1万2,000人のユーザーも注目し、「このAIはますます人間らしくなった」というメッセージを残したほか、「人工知能を人間の知識で訓練すれば、人間のように反応するようになるだろう」と指摘する人もいた。そう考えるとすごいことですが、当然心配でもあります。

4de4c32fff7dafcec0cff7596d9ee7a7.png

声明が発表されるとすぐに合意に達する

今回の CAIS 声明の発表がいわゆる「言葉は少ない方が重要」であることは事実が証明しており、これがこれほど多くの専門家や学者の注目を集める理由は、一方では主に問題であるためである。多くの人が早急に解決すべきと考えている問題である一方、今回の声明では、どのようなリスクが存在するのか直接的には明らかにされておらず、「壁」を設けるのは同じ過ちを繰り返さないためでもある。

2か月前、非営利団体「Future of Life Institute」(フューチャー・オブ・ライフ研究所)が、同じチューリング賞受賞者のヨシュア・ベンジオ氏、バークレーのコンピュータサイエンス教授スチュアート・ラッセル氏、テスラCEOのエリック・ロング・マスク氏らに公開書簡を出したことを今でも覚えている。 Appleの共同創設者スティーブ・ウォズニアックらが署名した。

公開書簡では、GPT-4よりも強力なトレーニングシステムを6か月間一時停止するよう強く求めている。その理由は、これらのモデルには社会と人間に対する潜在的なリスクがあるためであり、「強力な人工知能システムがプラスの効果をもたらし、そのリスクが管理可能であると確信している場合にのみ、開発されるべきです。この自信は正当な理由によって裏付けられている必要があります。」そして、システムの潜在的な影響の規模に応じて増加します。」

しかし、この書簡が公開されると、さまざまなレベルで批判され、一部の専門家は、公開書簡は人工知能によってもたらされるリスクを誇張しすぎていると信じていました。違いを認めてください。

そして今回、このような短いメモを発表して、CAIS組織はウェブサイトで「人工知能の専門家、ジャーナリスト、政策立案者、そして一般の人々は、人工知能によってもたらされる幅広い重要かつ緊急のリスクについてますます議論するようになっている。それでも、明確に述べている」と述べている。 「高度な AI の最も深刻なリスクのいくつかについての懸念は難しいかもしれない。この簡潔な声明は、そのハードルを乗り越えて議論を始めることを目的としている。また、増え続ける専門家や一般の人々に参加してもらうことも目的としている。インテリジェンスに対する最も深刻なリスクのいくつかは次のとおりである」真剣に受け止められるように共有します。」

ニューヨーク・タイムズ紙によると、人工知能セキュリティセンターのエグゼクティブディレクター、ダン・ヘンドリックス氏は、今日の声明は、AIの脅威を軽減する潜在的な方法を示唆することなく、そのような分断を避けることを目的とした簡潔なものであると述べた。ヘンドリックス氏は、「30の潜在的な介入の膨大なリストを押し上げたくなかった。そうなると、より重要な情報がかき消されてしまう」と語った。

同時にヘンドリックス氏は、「体系的な偏見、誤った情報、悪意のある利用、サイバー攻撃、兵器化はすべて、人工知能によってもたらされる重要かつ緊急のリスクである」とも指摘した。

他の専門家は、AI システムがある程度の洗練度に達すると、その動作を制御できなくなる可能性があると考えています。

簡単に言えば、このような発言があれば、関係者は一定の合意を持ち、「AIによる絶滅のリスクを軽減する」ために協力して提案し、協力することができるということだ。

76019a8a708a3111a812ab4b5517a54e.png

OpenAIの競争力のある動きは?

また、OpenAIが強く支持したこの声明を、OpenAIがチャンスを掴んだと見るメディアもあったが、結局のところ、マスク氏は以前にも人工知能のリスクについて語ろうとし、AI開発の中止を訴えたことは間違いない。そうすることは、生成 AI 分野における OpenAI の地位と進歩を妨げることになるでしょう。

現在、CAISの最新の声明はAIのリスクを軽減する方法に焦点を当てており、また外部の世界がAI規制政策の策定について提案することを奨励しているため、モデル開発の直接の停止を求める業界の声は自然に減少することになる。 GPT-4より強力。

これまでのところ、AI 絶滅のリスクについてどう思いますか? 実際の応用において、想像を超える AI の力を感じたことはありますか? メッセージを残して共有することを歓迎します。

参考:

公開書簡のアドレス: https://www.safe.ai/statement-on-ai-risk#open-letter

https://techcrunch.com/2023/05/30/ai-extiction-risk-statement

https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai

https://old.reddit.com/r/ChatGPT/comments/13vfrwm/i_feel_so_mad_it_did_one_search_from_a_random/

236ee7e6e502cf8408ec5deca30dcf5d.gif

おすすめ

転載: blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/130979397