4D 乾物: 10 人の科学と人文科学の達人が道教について話し合い、マックス テグマークが思考の火花を与え、AI 特異点の瞬間に一緒に直面します...

青い文字をクリック|フォローしてください

1a38032f4e106f31c4a8e14b14bcdff3.jpeg

a745010d8fa00ec9ab7affe14c976180.jpeg

779ed92f2a360d54105dd619889e6f68.jpeg

b6f4409074e08f54f7d32135e4d658e3.jpeg

2023年7月7日、人工知能世界会議(WAIC)組織委員会の指導の下、国際人工知能連盟(IJCAI)中国事務所と華東師範大学が共催、華東師範大学政治・国際関係学部が主催、華東師範大学特異点政治研究所、安源AI、HyperAIスーパーニューラルデータサイエンスコミュニティ、徳胡が共催。 i Technology Innovation Centerでは、「2023 IJCAI-WAIC大型モデルと技術特異点:人文科学と科学に関する対面フォーラム」が2023年7月7日に開催されます。上海の張江サイエンスホールの科学技術イノベーションホールは成功裡に閉幕しました

このフォーラムでは、国際的な人工知能のトップ専門家5名と人文科学における国内外の著名なリーダー5名が素晴らしいアイデアの衝突を行い、境界、プライバシー、道徳、秩序を備えた人間とコンピューターの共生の信頼できる未来を共同で構築するために、人工知能の超越的な発展にどのように対処すべきかを議論しました。

国際人工知能連盟(IJCAI)会長のクリスチャン・ベッシエール教授と華東師範大学副学長の顧宏梁氏がフォーラムに出席し、スピーチを行った。

このフォーラムは、テーマごとに2つの対話セッションと接続対話に分かれており、その記録内容は以下の通りです。

 ダイアログ 1: 生成人工知能の機会と課題?

このセッションのモデレータは、シドニー工科大学の副学長であり、IJCAI-2024 会議の議長である Zhang Chengqi 教授です。

張成啓: AI 科学者 2 名、人文科学者 3 名を含む 5 名のゲストをお招きしましたので、以下に自己紹介をお願いします。

e4982fafeb3f5bca740a6d30c2c14ffc.png

楊強:私は人工知能のアルゴリズムの研究に携わっています. 以前に転移学習について研究しました. いわゆる転移学習とは, 人間が 1 つの例から推論し, 類推して理解することができることを意味します, そして人間は機械にもこの能力を与えます. 転移学習は教師が生徒に知識を伝えるようなもので、知識があるモデルから別のモデルに伝達されます。最近はフェデレーテッド ラーニングを主に研究しています. いわゆるフェデレーテッド ラーニングとは, 学生が研究グループで一緒にプロジェクトを完了するようなものです. その過程でユーザーのプライバシーと権利利益が保護されます. 効率的かつ安全な分散機械学習アーキテクチャとして理解できます.

生成型人工知能の大きな発展により、推論機能を備えたAIや人間のような思考など、私が博士課程の学生だった頃に抱いていたアイデアの多くが実現しており、新しい時代の到来にとても興奮しています。

袁正国:私は華東師範大学の出身で、教育に従事しています。2020年、華東師範大学は上海知能教育研究院を設立し、温かみのある知的教育を発展させるというスローガンを掲げた。このスローガンは、単にテクノロジーから始めるのではなく、教育と人間開発から始めることを強調しています。したがって、私たちは人間の開発と教育の含意から出発し、人間の開発と教育の法則を尊重し、人工知能技術を使用して教育を高品質で、より公平で、より幸せなものにしたいと考えています。

徐吉林:私はリワ川のほとりで育ち、華東師範大学政治学部を卒業し、現在は歴史学部で教えています。私は、新しく出現した多くの事柄に非常に興味を持っていますが、つい最近、「反科学的見解」に関する記事をザ・ペーパーに掲載しましたが、ここでは詳しく説明しません。ChatGPTの誕生は人類史上数百年に一度の大きな革命であり、人類と文明全体を変えるものであると認識しており、非常に興味を持っています。

チェン・スーメイ:私は上海社会科学院哲学研究所の出身ですが、主な研究方向は 2 つあり、1 つ目は主に量子力学の哲学に焦点を当てた科学哲学、もう 1 つは人工知能の哲学です。量子情報技術の出現により、量子力学の哲学と人工知能の哲学が融合し、その結果、2つの研究方向も融合しつつあります。生成人工知能の発展は、人類の文明を新たな時代に導き、検討する価値のある多くのフレームワーク問題を抱えています。

66ee9bdaf73bcfccfd5aae67570dfa47.jpeg

 ダイアログセッション:

Zhang Chengqi: Yang Qiang 教授、大規模モデルと転移学習にはどのような関係がありますか?

Yang Qiang:ビッグ モデルの特徴の 1 つはその多用途性です。つまり、複数のタスクを完了できるということです。もう 1 つの特徴は、人間が微調整やプロンプトを行うときに、少し変更するだけで、学習した知識を他のモダリティに転送できることです。転移学習は、ニューラル ネットワークと従来の機械学習などの 2 方向の共通性と不変性を見つけて、2 方向間の距離を縮めることを目的としています。

マルチモーダル問題を解決できる究極の大型モデルです。マルチモダリティにより、1 つのインスタンスから他のケースに関する推論を引き出すことができ、サンプルがほとんどない、またはまったくない学習を実現できます。したがって、転移学習は大規模モデルの機能であり、大規模モデルにとって不可欠なツールです。さらに、産業への実装という点では、転移学習には大規模なモデルを包括的に作成する機会もあり、それが転移学習の役割であると私は期待しています。

Zhang Chengqi: Yuan Zhenguo 教授、生成型人工知能は教育にどのようなプラスの影響をもたらしますか?

袁正国:人類文明の進歩という観点から見ると、これは人類の知識の成長方法に大きな変化をもたらすと思います。これは教育と学習に 3 つの破壊的な影響を与えるでしょう。1 つ目は、答えを得ることから質問することへの変化です。第二に、知識の獲得から知識の識別への移行です。第三に、人間と人間の関係を人間と機械の関係に変える。

Zhang Chengqi: Xu Jilin 教授、ChatGPT の出現は歴史という主題にどのようなプラスの影響を与えるでしょうか?

徐吉林:次は皆さんが陳銀科になると思います。20世紀の中国で最も影響力のある歴史家である陳銀科氏は、十数か国語を知っており、注目すべき存在と考えられている。今日、ChatGPT に質問すると、Chen yingke の回答よりも完全な回答が得られるかもしれません。これは、人工知能が教科の教育モデルを破壊することを意味します。

同時に、ChatGPTの登場は、良い教師と良い生徒の評価基準を変えるでしょう。優れた教師とはChatGPTを超える指導レベルを意味し、優れた生徒とは知識を受動的に受け入れることから良い質問をする姿勢に変化する必要があるため、ChatGPTには生徒を革新的な人材に育てる機会もあります。

Zhang Chengqi: Cheng Sumei 教授、ChatGPT の出現は哲学にどのようなプラスの影響を与えるでしょうか?

Cheng Sumei:全体として、ChatGPT の出現は多くの伝統的な哲学的問題の議論を刺激しただけでなく、新たな哲学的問題をもたらし、哲学を技術開発の端から中心に移したと思います。AI は最初から哲学と結びついています。初期の人工知能の象徴性は、西洋哲学における合理主義の伝統を継承しており、ニューラル ネットワークと深層学習の台頭は、人工知能と環境との相互作用を強調するハイデガーの哲学的思想に対応し、ChatGPT の台頭は、社会性を反映して人工知能と人間の間の相互学習を強調するルートヴィヒ ウィトゲンシュタインの哲学的思想に対応しています。人間とコンピューターの対話がテキスト通信から自然言語対話に発展すると、人工知能の応用シナリオはさらに大きくなるでしょう。哲学的な観点から見ると、これは私たちに既存の哲学的枠組みと、技術の発展に伴って概念体系がどのように変化するかを再検討するよう促します。

Zhang Chengqi:この議論では主に人工知能のプラスの影響に焦点を当てていますが、主要なテクノロジーや革命はすべて課題やマイナスの影響をもたらす可能性があります。袁正国教授に聞いてもいいですか。生成人工知能は従来の教育制度を破壊し、教育に悪影響を与えるのでしょうか? 多くの保護者は、人工知能の発展により多くの職業が消滅するのではないかと心配していますが、専攻の選択についてアドバイスをいただけますか。

Yuan Zhenguo:まず第一に、インターネットと人工知能は段階的な学習方法に挑戦しました。従来の学校のカリキュラムの設定、ライティングの指導、教師の要件はすべて段階的に行われます。しかし、現在の知識の提示方法にはその制限はまったくなく、学校に通っていない子どもでも量子力学やブラックホール理論などの知識を独学で学ぶことができます。第二に、知識の体系的な性質です。従来の大学教育では、カリキュラムに明確な階層があり、基礎科目、専門科目、応用科目に分けられます。しかし、検索エンジンの普及により、体系的な知識体系に依存することなく、いつでも必要に応じて必要な情報を検索することができ、いつでも質問して答えを求めることができるようになりました。私たちの教育システムは、長い間段階的かつ体系的に構築されてきました。これら 2 つの基盤が崩壊した場合、新しい背景、ネットワーク、人工知能、大規模モデルに適応する新しい形式の教育を構築する方法を考える必要があります。

その中で、多くの職業が大きく変わっていくことになると思いますが、私は教職という職業は依然として非常に重要で、かけがえのないものであると考えています。親が子どもの職業選択をどのようにサポートできるかについては、子どもの興味、能力、知識構造、親のネットワークリソースなどに応じて総合的に検討する必要があります。

7a5414233cb8b5f477d3189559741480.jpeg

張成啓: 徐吉林教授、生成型人工知能の素晴らしいパフォーマンスは人類社会に影響を与えるでしょう、これはパンドラの箱を開けるのでしょうか? 「はい」の場合、どのように対処することをお勧めしますか?

徐吉林:昨日、世界人工知能会議の開会式で、黄仁勲氏は、人工知能の次の波は具現化されている、つまりロボットが身体を持ち、擬人化されたロボットであると述べました。同氏は、今後5~10年で人工知能が解決すべき問題はデジタル生物であると述べた。ある意味、現在の人工知能には肉体はなく、知識と知恵さえあるだけで、感情機能のスイッチがオフになっている。自然人として、この人工知能に自己認識を持たせるべきかどうかという問題は哲学的な問題です。

人間と機械の関係を探求する多くの SF 映画が今日現実のものになっています。ロボットが自己認識を獲得すると、いくつかの異なるシナリオが生じる可能性があります。自然の人間とロボットが共生する可能性もあるが、ロボットが新たな独立種となり、自然の人間と種の対立が生じる可能性もある。私たちに制御能力や制御感覚がなければ、種間の戦争に直面することになります。今日、ケイ素ベースの生物を炭素ベースの生物として理解することは限られています。AI が人間の制御を超えて一定の転換点を超えると、独自の論理と合理性、および選択と感情の機能が発達する可能性があります。原爆や核技術の発明と同様、何らかの規制や管理がなければ、壊滅的な結果をもたらす可能性があります。

哲学的な観点から見ると、人工知能を制限するには人間中心の前提、あるいは人工知能と対等な立場で共存しようとするポストヒューマニスト的な前提が必要です。しかし個人的には、未知のものに対しては慎重になりたいと思っています。結局のところ、炭素ベースの生物は何万年にもわたって自然進化を経験しており、自己防衛機構を備えています。しかし、私たち人間は神のような新しい人間を生み出すには賢すぎるので、AIが制御できないと気づいたときには手遅れになるかもしれません。したがって、人工知能の開発が人類にとって有益であり、予測不可能なリスクをもたらさないことを保証するために、AI産業の世界的なルールを策定する国際機関を設立する必要があることに私は同意します。

Zhang Chengqi: チェン教授、炭素ベースの生命とシリコンベースの生命がどのように調和して生きられるかについて話してください。物事が制御不能になった場合、私たちは調和して暮らすことができますか?

Cheng Sumei:私の考えでは、炭素ベースの生命とシリコンベースの生命は、まったく異なる種類の生命です。知能に関する限り、人間の知能と機械の知能の間には少なくとも 3 つの違いがあります。まず、起源が違います。人間の知能は長期的な進化の産物ですが、機械の知能は誕生してまだ 60 年以上で、アルゴリズムとコンピューター ハードウェアの相乗効果によって生まれています。機械知能には実体性と自律性があり、その自律性の度合いが徐々に強まっており、これまで私たちが形成してきた一連の統治手法、制度体系、概念的枠組み、考え方に新たな課題を突きつけています。

第二に、メカニズムが異なります。人間は生物学的知性であり、機械は物理的知性です。「チューリング理論」が提唱されて間もなく、カナダの理論物理学者で科学哲学者のバンジは、2 つのタイプの知能の違いは、模様のある布とシマウマの違いに似ていると指摘し、機械知能は物理システムに基づいていると考えました。それは人間のエージェントの知能であって、人間の知能そのものではない、と考えました。私の考えでは、人工知能を人間の想像力と同一視してしまうと、テクノロジーの神格化、あるいはテクノロジー崇拝の時代が到来し、恐怖のテクノロジー脅威論に陥り、間違いなくテクノロジーの発展を妨げることになると思います。しかしその一方で、人工知能などの技術は社会からの評価を受けて今後の発展の方向性を決める必要があります。したがって、技術開発の監督とガバナンスを強化する必要があり、統合的なガバナンスメカニズムを模索する必要があります。

第三に、適用範囲が異なります。人工知能と人間の知能は、相互排除ではなく補完関係にあり、人工知能は人間のパートナーとなるべきであり、人類はこれからも「人と機械の双方向知能」の時代を迎えます。私たちは人間とコンピューターの協力のさまざまな応用シナリオを模索し、相互排他的ではなく、人間とコンピューターの相互作用と双方向のインテリジェンスを強化する必要があります。

全体として、シリコンベースの生命は人間と道具の間にある新しいものであり、人間にとって物質的なアシスタントです。人類に対するケイ素系生命体の脅威は、それが超能力を備えた生命体へと発展することにあるのではなく、この発展が人類の追求する自動化を生産分野から知識、思考、さらには意思決定の分野にまで拡大し、人間の肉体と精神の技術的プロセスを加速させ、「人間とは何か」という問いが古代の哲学的命題から今日の実践的命題に変わったことにある。この意味で、シリコンベースの生命体がコントロールを失って人類が滅亡するのではなく、新たな文明変革の過程で「人間性」の傲慢さによって人類が自滅する可能性があるということです。したがって、私たちは文明変革の出発点から新たな旅を開始し、人間の人生の意味と精神的領域をいかに向上させるかに焦点を当て、「人間であること、人間になること」という第二のプロセスに引き込む必要があります。第一のプロセスは人間を自然から切り離すことであり、第二のプロセスは人間の本性を真に理解し、意識的に保護することです。

Zhang Chengqi: Yang Qiang 教授、人工知能研究手法の次のステップは ChatGPT の影響を受けると思いますか? もしそうなら、次の調査方法についてどのような提案がありますか?

楊強氏: 近年、人類は科学研究において多くの技術的変化に遭遇していますが、これは課題であるだけでなく、チャンスでもあります。一部の領域は重要性が薄れるかもしれませんが、新しい領域が出現するでしょう。あらゆる科学技術の変化は何らかの新たな機会をもたらし、私たちはこれらの新たな機会に注意を払うべきであり、真に革命的な変化も考えられるかもしれません。私たちは、私たちの脳が大きく、ニューロンの数も限られていることを認めていますが、いつかニューラル ネットワークのニューロンが私たちを追い越し、特定の科学的問題の解決において私たちよりもはるかに優れているかもしれません。そのとき、科学研究者は仕事のやり方を変える必要があるでしょう。おそらく 10 ~ 20 年後には、一部の自然科学や社会科学の学部では人間の数が非常に少なくなり、より多くの人工知能が研究を支援するようになるでしょう。

b65a65ae276e0f997de500cab8d37a4a.png

b4c5a2e4dea9d4d6c82230df76cc9c56.png

8759c1b41bc0339b3c19692f75147f15.png

c4e5e4e2a20fc561d6915f80da7d2554.png

 Max Tegmark は人間が AI を制御する方法を共有します

このセッションのホストはAnyuan AIの創設者であるXie Minxi氏であり、ゲストのMax Tegmark教授を聴衆に紹介しました。

テグマーク教授は世界的に有名な物理学者、宇宙論者であり、人工知能の科学者でもあり、近年は大規模言語モデルなどの解釈可能性の問題や、MIT で知能が発生する理由に焦点を当てています。同時に、Future of Life Institute の創設者でもある同氏は、3 か月前に公開書簡を発行し、AI 開発の安全性と制御可能性を確保するために、GPT-4 より強力な AI システムの開発を少なくとも 6 か月間一時停止するよう求めました。

ライブ ブロードキャスト コンテンツと Q&A セッションの完全版については、次のリンクをクリックして表示してください。

 10年後、AIは人類の文明に特異点の瞬間をもたらすでしょうか?

ダイアログ 2 のモデレーターは、IJCAI 中国事務所事務局長のシャオ・イーレイ博士です。

シャオ・イーレイ今回の対談のゲストの顔ぶれは非常にエキサイティングで、IJCAI中国事務所と華東師範大学政治・国際関係学部が協力して、理系のAI科学者と文系の歴史家、哲学者、政治学者を集めて、人工知能の発展とそれが私たちにもたらす混乱について話し合うという初めての試みに取り組んでいます。ニューヨーク大学上海学長のTong Shijun教授、ニューサウスウェールズ大学新AI研究所主席研究員、オーストラリア科学アカデミー会員のToby Walsh教授、華東師範大学政治・国際関係学部長、シンギュラリティ政治研究所長のWu Guanjun教授、シドニー工科大学副学長、IJCAI-2024会議議長のZhang Chengqi教授、まずはゲスト5名に自己紹介をしてもらいます。

a3755ccc00db954507e64c273ce736aa.png

Tong Shijun:私の名前は Tong Shijun です。私は現在ニューヨーク大学上海校の学長を務めており、現在も華東師範大学哲学学部の教授を務めています。私は 1988 年からコンピュータを使っていますが、コンピュータの仕組みについては全くの知識がありませんが、コンピュータの応用や情報技術、人工知能が社会に与える影響についてはずっと興味を持っていたので、このような機会をいただけて大変うれしく思っています。

トビー・ウォルシュ:過去 50 年間、私は人工知能について夢を見てきました。そして過去 40 年間、その夢を現実にしようと努力してきました。私はオーストラリアのシドニーにある UNSW New AI Institute の主任研究員であることを光栄に思います。同研究所では、人工知能の責任ある使用が当研究所の中核研究の 1 つとなっています。このテクノロジーは研究室に導入され、私たちの生活の非常に重要で、非常に影響力のある部分になりつつあります。ですから私たちには科学者として考える責任がありますが、また、テクノロジーが責任を持って使用されることを保証する方法について、弁護士、倫理学者、社会学者、政治学者、そして社会全体を含む多くの人々を会話に巻き込む責任があります。

呉冠軍:私は華東師範大学政治国際関係学部長の呉冠軍と申します、本校も本日の​​主催者の一人です。今日、学術研究の分野の壁は開かれるべきであり、研究の視野を特定の狭い分野に限定することはできないと私は考えています。今日、さまざまな分野の多くの学者が、専門分野の安全地帯を飛び出して、時代の大きな問題について一緒に考えています。今日ここにいる学者の皆さんと、私たちが直面する可能性のあるシンギュラリティ型の課題について話し合うことを楽しみにしています。

張成啓「私は 1982 年に人工知能の研究を始め、40 年以上研究してきました。現在はシドニー工科大学の副学長を務めています。より多くの若者にこの分野への参加を広め、奨励したいと考えています。この機会に 2 つの会議を推進したいと思います。1 つ目は、今年 8 月 19 日から 25 日までマカオで開催される第 32 回人工知能国際共同会議です。人工知能は 2,500 人が参加すると予想されています」この会議には専門家が参加し、2つ目は来年7月13日から19日まで上海で開催されるIJです。来年の会議の議長として、私は皆が互いに学び合い、共に進歩できるように、皆がぶつかり合い、コミュニケーションできる場を提供したいと考えています。

Li Bo:私は UIUC の出身です。私の研究は主に機械学習の信頼性を中心に展開しています。2018 年のユーザーの物理的な一時停止標識からその後の攻撃探索に至るまで、CV、NLP、大規模モデルなどの AI のさまざまなモデルが非常に脆弱であることがわかりました。現在、当社の信頼性は、GPT-4 および GPT-3.5 の脆弱性と制限に関する評価と研究です。これには人文科学に関連する金融と倫理が含まれます。したがって、私はまた、この機会を利用して、人間主義的な観点から、さまざまな垂直分野のさまざまなモデルの信頼性の問題をより深く理解する方法を教師から学びたいと思っています。

シャオ・イーレイ: 5人のゲストの皆さん、ありがとうございました。フォーラムの第2部では、より多くの対話と対立が行われる予定です。皆さんが積極的に異なる意見を表明してくれることを期待しています。最近、あらゆる分野のAI学者と人文科学者の両方が人工知能について議論しています。誰もがこれまで認識していた問題では、一般的な人工知能が問題を考慮する必要があるのは少なくとも 50 年後です。しかし今、学界もあらゆる界隈も、この問題は目前に迫っていると感じている。人間が人工物体と主体間で相互作用したのはこれが初めてのようだ。ChatGPT に直面すると、ChatGPT と私たちの関係が主体と客体の間の支配関係であるかどうかは、もはやそれほど明確ではありません。

フランスの哲学者であり社会学者であるブルーノ・ラトゥールの「アクターネットワーク理論」の核となる命題は、「人間以外の」ものもアクターであり、他のアクター(「人」)と平等に「触れ」、「触れられ」、ネットワークのような関係を形成するというものです。ラトゥールの本の中で唯物論者はこう言いました:「私たちは自分が持っているもの、少なくとも手に持っているものです。」 それでは、銃の100万倍強力なAIモデルを身に着けたとき、人は何に変身するのでしょうか?このAIは何に変身するのでしょうか?今回は「AIと人間がどのように関わっていくのか」についてお話します。今日の参加者のリストには、学生、AI学者、この分野の起業家、企業経営者、公務員などが含まれており、全員がこの分野に興味を持っています。最初の質問から始めましょう。

a32e682fc62f15e10907338cfd4ad8d8.jpeg

 ダイアログ 

シャオ・イーレイ: 「AIGC と AGI とは何ですか?」 ここで最年少の人工知能研究者である李波教授が教えてくれます。

李波: AIGCとはAI Generative Contentの略で、主に画像の生成など生成に関するもので、昨年から普及モデルに新たなブレークスルーがあり、生成される画像の品質は非常に高いです。次に、GPT (Generative Pre-trained Transformers) や、自己回帰生成モデルとオリジナルのエンコーダー デコーダー タイプの生成モデルとの比較を含む、NLP 分野の生成モデルがあります。これらの生成シナリオでは、AI と人間の生活との関係がより密接になり、人間の創造性も刺激され、機械や知能とのコミュニケーションが新たなレベルに引き上げられます。

AGI とは Artificial General Intelligence の略で、ここでいう一般とは 2 つの観点から説明できます 1 つは、人間やさまざまな動物が現在できることを Intelligence Task Machine が実現できるということです。さらに言えば、人間をも超える可能性もあります。AIGC の急速な発展により、AGI の時代が到来し、セキュリティについての議論や考え方がさらに増えることになります。

Shao Yilei:  ChatGPT が 2022 年 11 月 30 日にリリースされた後、私たちは突然 AI の時代に引き込まれました。ウー・グアンジュン教授とトビー・ウォルシュ教授に次の質問に答えてもらってください: 「なぜこの画期的な進歩は大規模な言語モデルから得られるのでしょうか? 言語を習得することは人間の知性を表すのでしょうか? 今後 5 年間の見通しはどうなりますか?」

ウー・グアンジュン:言語の重要性に注意を払う必要があります。人文科学や社会科学の多くの研究に影響を与える概念は、言語的転向と呼ばれます。言語は、人間が自分たちの「世界」と関わるための媒体です。インターネット上の大量のテキストでトレーニングされた大規模な言語モデルは、「言語以前の秩序」ではなく、人間の「世界」を学習します。異なるコピー間で重みを直接共有できるため、学習速度が非常に速く、継続的な規模の改善を経て、ほぼ普遍的な知性が「出現」します。人間は言語を通じて聞き、話し、読み、書きますが、その入出力速度はディープ ニューラル ネットワークを使用した大規模な言語モデルに比べてはるかに劣ります。時々間違ったことやナンセンスなことさえ言ってGPTを笑っているときでも、たとえそれがよく考えられているように見えても、私たちの言うことは非常に信頼性が低く、間違いが含まれていることを忘れないでください。覚えておいてください、大きな言語モデルは思慮深いものではなく、それが出力するものをまったく「理解」さえしませんが、「世界」のあらゆる側面の記述は人間よりも高速かつ高品質です。この意味で、人間の知性は根本的に挑戦されることになるでしょう。

Toby Walsh:大きな言語モデルが言語をマスターするとは思いません。人間の知能は過大評価されていますが、機械の知能も過大評価されており、これらのモデルが言語の理解力が非常に低いことを証明する例は数多くあります。人間がコミュニケーションに必要とする知性はほとんどありませんが、大規模な言語モデルを使用して完璧なビジネスレターを書いたり、ウィリアム・シェイクスピアのスタイルで詩を書いたり、さらに素晴らしいコンテンツを書いたりする場合、これらのタスクは人間よりもはるかに多くの知性を必要とすると考えられます。彼らが完璧なビジネスレターを書ける理由は、ビジネスレターが非常に定型的であり、大規模な言語モデルに十分な例を与えれば、統計的に類似した内容を探索するだけですが、彼らはこれらの単語の意味を実際には理解していないからです。

たとえば、モデルにピカソの描いた猫とピカソの猫が描いた絵の2枚を要求すると、モデルは言葉の関係が分からず、似たような写真を送ってきます。

私たちがあまり進歩しているとは思えません。実際、私たちが行っているコミュニケーションの多くは非常に定型的なものであり、現在私たちはその定型を学習するためにコンピューターを使用していますが、それはそれらのコンピューターがこの種の知能を持っているという意味ではありません。これらのモデルは、単語や単語間の関係を理解するだけでなく、他の多くのことを推論するときに失敗することがよくあります。

したがって、言語だけでなく、機械が学習する他の音声モダリティを通じても、マルチモダリティの分野で根本的な進歩を遂げる必要があると私は依然として考えています。私たちはまだ大きな挑戦が待っていると思います。言語モデルは、言語の理解が始まる場所であるため、これの重要な要素になります。ただし、複雑な状況に関しては、これらのモデルはまだかなり限定されていることに注意してください。

b587728be7690db1889f442dbfe14d48.jpeg

Shao Yilei:私はあなたの意見には同意しませんが、このセクションの最後の質問について議論します。ここで李波教授に聞きたいのですが、「現在利用可能な計算能力は徐々に枯渇しており、利用可能な公開データも減少しています。AIの発展は持続可能なものなのでしょうか?ということは、AIの進歩についてあまり心配する必要はないということなのでしょうか?」

李波:公開されているデータはあまりありませんが、英語のデータで言えば、海外で最も人気のあるRedPajamaはLLaMAの手法に従って直接作られています。このデータでトレーニングされた公開モデルはすでに非常にうまく機能しており、公開データセットからの知識の取得がそれほど難しい技術ではないことを示唆しています。このような高品質のモデルには、脆弱性と限界が依然として存在します。たとえば、GPT-4 には、堅牢性、プライバシー、商業上の問題がまだいくつかあります。

コンピューティング能力の点では、必ずしも集中型クラスターが必要というわけではなく、分散型コンピューティング能力リソースを使用できますし、そのようなリソースはまだたくさんあります。モデルの仕組みや実際の展開の限界を事前に理解しておく必要があります。

シャオ・イーレイ:次に、時間を 10 年戻して、2033 年に人間と AI の関係がどのようになっているか想像してみましょう。AIは危険ですか?なぜ?人間とAIの関係をどう考えるべきか?下を向いているのか、上を向いているのか、それとも上を向いているのか?他の視点はありますか?

童世軍:最終的にAIが人間とどのような関係を築くかは人間が何をしたいかによって決まりますが、人間もまた世界を理解する過程で自分自身を知り、世界を変革する過程で自らを変容させます。人工知能は私たちにとって有益な多くのことを行うことができますが、私たちにとって有害なことも行う可能性があり、その有害なことが非常に深刻で、人類の生活条件を根本的に変えるほど深刻である場合、たとえその可能性がわずかであったとしても、私たちは特別な注意を払う必要があります。この点で、人工知能と人間の関係を適切に扱うためには、中国の「心配」の伝統と古代ギリシャの「不思議」の伝統を組み合わせることが非常に重要です。

私は、「終末の発明」と題された2015年のニューヨーカー誌のレポートを思い出します。そこでは、AI開発の最前線に立つ深層学習の権威であり、AIの危険性について声を上げるために2か月前にGoogleを辞任したジェフリー・ヒントンが、オックスフォード大学人類未来研究所所長のニック・ボストロムと会議中に会話しました。ヒントンは当時すでに人工知能の危険性を認識しており、人工知能は間違いなく人々や組織によって悪用されるだろうと信じていました。そこでボストロムは彼に、なぜあなたはまだこの分野で研究をしているのですかと尋ねました。彼はこう答えた、「普通の議論はできるが、より基本的な真実は、発見の見通しが甘すぎるということだ。それにどう対処するか議論するのはあなた次第だ。」

ヒントンとオッペンハイマーの言葉は、古代ギリシャ以来の好奇心の伝統を如実に表していると言えるでしょう。プラトンは「驚きは哲学者の感情であり、哲学は驚きから始まる」と言い、アリストテレスは「古代から現代に至るまでの人々はここから探求を始めた。自然界の万物への驚きから出発すべきだ」と述べた。

対照的に、徐福寛や蒙宗三などの多くの現代中国哲学者が、さまざまな哲学的伝統の起源を比較したときに述べたように、中国哲学の最も基本的な精神は緊急性の認識です。

好奇心と危機感、どちらが大切ですか? 私の意見では、欠けているほうがより重要です。中国の科学の発展を振り返るとき、中国は学者の道徳的育成と世界の利益の追求に重点を置きすぎており、それが知識の大きな進歩や永続的な進歩に役立たないと感じることがよくあります。つまり、中国人の「好奇心の欠如」に対する「危機感」が必要だということだ。しかし、オッペンハイマーとヒントンの言葉は、原子力技術や人工知能などの科学技術は、好奇心そのものがもたらす社会的影響を認識する必要があることを思い出させます。「好奇心の不足」だけでなく、「不適切な好奇心」に対しても危機感を持たなければなりません。

この観点から、私は人工知能開発のリスクについてマックス・テグマーク教授が述べたことに同意するだけでなく、このリスクに対処する上で中国人が重要な役割を果たす可能性があるという教授の指摘にも同意します。中国文化の危機感に関する伝統的な観点を用いて彼の見解に議論を加えたいと思います。

ウー・グアンジュン:人間コミュニティの組織形態に対するテクノロジーの実質的な影響を研究するテクノポリティクスと呼ばれる科学がすでに存在しますが、多くの場合、私たちはこれらの影響に目をつぶっています。テクノロジーは知性において人間を上回るかもしれませんが、それでも私たちは政治的知恵を発展させ、その知恵を利用して私たちを組織し、GPT時代の文明的な課題に対処することができます。

fbfc4b525c9e355ed8023d8130ac0cfe.jpeg

シャオ・イーレイ: AI 開発が人間にもたらす利益とコストは何ですか? その利点には、新しい雇用の機会、労働効率の向上、誰もが非常に安価かつ簡単に独自のメタバースを作成できることが含まれることが知られています。同時に、これは元の雇用の喪失や二酸化炭素排出量の増加など、多くのコストももたらします。OpenAI の大規模モデルを例にとると、1 年間のモデル推論による二酸化炭素消費量は、およそ人間数百人分に相当します。これは新たな形の搾取につながるのでしょうか? たとえば、大規模なモデルとコンピューティング能力を持つ人々は、新たな搾取階級となるのでしょうか? この問題について、張先生のご意見を聞きたいです。

張成啓:この質問は非常に重要かつ壮大ですので、この壮大な質問から 1 点だけお答えさせてください。大規模なモデルには、非常に優れた答えが得られ、効率が向上し、エネルギーが節約されるなどの良い面もありますが、同時に、ロジックや深い思考には明らかな欠点がまだあります。たとえば、高速な計算や掛け算についていくつかの質問をすると、間違った答えや欠陥のある答えが返されます。

私はアプリケーションドメインを「エラー感度」という観点から定義することを提案します。エラーの感度が非常に高いドメインでは注意して使用するか、人間の専門家によるレビュー後にのみ使用してください。医学的診断、法的判断など。エラー中立ドメインでは、決定はエラー率に基づいて行われます。例: 株式取引。エラー率が 50% 未満であれば使用できます。エラーの感度が非常に低い領域 (または、正しいか間違っているのか区別できない領域) では、先に進んでください。たとえば、詩を書く、絵を描く、物語を語るなど、生成システムが「真面目にくだらない話をする」としても、それは問題ではありません。研究者らは、各ドメインの「エラー感度」を決定しました。

シャオ・イーレイ:トビー教授、あなたは最近の記事で、「私の懸念は、ヒントンとフィンレーが警告した非常に現実的で予想される問題に取り組んでいる間、さらに大きな何かを見逃してしまうのではないかということです。物事)」とおっしゃっていましたが、ここで言う「さらに大きな何か」とは何を指しますか? この文を説明してもらえますか?

トビー・ウォルシュ:これは実際には 2 つの「懸念」のことです。長期的には、これら 2 つの懸念は人類史上最大かつ最も深刻な懸念になるでしょう。人類の文明、文化的知識、科学的知識はすべて、数カ月以内に AI によって収集され捕捉されました。AI は人間の知性をまったく尊重せず、これらの知的財産を作成した人間に何の価値も与えませんでした。私たちはソーシャルメディアがユーザーの個人データを収集することを以前は心配していましたが、それが人類の知識の総体を放棄し、少数の企業がそこから利益を得ることを意味し、社会全体を貧困化させることを意味するとは全く知りませんでした。以上が第一の懸念点です。

2番目の、より差し迫った懸念は、人間はソーシャルメディアから何も学べないのではないかということです。ソーシャル メディアはユーザーを結び付ける一方で、政治的見解の二極化など人間間の分断を悪化させ、さまざまな方法でソーシャル メディアへの投稿を通じて危害を与えたり、暴力を扇動したり、支援する人たちに当惑を与えたりするために利用されています。大量のデータは、ソーシャルメディアの使用が幸福感を高めるどころか、不安を増大させる可能性があることを示しています。そして、こうした怪我は予期せぬことが多いのです。

同様の生成AIの登場により、私たちも同じことを経験しているのではないかと心配ですが、数年後にはどうなっているでしょうか?何が害をもたらすのでしょうか? ソーシャルメディア上の「悪」は人間の行為から来ており、すべて誤ったニュース、すべての極端な見解がこれらのツールによって使用され、生成AIを通じてソーシャルメディアを拡張し、パーソナライズできるようになり、いくつかの否定的な適用例が現れ始めています。特に米大統領選挙を控え、共和党は選挙運動員を立ち上げており、動画内の画像はどれも異なっており、どれも本物ではない。私たちは、真実と偽物を見分けることが不可能で、すべての写真、すべてのビデオ、すべての音声が改ざんされる可能性がある世界に閉じ込められている可能性があります。そして、何らかのメディアについて話すとき、私たちが語られることはすべて、ある種の合成要素の産物にすぎない可能性があることに留意する必要があります。したがって、存続リスクや次に何が起こるかを心配し始める前に、私たちは今非常に緊急の課題に直面していると思います。

22939dcf5ebf8b572ebe1daf95db562d.jpeg

シャオ・イーレイ: AI の開発は規制されるべきですか、またどのように規制されるべきですか? 何を規制する?誰がそれを監督するのでしょうか?

童世軍:核兵器やエネルギーの規制と同じように、人工知能の規制にも国際協力が必要です。しかし、両者の間には違いもあり、核兵器と原子力エネルギーの研究開発はより集中的で政府資金との関連性が高いのに対し、AIの研究開発は民間資本や非政府活動との関連性が高いため、対応する国際的な監督や各国政府間の協力の監督だけでなく、地球規模での非政府組織や非営利組織の監督も必要である。言い換えれば、人工知能の規制には「国際主義的」な視点が必要ではなく、「国際主義的」な視点が必要なのです。

1955年、イギリスの科学者バートランド・ラッセルは、著名な科学者のグループに宣言への署名を呼びかけ、各国政府に対し、平和的手段を用いて国際紛争を解決し、核兵器の使用によってもたらされる人類の破滅を回避するよう求めた。ラッセル・アインシュタイン宣言の署名者たちは、自分たちのアイデンティティを、あの国、大陸、宗教の一員としてではなく、人類の一員として強調しながらも、世界の政府に訴えました。今年 3 月 22 日、ヨシュア ベンジオ氏、スチュアート ラッセル氏、バート セルマン氏、イーロン マスク氏は、GPT-4 よりも強力な AI システムのトレーニングを少なくとも 6 か月間直ちに停止することに関する公開書簡を発表しました。もちろん、AI研究所の背後には国や資本がいる場合も多いが、それに比べれば、AI分野のトップ「ビッグネーム」は依然として軽視できない発言権や意思決定権を持っている。AI を規制できるかどうか、またどのように規制できるかについては、多くの場合、公開の議論に参加する意思があるかどうか、公開の議論にどのように参加するか、公開の議論によってどのような影響を受けるかが非常に重要です。

Shao Yilei: Li Bo 先生の研究テーマは非常に興味深いもので、彼女が研究した論文は Decoding Trust (デコーディング トラスト) と呼ばれるもので、つまり、マシンの信頼性を計算および測定できるものに変える方法です。李波氏に聞きたいのですが、AIの監督に関して、本当にアルゴリズムを使って信頼性を測ることができるのでしょうか?

Li Bo:デコードトラストは、大規模モデル (GPT 4 および GPT 3.5 を含む) に対する最初の包括的な信頼性評価方法です。分類モデルや物体検出モデルとは異なり、大規模モデルなどの自己回帰生成モデルの信頼性を評価することは非常に困難です。学者や業界関係者は、モデルを監視、制御、理解するために最初にすべきことはその信頼性を定量化することであることに同意しています。そのため、このプロジェクトが行うべきことは非常に必要であり、まだ多くのフォローアップ作業が残っています。

生成モデルの信頼できる定量化には、堅牢性などのさまざまな側面が含まれます。NLP 分野では堅牢性をどのように定義しますか? 大型モデルには、一方では優れた新しい機能が備わっていますが、他方では誤用につながる可能性もあります。最初の観点から言えば、これはまだ研究中であり、最初は定量化できますが、やるべきことはまだたくさんあります。

これが AI の監視に役立つかどうかについては、一方では間違いなく可能だと思います。この方法では、大きなモデルの能力や信頼性を感情的に感じるのではなく、合理的に見ることができるからです。一方で、評価の絶対的な値はまだなく、安全性が重要なシナリオなど、いくつかの長期的な指標を組み合わせる必要があり、記述と同様に、より厳密にする必要があり、より一般的な領域ではより緩やかになる可能性があります。この閾値をどのように定義するかについては、依然として技術分野と人文科学分野の共同の努力が必要であり、合意に達し、策定し、共通の合意を得る必要があると思いますが、これは依然として非常に困難です。

Shao Yilei:なぜ人間は機械の信頼性を数値化したいのでしょうか? もし誰かが私の信頼性を数値化して言ってきたら、私はどう感じるでしょうか? 人間はAIをどう扱えばよいのでしょうか?対等な種としてか、それとも支配される対象としてか。それが単なる私のツールの 1 つである場合は、もちろん工場出荷時の標準に設定できますが、標準に達していない場合は廃棄されます。AIってそういうものなのかな?現在のAIと私たちは主体と主体の相互作用なのか、それとも支配されるための単なる道具なのか。これは、このセッションの最後の質問につながります。「大規模な言語モデルから知性が現れるとき、人間は知性をどのように再考すべきですか? AI は知的ですか? AI は意識を持つことができますか? AI を生命として扱うべきですか?」 ここにいるゲスト全員の答えを聞きたいです 。

Tong Shijun: AI はツールです。少なくとも、私は AI が常に人々に役立つツールであることを願っています。人間の意識には二つの基本的な条件があり、一つは主体間の相互作用を有する間主観的条件を有し、もう一つは日常生活世界での一人称経験に基づく一人称視点を有する遠近性の条件を有する。しかし、それらのAIはどちらもありません。ロボットは自然言語の助けを借りて既存の知識を学習するだけでなく、ユーザーや他のロボットとの相互作用の中で新しい知識を生成することも考えられますが、この相互作用は人間社会の通常の相互作用ではありません。このような通常の人間の相互作用がなければ、たとえロボットが意識を持っていたとしても、通常の人間の相互作用に参加できないため、人間の間に現れる自閉症患者のように不完全な意識しか持たないことになります。

ここで心理学者マイケル・トマセロの視点を借ります。トマセロ氏によると、自閉症の子供たちは、共同注意や視点の選択が著しく欠如しているという特徴があり、たとえば、他の人と一緒に一つの物に注意を向けることができず、宣言的な身振りをすることがほとんどなく、象徴的な遊びやごっこ遊びをすることがほとんどありません。言い換えれば、自閉症患者の思考には、間主観的条件と視点的条件の両方が欠けています。これはAIと非常によく似ています。人工知能と自閉症の比較は、非常に浅い関連知識に基づく推測にすぎないので、この分野の専門的な研究結果を読んで理解できればと思います。ここで私はそのような考えを表明しているだけです: 私は将来、自閉症患者のロボットバージョンのグループが人間に取って代わることを望んでいません; この考えから出発して、AI を人間が平等に扱う種にすることにも同意しません。

トビー・ウォルシュ:この質問の難しいところは、意識は人間の存在について最も理解されていない概念の 1 つであるということです。私たちは宇宙がどのように誕生し発展したかを知っています。しかし、人間が自分自身の存在を理解する上で最も理解されていない部分は、朝起きて目を開けたときに経験することです。目が覚めたとき、あなたは私が賢いとは言わない、私は目覚めている、意識はある、世界で何が起こっているのか知っている、そして一人でいることの豊かさを経験し始めている、とあなたは言います。いつマシンにそのような機能が搭載されるかはわかりません。意識を測定することもできません。現時点では、科学は意識についてほとんどわかっていません。それが脳内で発生し、それが呼吸に関係している可能性があると判断することしかできません。それだけです。それは私たちの存在にとって非常に重要な部分であるため、これは驚くべきことです。

私たちが知る限り、今日の機械には意識がありませんが、それは機械が物理法則を理解していないという意味ではありません。私たちは意識についてほとんど知らないので、それを明確に定義することさえできません。しかし、これは将来、機械が意識を持つようになる可能性を排除するものではありません。運が良ければ、機械が意識を持つことは決してありません。なぜなら、機械が意識を持つと、動物と同じように権利を与える必要があるからです。逆に、現在のように機械が自己認識を持たない場合、人間は引き続き機械を召使いとして扱い、設定されたタスクを機械に実行させることができます。未来は楽しさと挑戦に満ちており、たとえ機械が実際に生き返ることはなくても、新しいテクノロジーを探索し構築する過程で、人間は人間の存在の基礎をより深く理解できるようになるかもしれません。

ウー・グアンジュン:この質問には、知性、意識、生命という 3 つの概念が関係しています。テグマーク教授は人工知能をライフ 3.0 とみなしていますが、これは多くの論争を引き起こしていますが、私たちはそれを放置します。知性と意識を見てみましょう。大規模な言語モデルの台頭により、人工知能は一般的な知能に近づいています。人工知能が意識を持つようになるかどうかはまだ予測できません。現在の技術開発の過程から判断すると、意識を生み出すことは困難ですが、少し前までは、一般的な知性は短期間には出現しないだろうとも考えられていました。規模に伴う「創発」は、すでに人工知能研究において注目すべき現象となっている。

したがって、現時点では、人間は技術的存在として人工知能を使用していますが、後者は人間の物事のやり方や相互理解の方法も大きく変えつつあることを認識する必要があります。この変化にどう対応していくかは社会全体の課題となっており、早急に対応を考える必要がある。

張成啓:まず、皆さんの意見は正しいか間違っているかとは関係ないと思います。第二に、人工知能は以前もツールでしたが、今もツールであり、将来もツールであり続けることを願っています。第三に、ChatGPT は十分賢いので人間が知識を蓄積する必要がないという考えには強く反対します。特定の分野を深く耕すことによってのみ、私たちは機械をリードし、自分自身に奉仕することができます。それどころか、すぐに ChatGPT に追い抜かれてしまいます。要約すると、生成 AI は人間の改善に役立つと思いますが、それでもツールとして扱う必要があります。

李波:まず、人間社会には、信頼性も含めて、実はたくさんの評価基準があります。この観点から見ると、人間と機械は協力関係であり、お互いを評価し合うことで理解を深めていくことができます。このプロセスにより、人間は機械をより有効に活用できるようになります。一方で、私も先生方のご意見に全く同感で、今もこれからも人類は人工知能を道具として使っていくでしょう。

現時点では、私のすべての研究において、信頼性におけるいくつかの単純な間違いから、人工知能はまだ論理的推論能力に欠けており、依然としてツールとして存在していることがわかります。しかし、過去には人間が一部のツールを悪用したこともあるため、私たちにとって最も重要なことは、一連の重大な結果を招かないように、誤用を避けるために人工知能についてできる限り理解することです。

9e6473f52c51b3a9ee45471a0822be57.jpeg

シャオ・イーレイ: ゲストの皆さんの回答を聞いて、私の見解を述べたいと思います。まずいくつかの数字を共有します。ChatGPT のトレーニング データは約 1,000 億ワードです。人は人生の終わりから死に至るまで、約 10 億語を聞くことができます。現在の人間の平均寿命が 70 年であるため、ChatGPT は人間年約 70,000 年の情報を読み取ることに相当します。これほど多くの知識、人類文明全体の情報量に近い量が吸収されているとき、そのような人工知能が単なる道具であるとは私には想像しがたいです。将来的には単なるツール以上のものになるかもしれないと思いますが、それが何であるかを定義するのは困難です。AIは新種かもしれないが、「種」という言葉も再定義する必要があるかもしれない。

本日は、10 名のゲストをお招きし、AI の現在の進歩、人間と AI の関係、AI をどのように制御・監督するべきかについて話し合うことができることを大変うれしく思います。徐吉林氏が述べたように、「新人類は技術的には能力がありませんが、哲学的には能力があるはずです」?董世軍先生がおっしゃった「『可能』と『すべき』は同じですか?」という哲学的問い。Yang Qiang 教師は、「テクノロジーの変化は課題であるだけでなく、チャンスでもある」と述べました。ウー・グアンジュン教師は「まず、人々がどのように他の人と仲良くするかを再検討する必要がありますか?」と呼びかけました。今議論した問題の多くは、「他の種とどのように仲良くやっていくか?」、「地球規模の問題をどのように見るか?」、「人工知能の時代は知恵のグローバル化の始まりなのか?」など、私たちにさらに深く考えるきっかけを与えてくれました。

ゲストの皆様、そしてゲストの皆様に改めて感謝申し上げます!

- 以上 -

89181d0bd9a8eabea6ed64a3f706330c.jpeg

QR コードをスキャンしてディスカッション グループに参加してください

より多くの高品質のデータセットを取得する

人工知能の応用を理解する

人気のカンファレンスや論文をフォローする

詳細については「読者」に返信してください

さらにエキサイティングなコンテンツ (画像をクリックして読んでください)

2a102996262031d8fc1f2913f9c6af10.png

e3cffe714d1aeeb64bac8677df1bdda9.png

0e3577b6d32d44122e7ff2ec4a8f4c7b.png

9ff16f6e01bbf465a31b2cf86e335669.gif

おすすめ

転載: blog.csdn.net/HyperAI/article/details/131733540