西風は凹神殿
の量子ビットから来る | 公開アカウント QbitAI
人工ニューラル ネットワーク (ANN) の学習方法は人間の脳の学習方法と非常によく似ています。
私の言うことは正しかったのですが、少なくとも言語処理に関しては、機械のほうが人間に近いようです。
まず下の写真を見てください。
青は人間の脳波信号を表し、赤は人工ニューラルネットワーク信号を表します。
これは、人間の脳と機械が同じ音声を聞いたときに行うことです。
とても似ていますね、驚きましたか?
実際、この写真は最近の研究からのものであり、関連する論文は Nature のサブジャーナルである Scientific reports に掲載されています。
これまで、人間の脳と機械の脳がどのように学習するのかという問題は常に謎でした。
「ニューラルネットワークは人間と同じように学習するかどうか」というテーマも物議を醸している。
では、人間と機械が「おそらく同様の方法で言語を処理する」という証拠は何でしょうか?
人工ニューラルネットワーク信号は人間の脳波信号とよく一致する
人工ニューラル ネットワークにおける学習の謎を解明するために、カリフォルニア大学バークレー校の計算言語学者であるガシュパー ベグシュ氏は、ジョンズ ホプキンス大学の博士課程学生であるアラン チョウ氏およびワシントン大学の神経科学者クリスティーナ チャオ氏とともに研究を実施しました。
この研究では、人間に単純な音を聞かせ、その音を聞いた後に人間が発する脳波を収集しました。同時に、同じ音がニューラル ネットワークに入力され、ニューラル ネットワークによって生成された信号が分析されます。
両者を比較すると、結果は驚くほど似ています。
最も重要なことは、研究者らはさまざまなタスクに対して汎用ニューロンのネットワークをテストし、非常に一般的なネットワーク(音声やその他の音に対する偏りがない)でも依然として人間のニューラルエンコーディングとの対応を示したことです。
では、この研究は具体的にどのように行われたのでしょうか?
まず研究者らは、人間の脳と人工ニューラルネットワークの反応をより良く比較するために、英語話者14名とスペイン語話者15名を募集した。
その後、男性らには単音節音声「バー」がそれぞれ8分間、2回繰り返された。
研究者らは、再生中に、各リスナーの脳幹(音を最初に処理する脳の部分)内のニューロンの平均的な電気活動の変動を記録した。
研究者らはこれとは別に、同じ「バー」という音を 2 つの異なるニューラル ネットワーク セットに入力しました。1 セットのニューラル ネットワークは英語でトレーニングされ、もう 1 セットはスペイン語でトレーニングされました。
研究者らが選択したニューラル ネットワーク アーキテクチャは、敵対的生成ネットワーク (GAN) です。
GAN は 2014 年に画像生成のために初めて提案されました。GAN は、ディスクリミネーターとジェネレーターという 2 つのモジュールで構成されており、ゲームを通じて相互に学習してより良い出力を生成します。
具体的には、ジェネレーターは画像または音声のサンプルを作成し、ディスクリミネーターはそれがトレーニング サンプルにどれだけ近いかを判断してフィードバックを提供し、ジェネレーターを再度反応させるなどして、GAN が目的の結果を出力できるようになるまで繰り返します。
ただし、この研究では、弁別器は最初にさまざまな英語またはスペイン語の音で訓練されました。
次に、それらの音についてトレーニングされていないジェネレーターは、それらの音を生成する方法を見つけなければなりませんでした。最初はランダムな音を出し始めましたが、弁別器との約 40,000 回の対話の後、ジェネレーターは徐々に正しい音を生成するようになりました。このトレーニングの後、弁別器は実際の音と生成された音を区別するのも上手になります。
弁別器を訓練した後、研究者らは「バー」という音を鳴らした。彼らは、弁別人工ニューロンの平均活動レベルの変動を測定し、音声の分析(脳幹の読み出しを模倣するため)に使用されるネットワーク内の人工ニューロンの層に焦点を当てて、ニューラルネットワークの処理活動を記録しました。
収集された人間の脳波信号と人工ニューラル ネットワーク信号を比較すると、結果は次の図に示されます。
△英語を用いた実験結果:青は人間の脳波、赤は人工ニューラルネットワーク信号
△スペイン語の実験結果:青は人間の脳波、赤は人工ニューラルネットワーク信号
これらの人工ニューラル ネットワーク信号は人間の脳波信号と非常によく一致していることがわかります。
これは、2 つのシステムが同様の活動を行っていることも示唆しています。
さらに、この実験では、人間と機械の間にある別の興味深い類似点も明らかになりました。脳波の結果、英語話者とスペイン語話者では「バー」音の聴覚認識が異なることが示されました(スペイン語話者は「パー」音をより頻繁に聞きました)。
GAN 信号は、英語でトレーニングされたネットワークがスペイン語でトレーニングされたネットワークとは異なる方法で音声を処理したことも示しました。
「そして、これらの違いは同じ方向に生成されます」とベグシュ氏は説明します。
英語話者の脳幹はスペイン語話者よりもわずかに早く「バー」の音に反応し、英語で訓練された GAN もスペイン語で訓練されたモデルよりもわずかに早く同じ音に反応しました。
人間と機械のこの反応時間の差はほぼ同じで、1000 分の 1 秒程度です。
また、人間と人工ネットワークが「同様の方法で言語を処理する可能性が高い」という追加の証拠もベグシュ氏に提供している。
チョムスキーは間違っているのか?
この研究の結論は、実際には、1950年代に言語学者ノーム・チョムスキーが提唱した「人間は言語を理解する能力を持って生まれており、それは人間の脳に組み込まれている」という見解と矛盾している。
さらに、チョムスキーは普遍文法という概念も提案しました。つまり、人間の脳には一般的に言語の使い方を学ぶための言語獲得メカニズムが備わっているということです。
もしかしてチョムスキーは間違っているのだろうか?
これに関して、一部のネチズンは次のように述べています。
ChatGPT は、言語を学習して理解するのに文法は必要ないことを証明しました。
依然として懐疑的なネチズンもいる。
人間の脳とニューラル ネットワークは同じものではありません。ニューラル ネットワークの計算時間を研究することで人間の脳を研究することには懐疑的であるべきです。
さらに、ニューラル ネットワークは人間の言語で訓練されているため、このステートメントも観察された時間から推測することはできません。
ベグシュ氏は「議論はまだ終わっていない。
△ギャシュペル・ベグシュ
同氏は、人間の脳とニューラルネットワークの類似点をさらに探求すると述べており、たとえば、(脳幹が聴覚処理の一部を完了した後)皮質から発せられる脳波が、GANのより深い層によって生成される信号に対応するかどうかをテストしているという。
最終的に、彼らは、機械と人間がどのように言語を学習するかを説明する堅牢な言語習得モデルを開発し、人間の被験者では不可能な実験を可能にしたいと考えています。
ワシントン大学の神経科学者でベグシュ氏の研究チームのメンバーであるクリスティーナ・ジャオ氏は次のように述べた。
たとえば、赤ちゃんを放置するなどの不利な環境を作り出し、それが言語障害などにつながるかどうかを確認できます。
さらに、ベグシュ氏は、この道がどこまで続くのか、そして一般的なニューロンが人間の言語にどれだけ近づくことができるのかを試していると述べた。
人間のようなパフォーマンスを実現するためにコンピューティング アーキテクチャを拡張および強化できるのか、それともそれが決して不可能であることを証明できるのか。
この問題を確実に理解するには、さらなる作業が必要です。しかし、私たちは依然として、これらのシステムの内部動作や人間と人工ニューラルネットワークの類似性に非常に驚いています。
人間の脳と人工ニューラルネットワークについてどう思いますか?
ポータル:
[1] https://www.nature.com/articles/s41598-023-33384-9 (論文へのリンク)
参考链接:
[1]https://www.quantamagazine.org/some-neural-networks-learn- language-like-humans-20230522/