2019 PubMedの英語テキスト3分析

オリジナル

テキスト3

  今年マークフランケンシュタインの出版以来、ちょうど二つの国。または、現代のプロメテウス、メアリー・シェリーによります。でも電気電球の発明前に、著者はまだ来ていない技術によって提起されるように、多くの倫理的な問題の前兆でしょう投機的なフィクションの驚くべき作品を制作しました。

  今日の人工知能(AI)の急速な成長は、根本的な問題を提起:」何が知性で、識別、または

  意識?何が人間の人間を作ります?」

  人工知能一般、人間が考える方法を模倣だろうマシンと呼ばれているもの、科学者を回避し続けています。しかし、人間は人間のように見えるロボット、移動、および応答のアイデアに魅了されたまま、最近、このような「ウエストワールド」と「人間」などの人気のSFテレビシリーズに描かれたものと同様。

  どれだけの人が考えることはまだ理解し、おろか再生することがあまりにも複雑で、デイビット・イーグルマン、スタンフォード大学の神経科学者は述べています。「私たちはただ、実際にconsciousnesss何を説明しない良い理論が存在しない状況にあることはあなたがそこに着くためにマシンを構築することができる方法であると。」

  しかし、それはAIに関わる重大な倫理的問題が手元にないという意味ではありません。自律走行車の今後の使用は、例えば、ポーズは、倫理的な質問がイバラ。人間のドライバは、時には一瞬の意思決定を行う必要があります。彼らの反応は、インスタントの反射神経、過去の運転経験からの入力、およびどのような彼らの目と耳がその瞬間にそれを伝えるの複雑な組み合わせであってもよいです。AI「ビジョン」今日は、ほぼ人間のそれと洗練されたようではありません。そして、ありとあらゆる運転状況を予測することは難しいプログラミングの問題です。

  決定は、データの塊に基づいているときはいつでも、ノートタンKIATどのように、政府はAIの倫理的な使用のための自主的なコードを開発する助けているシンガポールベースの機関の最高経営責任者(CEO)「あなたはすぐに倫理的な質問、たくさんのに入ります」。シンガポールとともに、他の政府や巨大企業は、独自のガイドラインを確立し始めています。英国はデータ倫理センターを設定しています。インドはこの春、そのAI倫理戦略を発表しました。

  6月7日にGoogleはしないように約束し、「設計やAI展開」「全体的な危害」を引き起こすか、AI向けの武器を開発したり、国際的な規範に違反するサーベイランスのためのAIを使用します。また、その使用は国際法や人権に反するAIを展開しない約束しました。

  文が曖昧であるが、それは1つの出発点を表しています。だから、AIシステムによりなされた決定が説明できる、透明、かつ公正であるべきという考えはありません。

  別の言い方をするには:どのように我々は、インテリジェントなマシンの思考は、人類の最高値を反映していることを確認することができますか?そうして彼らは便利な使用人としませフランケンシュタインのアウト・オブ・コントロールモンスターになります。

分析

テキスト3

  今年マークフランケンシュタインの出版以来、ちょうど二つの国。または、現代のプロメテウス、メアリー・シェリーによります。でも電気電球の発明前に、著者はまだ来ていない技術によって提起されるように、多くの倫理的な問題の前兆でしょう投機的なフィクションの驚くべき作品を制作しました。

  「フランケンシュタイン」は出版されたので、今年は2カ国であることを起こります。あるいは、メアリー・シェリー(メアリー・シェリー)は「現代のプロメテウス」を書きました

  でも、電球の発明前に、著者は良いミステリー小説を作った、これらの小説は、技術に起因する多くの倫理的な問題を提起し、差し迫った予示

  今日の人工知能(AI)の急速な成長は、根本的な問題を提起:」知性、何を識別するか、または意識されますか?何が人間の人間を作ります?」

  今日では、人工知能の急速な成長、基本的な質問、身体や意識の知恵は何であるのリードは、人間が人間のように、よりになって作るものです

  人工知能一般、人間が考える方法を模倣だろうマシンと呼ばれているもの、科学者を回避し続けています。

  科学者を回避し続ける人間の思考・マシンをシミュレートすることができ、人工知能と呼ばれ、

  しかし、人間は人間のように見えるロボット、移動、および応答のアイデアに魅了されたまま、最近、このような「ウエストワールド」と「人間」などの人気のSFテレビシリーズに描かれたものと同様。

  そのようなロボットの「西欧世界」と「人間」として、人気のSFテレビシリーズのプログラムのようにビットを説明し、に惹かとして人々はまだ、人間の応答のようなものをロボット、アクションを、観察しました

  どれだけの人が考えることはまだ理解し、おろか再生することがあまりにも複雑で、デイビット・イーグルマン、スタンフォード大学の神経科学者は述べています。

  スタンフォード大学、デビッド・李Geman、神経科学からは、思考の人々の方法を理解するために、まだあまりにも複雑であると述べただけでコピーしてみましょう

「私たちはただ、実際にconsciousnesss何を説明しない良い理論が存在しない状況にあることはあなたがそこに着くためにマシンを構築することができる方法であると。」

私たちは何であるか最終的に意識を説明するために、状況に今良い理論ではなく、マシンを構築する方法の感覚を得ます

  しかし、それはAIに関わる重大な倫理的問題が手元にないという意味ではありません。自律走行車の今後の使用は、例えば、ポーズは、倫理的な質問がイバラ。

  これは、AIが制御されていない重要な倫理的問題の下に関与しているという意味ではありません。例えば、自律走行車は、厄介な倫理的な問題をもたらしました

人間のドライバは、時には一瞬の意思決定を行う必要があります。彼らの反応は、インスタントの反射神経、過去の運転経験からの入力、およびどのような彼らの目と耳がその瞬間にそれを伝えるの複雑な組み合わせであってもよいです。

人間のドライバは、時々意思決定の瞬間を作ります。その瞬間、彼らの応答は、より多くの過去の運転経験の入力から複雑な持続的な即時の反応だけでなく、彼らの目と耳の複雑な組み合わせのようなものです

AI「ビジョン」今日は、ほぼ人間のそれと洗練されたようではありません。そして、ありとあらゆる運転状況を予測することは難しいプログラミングの問題です。

今日の人工知能とはるかに人間の複雑さのビジョンが、また、考えられるあらゆる走行状況を予測することは非常に困難なプログラミングの問題です

  決定は、データの塊に基づいているときはいつでも、ノートタンKIATどのように、政府はAIの倫理的な使用のための自主的なコードを開発する助けているシンガポールベースの機関の最高経営責任者(CEO)「あなたはすぐに倫理的な質問、たくさんのに入ります」。

  意思決定、大量のデータを、あなたはすぐに道徳的な問題の多数に分類されますに基づいて、タンカイトはこの制度、シンガポールの最高経営責任者(CEO)は、ヘルプに政府機関は、AIの使用に関連する倫理の自主的なコードを開発することを指摘しました

シンガポールとともに、他の政府や巨大企業は、独自のガイドラインを確立し始めています。英国はデータ倫理センターを設定しています。インドはこの春、そのAI倫理戦略を発表しました。

シンガポール、政府や他の共同企業だけではなく、独自のガイドラインの構築を開始する準備が整いました。英国は、データセンターのモラルを構築しています。インドはこの春、独自のAIの倫理方針を発売しました

  6月7日にGoogleはしないように約束し、「設計やAI展開」「全体的な危害」を引き起こすか、AI向けの武器を開発したり、国際的な規範に違反するサーベイランスのためのAIを使用します。

  6月7日、Googleは国際規範の違反を監視するための武器やAIを開発する「AIの設計や展開を」保証するものではありません「包括的危害」を持っているかもしれません、またはAI

また、その使用は国際法や人権に反するAIを展開しない約束しました。

Googleはまた、AIが国際法に違反して展開されていないと人権があることを指摘しました

  文が曖昧であるが、それは1つの出発点を表しています。だから、AIシステムによりなされた決定が説明できる、透明、かつ公正であるべきという考えはありません。

  文が明確でない場合は、開始点を表します。だから、AIシステムのアイデアの決定は、解釈透明かつ公正でなければなりません

  別の言い方をするには:どのように我々は、インテリジェントなマシンの思考は、人類の最高値を反映していることを確認することができますか?そうして彼らは便利な使用人としませフランケンシュタインのアウト・オブ・コントロールモンスターになります。

  別の言い方をすれば、どのように私は、インテリジェントなマシンのアイデアは、人間のメカニズムの最高反映して決定していますか?彼らは、利用可能なウェイターではなく、暴走モンスタースタン・フラックのようなものになった場合にのみ

おすすめ

転載: www.cnblogs.com/YC-L/p/12106639.html