どのように我々は、人工知能を保護するのですか?

  世界中の大学は、人工知能(AI)分野における重要な研究を行っている、アレン研究所(アレン研究所)やその他の機関だけでなく、GoogleやFacebookや他のテクノロジー企業もこの分野での研究を行っています。一つの可能​​な結果は、我々はすぐに犬やマウスやなどの複雑な人工知能を持っているということです。さて、これらは私たちの人工知能は通常、動物保護の倫理を与えられている値するならば、どのような条件の下で、について考え始める時間です。

  これまでのところ、「人工知能の権利」や「ロボット権」についての議論は、質問を中心に展開:我々は道徳的義務のどのようなクマのために人間のような人工知能以上が必要 - などスタートレック」などを「アンドロイドのデータでは(スタートレック)、または」ドロレスで西側世界「(ウエストワールド)(ドロレス)。しかし、開始するには、間違った場所からこのアイデアは、深刻な道徳的な影響を与える可能性があります。私たちは人間のような複雑なを作成する前に、それは人間としての人工知能の倫理を検討する価値があり、我々は非常に複雑劣る人間を作成する可能性がある、それは人間の倫理的配慮に劣るヒト人工知能のいくつかを検討する価値があります。

  我々はいくつかの非ヒト動物を使用する方法を学ぶことは非常に慎重になっています。動物実験委員会の評価は、順番に、脊椎動物が不必要に殺されたり不必要な苦痛されていないことを確認するために、ことをお勧めします。それはヒト幹細胞、特にヒトの脳細胞に付属している場合、それはより厳しい規制基準になります。強烈な精査の下で生物医学研究は、しかし、精査の下で現在、人工知能研究はありません。AIの研究は、同じ倫理的なリスクの一部をもたらす可能性があります。多分それはする必要があります。

  彼らは本当の喜びと痛みと実際の経験を持っていない限り、あなたは、つまり、彼らは意識していない限り、人工知能のこの倫理が保護されるべきではないと思うかもしれません。我々は同意します。しかし、今、我々は困難な哲学的問題に直面している:我々は人工知能データやドロレスかのように喜びと痛みをもたらすために何かを作成するときにどのように我々が知っている、それは文句を言うと自分自身を守ることができ、起動するには?彼らの権利に関する議論。マウスや犬ろれつが回らないなど、または他の理由のための人工知能は私たちに彼らの内面世界を伝えることができない場合は、それは苦しんでいる自分自身を報告しないことがあります。大連婦人科チェックどのくらいのお金 mobile.0411bh.com  

  ここでは理由はまだ意識とどのように我々はそれがコンセンサスに存在するかどうかを判断するものである上、科学的研究の意識の混乱と困難があります。 - ビューの「自由」ポイント - - いくつかの点では - 指導と長期行動計画に注意を払う能力と、そのような環境での柔軟な情報システム・モデル・オブジェクトとして、いくつかの組織の情報処理の必要性、の唯一の良い意識があります。私たちは、このようなシステムのエッジに作成された可能性があります。「保守的」ビュー - - ビューの他の点では意識は、哺乳動物の脳によく似た構造の低レベルの詳細で脳などの非常に特異的な生物学的特性を、必要になる場合があります。このケースでは、我々は悪化から人工意識を作成します非常に遠いです。

  他の解釈が最終的に勝つかどうかは不明である、正しいどのビュー明確ではありません。ビューのリベラルポイントが正しい場合は、我々はすぐに道徳的保護する必要があり、多くのサブヒト人工知能を作成することができます。このモラルハザード。「人工知能のリスク」についての議論は、通常、私たちに、そのような世界を引き継いとして人間を、持参し、私たちを破壊する、または少なくとも私たちの銀行システムを混乱させる可能性があり、新たな人工知能技術のリスクに焦点を当てています。我々はそれらを乱用する可能性があるため、あまり議論は、人工知能の私たちのモラルハザードです。

  これは、サイエンスフィクションのプロットのように聞こえるかもしれないが、限り、人工知能の分野の研究者が意識的な人工知能や強い人工知能システムを開発するよう、これらのシステムは、最終的に意識的である可能性が高い、我々は真剣に取る必要があります問題。私たちは人間の神経組織サンプル上の動物実験や研究に行ったように、このような研究は、倫理審査を必要とされています。

  動物も人間の臨床試験の研究では、倫理の重大な違反が露出された後にのみ、それは適切な保護措置を確立します(不必要な生検では、例えば、ナチスの戦争犯罪とタスキギーにおける梅毒の研究薬) 。人工知能で、我々はもっと良い機会を持っています。私たちは、これらの問題を評価し、考慮に入れるために最先端の人工知能を研究するために、監視委員会の設置をお勧めします。これらの動物管理委員会などの委員会や科学者と非科学者で構成する必要があるとして、セル監視委員会の幹 - 人工知能のデザイナー、科学者、倫理学者や興味コミュニティメンバーの意識。委員会の仕事は、リスクおよび研究のメリットを特定し、科学的、倫理的問題への深い理解を持つように設計された人工知能の新しい倫理のリスクを評価、比較検討することです。

  これらの委員会は判断させて、現在のすべてのAIの研究を持っている可能性があります。最も主流の意識の理論では、我々はまだ人工知能は、倫理的な意識の経験を検討する価値があり作成していません。しかし、我々はすぐにこの重要なの倫理的境界を越えることがあります。私たちは、のために準備する必要があります。


おすすめ

転載: blog.51cto.com/14198725/2406460