深セン大学「コンピュータートピック」の宿題:ビッグデータと人工知能技術が人間の生活に与える影響

説明する

この課題はグループ課題であり、テンセントの研究者によるレポート(つまりアフタービュー)に基づいて完了する必要があります。人工知能時代の倫理的思考について4つのサブトピックに分かれています。著作権上の理由により、レポートの具体的な内容は提供されず、回答内容のみが表示されます。

最初の質問

(1) AI テクノロジーの悪用についてどう思いますか? IT企業の職業倫理と社会的責任の観点から分析してください。(20点)

近年、AI技術はますます多くの分野で画期的な進歩を遂げています。人工知能技術の成熟に伴い、そのコア技術の適用は徐々に低価格になり、それに伴う人間のプライバシー、個人の安全、データ悪用のリスクは無視できません。たとえば、犯罪者が AI テクノロジーを使用して有名人やポルノビデオ出演者の顔を交換したり、Facebook が大統領選挙のためにユーザー情報を盗んだりしています。

職業倫理の観点から言えば、報告書23ページに記載されているフェイクポルノビデオ等が「米国計算機協会(ACM)倫理規定」の「一般倫理規定」に違反する典型的な事例である。 「人間とともに」社会に利益をもたらす、「他者への危害を避ける」、「誠実さと信頼性」、「プライバシーの尊重」、その他多くの要件は、「比較的特殊な専門家の義務」にも違反します。なぜなら、ビデオの偽造者らは人工知能技術を悪用し、品位を持って作品を制作しておらず、関連法を無視し、女性の名誉を受ける権利を侵害しているからである。彼らは社会的および法的責任を果たせず、職業倫理に違反しました。

一方で、社会的責任の観点から見ると、AI技術の悪用は社会の発展に対する責任や人々に対する責任を侵害します。まず、精神文明の進歩には健全で崇高な思想と道徳が必要であり、ネガティブで退廃的なコンテンツ(ポルノへのAIの乱用も含む)の排除の影響に抵抗する必要がある。この影響は、IT 企業と関連実務者のこの人間社会に対する責任にも反映されています。

Google CEOのスティーブン・ピチャイ氏が述べたように、自動運転車や疾病検出アルゴリズムなどの新しい人工知能ツールは倫理的なガードレールを設け、テクノロジーの悪用が何を意味するかを検討する必要がある。「虐待」という言葉を使うとき、私たちが議論している現象はすでにIT企業の職業倫理の「してはいけない」部分に関わっています。AI テクノロジーは強力ですが、できることが増えれば増えるほど、害も大きくなります。IT企業がAI技術の悪用を促進すれば、企業自体の信用を落とすだけでなく、業界全体に悪影響を及ぼします。

AI技術がより良く発展できるかどうかは、AI技術を使いこなす人がそれをどのように活用するかに密接に関係しています。もしIT企業が、首を変えるビデオをセンセーショナルに宣伝したり、さらにはプライバシーを侵害してポルノビデオを作成したりするなど、「してはいけない」ことをすれば、国民はAIを恐れ、政府はこのテクノロジーに対する信頼をさらに高めることになるだろう。防止。AI が非常に強力な先進テクノロジーであることは間違いありませんが、IT 企業が職業倫理を遵守し、社会的責任を負う場合にのみ、適切な業界範囲を創出し、社会が AI テクノロジーに対して良好な期待と寛容を持てるようにすることができます。

現段階でのAI技術の悪用は、その技術を使いこなす主体であるIT企業や技術者によって規制されるべきであると考えており、職業倫理を遵守し、社会的責任を負うことは、国民のプライバシーや安全を守ることだけではありません。だけでなく、業界の繁栄のためにも。科学技術の進歩には寛容さと自由が必要であり、パニックを引き起こしやすいテクノロジーの悪用があってはならないため、IT企業は自らを律し、勇気を持って職業倫理を遵守し、果敢に社会的責任を負い、 AI 技術の悪用を防止し、AI 技術分野の繁栄を促進します。

2番目の質問

(2) ニュースの推奨、採用アルゴリズムの差別化、犯罪リスク評価などの人工知能アルゴリズムは人間に危害を与えるのでしょうか? ソフトウェアの品質、ITリスク、マネジメントの観点から分析してください。(20点)

私たちは、この種の AI アルゴリズムが人間に害を及ぼす可能性があると考えています。

ビッグデータ技術と人工知能技術の急速な発展に伴い、個人のニーズに適応することを目的とした人工知能アルゴリズムの推奨は、情報流通の分野における新しい技術パラダイムになりつつあります。これに関連して、アルゴリズムはますますインテリジェントでプログラム化されており、自然論理と思考ロジックの基礎に従うだけでなく、意思決定において集合知を置き換えることもできます。また、現在のコミュニケーション慣行から判断すると、人工知能アルゴリズムによる推奨によるコミュニケーション革命は社会生活のあらゆる側面に微妙に影響を及ぼしており、当然のことながらリスクが潜んでいます。

ソフトウェア品質の観点から見ると、人工知能アルゴリズムは、ソフトウェアの複雑さの高さ、原理の難しさ、プロセスのブラックボックス化などにより、広く使用される場合にはリスクと危険性を伴います。アルゴリズムの推奨結果から始まり、現在の一般的なニュースアルゴリズムの推奨メカニズムは、プラットフォームがユーザーの「いいね!」やコメントなどのデータに基づいてユーザーの内部の興味やニーズを分析し、情報コンテンツに一致するコンテンツベースのプッシュ方式です[1]。この方法は、人と情報の効率的なマッチングを実現し、ユーザーの時間を節約できる一方で、ユーザーは興味のないコンテンツを避け、興味のあるコンテンツのみに選択的に接触することができます。トピックは長期的には情報の繭の形成を強化します。

採用アルゴリズムと犯罪リスク評価アルゴリズムは、ユーザーの社会的サークルなどをスキャンし、ユーザーの職業、場所、性別、年齢などの関連情報を詳細にマイニングして、タグ マッチングを実行します [1]。実際のコミュニケーション実践では、アルゴリズム設計の主体は通常、特定の期待される結果を達成したいために、何らかの価値訴求を最上位に置いたり、いくつかの価値指向を意図的に強調したりするため、アルゴリズム内に常に存在する価値観の偏りにつながります。この値の偏りは、特定の形式 [1] を通じて推定されます。実際には、アルゴリズムはこの偏りを継続するだけでなく、データ量の拡大やアルゴリズムの更新の反復によってこの偏りを強化および増幅し続ける可能性があります。

IT リスクの観点から分析すると、人工知能アルゴリズムのバイアスの存在は、アプリケーション システムの開発におけるエラーや不完全性を反映しています。

私たちは、人工知能のアルゴリズムには、情報価値の障害、情報中毒、情報の狭窄などのリスクがあると考えています。

人工知能レコメンデーションアルゴリズムの広範な適用により、情報の生産と流通の制御権限はインテリジェントなマシンと多様な個人化されたユーザーに移されており、トラフィック優位性の利益連鎖の下では、インテリジェントアルゴリズムのレコメンデーションは公衆の情報よりもユーザーの情報の好みにもっと注意を払うことになります。情報そのものの価値 - ユーザーが注目している限り、情報の質がどんなに高くてもそれは見出しであり、ユーザーが注目しなかったり、興味を持たなかったりする限り、どんなに質の高い情報であってもつまり、インテリジェントなアルゴリズムの観点からは情報は価値がありません [2]。

人工知能レコメンドアルゴリズムによるユーザーの好みへのプッシュメカニズムにより、ユーザーの情報プラットフォームへのメディア依存度はかつてないほど強化され、人々はアルゴリズムが織りなすデジタル世界に没頭し、デジタル生産とデジタル消費に多くの時間が費やされています。さらに、インテリジェントなアルゴリズムが推奨する情報依存症とエンターテイメントの一般化は一連の流れで生まれており、消費主義の波とインテリジェントなアルゴリズムが推奨する情報依存症のメカニズムによって、エンターテインメントの一般化現象はパブリックドメインにも広がりつつあります[2]。 ]。

人工知能アルゴリズムの強力な情報フィルタリング機能は、情報割り当ての効率を向上させるだけでなく、異なるユーザー グループ間の意見交換や価値観の統合のための分離壁を微妙に構築します。ユーザーは同じ考えを持つ意見に同意する可能性が高くなります。このままでは、人々が得られるのはある種の「狭められた」情報になってしまいます。

上記のリスクをどのように管理すればよいでしょうか? リスクの把握とリスク分析を行った後は、リスク計画、リスク追跡、リスク管理の各段階で取り組むべきであると考えております。まず、アルゴリズムは計画段階でテクノロジーによって規制されます。テクノロジーによってもたらされる多くの問題は、アルゴリズムのブラックボックスを開いて透明性を高め、最終的にユーザーとプラットフォーム間の情報バランスを確立することにより、テクノロジー自体のさらなる最適化と改善によって実際にある程度解決できます。第二に、主流の価値観の指導がなければ、人工知能アルゴリズムは暴走して制御不能になるため、主流の価値観をアルゴリズムの中核として採用する必要がありますリスク追跡段階では、事後チェックモードと比較してアルゴリズムの事前チェックを強化することで、手動によるレビューとアルゴリズムのレビューを組み合わせて、両者の利点を最大限に発揮し、リスクをリアルタイムにフィードバックする必要があると考えられます。情報。最後に、リスクをどのようにコントロールしていくかについては、法の支配によって人工知能を規制していくのが時代の流れであると考えておりますが、一方で、人工知能の監督に対する関係部門の法的意識を一層高める必要があると考えております。インテリジェンスアルゴリズム; アルゴリズム推奨分野における立法効率は、立法の先見性と有効性を高めます。

3番目の質問

(3) 人工知能技術は人類の助けとなるのか、それとも敵となるのか? 情報技術がもたらす社会的影響の観点から分析してください。(20点)

人工知能は敵か味方か?私たちはそれを弁証法的に見るべきだと考えます。AIは、道具としての側面から見ると、従来の道具と同様に人間の生産や生活を支援し、人間の良き助けとなる一方で、テクノロジーの継続的な発展によってもたらされる新たな問題も抱えています。 、それは私たちの潜在的な敵になる可能性があります。

現在の技術開発レベルから見ると、人工知能技術は長い間人間の道具としてしか存在できず、強力な人工知能のさまざまなレベルや指標に到達することはできません。しかし、人工知能が人間と同等、あるいはそれ以上の知能を達成できる日が来たとしたら、社会と人間にとってこのテクノロジーの重要性には疑問が残るでしょう。

私たちはこの問題を弁証法的に考えるべきです。一方で、強力な人工知能は私たちにより便利な生活、より発展した社会モデルをもたらし、さらには人間には解決できないさまざまな社会的、学術的、工学的問題を解決することさえできます。強力な人工知能は独自の判断能力を持ち、人間よりも影響を受けにくいため、医療、救助、軍事、科学研究などの分野での大規模なアプリケーションに非常に適しています。また、人工知能の人間を超えた計算能力により、人間が現段階では答えられない数学、物理学、またはコンピューター分野の重要な問題を解決できる可能性があります。この観点からすると、人工知能技術の開発は必要不可欠です。

一方で、人工知能が人間社会に与える影響は、教科書で取り上げられる「情報権」「デジタルデバイド」「グローバル化」の範囲をはるかに超えており、今後、人工知能は前例のない発展を遂げる可能性があります。社会形態、社会構造、社会倫理に対する前例のない影響。

人工知能が本当に強力であるならば、人類はどこへ向かうべきでしょうか? 機械的特性を備えた強力な人工知能は、創造性を必要としない世界中のほぼすべての職業に就くことができ、雇用主は人間よりも賃金を必要としない人工知能を使用する傾向が強いはずです。当時は失業人口が急増し、社会保障の整備がそれに適応できるかどうかはまだ未知数であり、人間そのものの価値や存在意義も問われていた。「オムニッククライシス」からは強力な人工知能の反乱に対する懸念が見られますが(図1)、たとえ人工知能が反乱しなくても、その影響は深刻な両面性を持っています。人間は、このテクノロジーに対する態度をより慎重かつ合理的にし、法律やその他の規範的な取り組みを強化し、人工知能の倫理的問題について徹底的な研究を実施し、人工知能テクノロジーによってもたらされる利便性を最小限に抑えながら最大限に活用する方法を考える必要があります。マイナスの影響。

人工知能がどれほど発達しても、私たちは人工知能を人間の不平等を悪化させるツールや人類を支配する新たな悪ではなく、人類に平等と幸福をもたらす良き助けとなるべきです。
図 1: オムニッククライシス
図 1: オムニッククライシス

4番目の質問

(4) 自動運転には抜け穴があると思いますか、また人間は自動運転を信頼できますか? 無人自動車事故では誰が責任を負うべきだと思いますか? IT利用者のリスク意識の観点から分析してください。(20点)

現段階では人間は自動運転技術を完全に信頼することはできず、補助的なツールや研究対象としてしか扱うことができないと考えています。

まず、現在の自動運転技術はまだ未熟な段階にあり、抜け穴があるはずだと考えており、現在国際的に主流となっているいわゆる「自動運転」技術は、主に「コンピュータ支援運転」の形で存在しています。人間が自動運転を完全に信頼できるようになるまでには、まだ長い道のりがあります。

技術的には、深層学習や強化学習などの人工知能やコンピュータービジョンの分野でのアルゴリズムの開発により、自動運転技術は物体検出や経路計画において高い水準に達していますが、いくつかの複雑な状況では、たとえば異常気象や複雑な道路状況、多くの「ノイズ」に直面すると、自動運転アルゴリズムの認識率も大きな影響を受ける 「ニューラルネットワークの堅牢性」に関する研究はまだ研究段階 自動運転分野自動運転車の頻繁な事故は、技術的な問題よりもより難しい倫理的および社会的責任の問題につながります。

最近、テスラ車で多発した交通事故を例に挙げると、無人運転による交通事故が発生した場合、主な責任は誰にあるのでしょうか。車の所有者ですか、それとも自動車メーカーですか?それとも、自動運転技術に関連する法律の主な責任を地方の規制当局や立法者に移すべきでしょうか?

このような交通事故について、車の所有者に過剰な責任を課すのは不公平です。車の所有者にとって、現地の法律で許可されている自動運転車を合法的に購入し、合法的に道路を走行しているのであれば、車の主要な運転操作はアルゴリズムによって完了します。では、なぜ車の所有者が主な責任を負わなければならないのでしょうか。交通事故対策に?毛織物? タクシーに乗るのと同じようなものですが、タクシー内で交通事故が起きた場合、主な責任をどうやって乗客に押し付けることができるのでしょうか?しかも、自動運転による交通事故のほとんどは、アルゴリズムの不具合や機械システムの故障などの問題によって引き起こされており、車の所有者の責任ではありません。

したがって、主な責任は自動車の設計者の過失と運輸部門の過失にあると考えております。

IT ユーザーのリスク認識の観点から見ると、自動車所有者は予防措置を怠り、潜在的なリスクを予見しなかったことに対して一定の責任を負っており、これも「IT ユーザー」の範疇に該当します。運輸省は安全性を十分に確認せずにテスラにライセンスを発行したが、この職務怠慢は自動運転技術のリスクに対する認識と予防が明らかに欠如している。

したがって、IT倫理や社会的責任の問題への配慮、アルゴリズムなどのソフトウェアやハードウェアの未熟さ、関連部門の監督の弱さ、立法レベルでの深刻な遅れなどの理由から、自動運転技術は普及していないし、普及すべきではない。成熟する前に昇進します。しかし、自動運転技術自体は何も悪いことではありません 技術革新は生産性の向上を保証するものです 自動車の発明当初には同様の事故が多発しました 自動車をめぐる世論や社会運動当時は車よりも古くてゴツゴツした馬車に乗るのが一般的でしたが、今では馬車は歴史の片隅に消えて久しいです。未来は現在を見つめ、現在は過去を見つめます。自動運転技術が成熟した後、さらに促進されるでしょう。

参考文献:
[1] Zhang Lin. Ideological Risk and Its Governance in Intelligent Algorithm Recommendations [J]. Exploration, 2021(01): 176-188. [2] Chen Haijun、Zou Junbo、Zhao Ying、Fei Dexin. 情報プラットフォーム
研究インテリジェント推奨アルゴリズムの倫理的問題について [J]. New Media Research、2021、7(07): 32-34+63。

感想

この宿題はチームで行うもので、途中で全員が意見を出し合ったので、教科書の知識に基づいた分析だけでなく、教科書にとらわれず広い視野で考えることができました。この学習方法は私たちに大きな恩恵をもたらしました。私たちは幸運なことに、人工知能時代の真っ只中にコンピューターを学ぶ学生であり、人工知能とコンピューター技術全体の未来は私たちに関係しています。今後、私たちはコンピュータの専門的能力を向上させるだけでなく、倫理的能力を養わなければならず、十分な倫理的資質と感情があってこそ、社会、祖国、人民によりよく奉仕することができます。

おすすめ

転載: blog.csdn.net/weixin_46655675/article/details/129334953