アルゴリズムの公平性を実現する方法

近年、機械学習の公平性がますます注目されており、この分野で新たな展開が見られます。機械学習トレーニングに性別や人種などの人に関連するデリケートな属性が含まれる場合、統計的バイアス、アルゴリズム自体、さらには人間のバイアスのために、差別的な行動がしばしば導入されます。したがって、差異の影響を排除し、機械学習の公平性を向上させるための主な方法には、トレーニングデータセットの品質の向上、機密属性への依存を減らすためのアルゴリズムの向上、および識別の程度を定量化および測定するための指標の定義が含まれます。この記事では、アルゴリズムによる識別の原因を分析し、データの問題に焦点を当て、公平性の定義を示し、統計的等化メトリックを紹介します。また、さまざまなアルゴリズムによる公平性定義のインデックス手法には長所と短所があり、公平性についてコンセンサスを得ることができないことも指摘されています。したがって、アルゴリズムの公平性は、数学またはコンピューターサイエンスの問題として直接見なすことはできません。この記事の目的は、読者に機械学習アルゴリズムに根ざした不公平を個人的に理解させることです。このため、作者は数式を避け、わかりやすい方法で概念を説明しようとしています。すべての読者がこの記事を読むことで恩恵を受けることができることを願っています。

「良い人になるのは簡単ですが、公平になるのは簡単ではありません」-フランスの作家、ビクター・ヒューゴ

「私たちは、会ったことのない、あるいは会ったことのない人々の利益を守る必要があります。」-アメリカのエコノミスト、ジェフリーD.サックス

監視対象の機械学習アルゴリズムは、本質的に差別的です。この識別性の根本は、アルゴリズムがデータに埋め込まれた機能情報に基づいてインスタンスを分類するという事実にあります。実際、実際には、そのようなアルゴリズムは分類用に設計されています。識別は、アルゴリズムの命名にも反映されます。特定のカテゴリに従ってデータを生成する「生成アルゴリズム」とは異なり、このタイプのデータ分類アルゴリズムは通常、「識別アルゴリズム」と呼ばれます。監視付き機械学習を使用する場合、この「識別」(「識別」または「差別化処理」とも呼ばれます)は、次の図に示すように、データをさまざまな分布に従ってさまざまなカテゴリに分割するのに役立ちます。

サポートベクターマシン、通常の線形回帰などのパラメーター回帰アルゴリズム、またはランダムフォレスト、ニューラルネットワーク、ブースティングなどのパラメーターなしの回帰アルゴリズムのいずれであっても、識別アルゴリズムを任意のデータセットに適用します。出力結果自体には道徳性がありません。問題。たとえば、先週の気象データを使用して、道徳的な問題がない明日の気象を予測できます。ただし、データセットに直接または間接を問わず、人間に関連する情報の記述が含まれると、グループの所属に固有の特定の識別に不注意につながる可能性があります。

人々は、監視された学習アルゴリズムが両刃の剣であることを認識しています。天気予報などの情報サービスを提供したり、コンピューターネットワークを分析して攻撃や悪意のあるソフトウェアを検出し、保護的な役割を果たすなど、人々の関心に応えることができます。しかしその一方で、それは本質的に一定レベルの差別のための武器になるでしょう。これは、アルゴリズムの機能が悪であると言っているのではありません。データ内の表現を学習するだけですが、これらの表現自体が、歴史的な偏見、または人の好き、嫌い、傾向の特定の兆候に組み込まれる場合があります。データサイエンスでよく言われるイディオムは、「ガベージイン、ガベージアウト」です。これは、モデルが提供されるデータの品質に大きく依存していることを意味します。アルゴリズムの公平性のシナリオでは、「入力にバイアスがかかると、出力にもバイアスがかかる」と同様に説明できます。

データのファンダメンタリズム

データのファンダメンタリズムには多くの支持者がいます。彼らは、データの経験的観察を通じて、世界の客観的な真実を反映できると信じています。

「データの量は十分です。それは自明です。」— Wiredの元編集長であり、データのファンダメンタリストであるChrisAnderson氏。

データとデータセットは客観的ではなく、人間の設計の産物です。人々はデータを表現し、そこから推論し、独自の解釈を使用してデータの意味を定義します。収集と分析の段階に隠されたバイアスは、多くのリスク、ビッグデータ方程式への影響は数値自体と同じです。」-Mi​​crosoft Research、ソーシャルメディアグループ、主任研究員、Kate Crawford

ファンダメンタリストの仮定は、表面上は合理的であるように思われます。しかし、ケイト・クロフォードはハーバードビジネスレビュー(ハーバードビジネスレビュー)で良い反論をしました:

「ボストンにはポットホールの問題があります。毎年約20,000のポットホールを修理する必要があります。リソースを効果的に割り当てるために、ボストン市政府は非常に便利なスマートフォンアプリStreetBumpをリリースしました。このアプリはスマートデバイスの加速度計を使用します。また、GPSデータは、非アクティブな方法でポットホールを検出し、すぐに市政府に報告します。アプリケーションのコンセプトは非常に優れていますが、明らかな問題があります。米国の低所得者、特に一部の高齢者は、スマートフォンを所有する可能性が低くなっています。居住者。このグループの人々のスマートフォン普及率は16%まで低くなる可能性があります。ボストンのような都市では、スマートフォンデータセットの重要な人々の一部、通常は最下位に住む人々が欠落していることを意味します。」-Kate Crawford

本質的に、StreetBumpアプリケーションによって取得されるデータは、主に比較的裕福なコミュニティからのものですが、比較的貧しいコミュニティからのデータは少なくなります。これにより、人々は比較的裕福なコミュニティにもっと多くの穴があると最初に感じるようになります。しかし実際には、比較的貧しいコミュニティからのデータが不十分であるため、コミュニティの住民がSmartBumpアプリケーションをダウンロードするためのスマートフォンを持っている可能性は低いです。通常、結果に最も大きな影響を与えるのは、データセット内の欠落しているデータです。上記の例は、収入に基づく差別の良い例です。したがって、データに「信号の問題」がある可能性があるため、データに基づいて結論を出すときは注意が必要です。この信号の問題は、「サンプリング偏差」と呼ばれることがよくあります。

もう1つの良い例は、COMASと呼ばれる「代替制裁のための修正犯罪者管理プロファイリング」アルゴリズムです。COMASアルゴリズムは、米国の多くの州で、共生主義、つまり、再び犯罪を犯した人の可能性を予測するために使用されています。しかし、調査報道機関であるProPublicaの分析によると、このアルゴリズムは米国の一部の保護されたクラスに対して人種差別を行っており、これが広範な論争を引き起こしています。問題を説明するために、共生を予測するためのアルゴリズムは次のように要約できます。

再発リスクスコア=(年齢-w)+(最初の逮捕年齢-w)+(暴力的な歴史* w)+(職業教育* w)+(違法な歴史* w)

ここで、wは重み値です。明らかに、予測因子は人種を特徴的な変数として使用しませんが、米国の歴史的不正、人口統計、社会、法執行の統計などの要因に基づいて、「暴力の歴史」や「職業教育」などの変数のデータ分布は異なります。レース間で大きな違いがあります。法執行機関の統計も同様に物議を醸しています。警察がパトロールする近隣地域は通常、アルゴリズムを使用して決定され、アルゴリズムはデータ分布の違いを使用し、人種間の違いを導入します。これにより、ある程度の偏りや不利な結果が生じます。これらの根深い偏見がアルゴリズムによって実装された後も、この結果は維持され続け、さらなる不公平につながります。このサイクルは本質的に「自己実現の予言」を形成します。

過去の不正→トレーニングデータ→実際のアプリケーションでのアルゴリズムの逸脱

これは一連の困難な問題を引き起こしました。問題のある変数を削除する必要がありますか?特定の特性が差別的な結果につながることをどのように判断するのですか?「識別」のしきい値を与える指標を設計する必要がありますか?極端なアプローチは、ほとんどすべての変数を削除することです。これにより、アルゴリズムが途方に暮れます。問題を解決する見通しは不確かに思えますが、幸いなことに常に方法があります。この記事については後で説明します。

上記の例は、孤立したインシデントではありません。同様に、乳がん予測アルゴリズムもある程度の不当な識別を示します。この研究では、乳房造影法に深部学習アルゴリズムを使用して乳がんを予測することを提案していますが、黒人女性の正解率は白人女性の正解率よりも低くなっています。これは、アルゴリズムのトレーニングに使用されるデータセットが主に白人女性のマンモグラフィーに基づいており、黒人女性と白人女性の間で乳がんデータの分布がかなり異なる可能性があるためです。米国疾病管理センターの調査によると、「黒人女性と白人女性の乳がんの発生率はほぼ同じですが、黒人女性の乳がんによる死亡率は白人女性よりも高くなっています

研究の動機

これは、アルゴリズム開発者の動機付けの問題を提起します。モデルを設計する人は意図的ですか?彼らは故意に私物を運び、不透明な機械学習モデルに隠していますか?

質問に明確な「はい」または「いいえ」の答えを出すことは不可能ですが、質問をするときは、ハンロンのかみそりの原則を考慮することをお勧めします。

「愚かだと説明できるのなら、悪意があると説明しないでください。」-ロバートJ.ハンロン

言い換えれば、この世界には邪悪な人々はそれほど多くなく、無能な人々よりも邪悪な人々は間違いなく少ないのです。物事がうまくいかないときは、悪意からではなく、無能、無実、または怠慢が原因である可能性が高いと考えるのが妥当です。差別的な慣行を追求したい悪意のあるアクターがいるかもしれませんが、これらの人々はまだ少数派です。

上記の仮定に基づいて、問題はどこにありますか?統計学者、機械学習の実践者、データ科学者、およびコンピューター科学者は、識別を制御および修正できる監視付き学習アルゴリズムに対応する専門的な開発トレーニングを受けていないことが示唆されています。

では、なぜこれが起こっているのでしょうか?

実際、関連する専門的な技術トレーニングは現在存在しません。公平性は、機械学習の新たな分野です。過去数年間で機械学習が社会のあらゆる側面に急速に統合されたため、公平性の問題がますます注目を集めています。医師などの職業とは異なり、コンピューター科学者は、自分の行動の道徳的影響を考慮することを学ぶためのトレーニングを必ずしも受けていません。最近まで、ソーシャルメディアの出現により、コンピューター科学者のデザインと創造は倫理的な問題を明らかにしたとも言われていました。

実際、ほとんどのコンピューターサイエンスジャーナルは、論文を提出する際に倫理的声明や考慮事項を必要としません。実在の人物の何百万もの画像を含む画像データベースが論文で使用されている場合、道徳的な問題を考慮する必要があることは間違いありません。データセットの物理的な距離とサイズを考慮すると、コンピューターサイエンティストは、個人への影響を考慮する必要はありません。これは些細なことと見なすことができるため、無視されます。これとは異なり、社会学者と心理学者は、研究が倫理的境界を越えないことを保証するために、個々のグループでテストを実施するときに実験をレビューおよび承認するための完全な倫理レビュー委員会を設立する必要があります。

明るい面では、物事は徐々に変化しています。ますます多くのデータサイエンスとコンピューターサイエンスプロジェクトが、学生にデータ倫理と批判的思考のコースを受講することを要求し始めています。学術雑誌はまた、Institutional Review Boards(IRB)を通じて倫理的レビューを実施し、論文に倫理的声明を追加することが、ピアレビュープロセスの必要な補足であることに徐々に気づきました。機械学習の公平性に対する懸念が高まる中、上記の立場は絶えず強化されています。

機械学習の公平性

先に述べたように、監視された機械学習の普及は、アルゴリズムの公平性に対する人々の注目を呼び起こしました。アルゴリズムの普及により、人々の生活のコントロールが高まり、人々の心配も高まります。機械学習コミュニティもこれらの課題をよく認識しています。アルゴリズムの公平性は現在、機械学習の急速に発展しているサブフィールドであり、Moritz Hardt、Cynthia Dwork、Solon Barocas、MichaelFeldmanなどの優れた研究者が参加しています。

それにもかかわらず、真に公正なアルゴリズムを実現するには、解決すべき重要な課題がいくつかあります。アルゴリズムでの差分処理(異種処理)は比較的簡単に回避でき、特定の属性データから人種、性別などに対応する変数を削除するなど、異なるグループを明示的に差分処理実行できます。しかし、異なる影響を回避することははるかに困難です。データ内の冗長なエンコーディングの問題は、通常、異なるグループの非明示的な区別の結果につながります。

冗長コーディングは、データ内の人種や性別などの保護された属性に関連する機能に基づいて、これらの属性に関する情報を提供します。たとえば、化粧品などのオンラインショッピング製品は、性別属性と高度に相関している可能性があります。郵便番号などの属性に従って、アルゴリズムはさまざまな民族集団の分布特性を取得できます。

アルゴリズムは上記の考えに従って判断しませんが、パターン認識タスクで人間のパフォーマンスを超えたデータ駆動型アルゴリズムの場合、これらの関連付けがどれほど小さくても、データに埋め込まれた関連付けを処理することは避けられません。さらに、関連付けが情報を提供しない場合、つまりアルゴリズムの精度が向上しない場合は、アルゴリズムによって無視されます。これは、特定の情報が実際に保護された属性に埋め込まれていることを意味します。これは、次のような多くの課題を研究者にもたらします。

  • 公平性と正確性の間に本質的なトレードオフはありますか?差別的な扱いを避けるために、保護された属性から関連情報を抽出することは可能ですか(翻訳者注:元のテキストは「機能」です)?
  • アルゴリズムの「公平性」を統計的に測定するにはどうすればよいですか?
  • 政府や企業が個人の公平性を保護できるアルゴリズムを確実に導入するにはどうすればよいですか?
  • トレーニングデータの偏差を判断する方法は?逸脱の影響を減らす方法は?

以下、この記事で説明します。

データの問題

前のセクションで述べたように、冗長なコーディングは機能と保護された属性の間の相関関係につながります。データセットのサイズが拡大し続けると、それに応じて関連付けの可能性が高まります。ビッグデータの時代では、これは大きな問題です。より多くのデータが利用可能であるほど、より多くの識別情報が利用可能になります。差別は必ずしも人種や性別に限定されるものではなく、ピンクの髪の人に対する差別、ウェブ開発者に対する差別、スターバックスのコーヒー消費者に対する差別、さらにはさまざまなグループの組み合わせに対する差別として現れることもあります。このセクションでは、公平性アルゴリズムの作成の問題を複雑にするトレーニングデータとアルゴリズムのいくつかの逸脱について説明します。

マジョリティバイアス

アルゴリズム自体は特定のグループに偏っていませんが、統計的にはほとんどのグループに偏っています。Moritz Hardt教授がMediumのブログ投稿で指摘したように、エラー範囲はサンプル数の逆二乗根に関連しているため、分類子は通常、トレーニングデータポイントの数とともに向上します。以下に示すように。

現実は気がかりです。マイノリティグループは通常、定義上データが少ないため、マイノリティグループのモデルのパフォーマンスはマジョリティグループよりも悪いことがよくあります。上記の仮定は、多数派グループと少数派グループが異なる分布から引き出された場合にのみ確立できます。2つが同じ分布から抽出された場合、サンプルサイズを増やすことは、両方のグループにとって等しく有益です。

例として、前に紹介した乳がん検出アルゴリズムがあります。マサチューセッツ工科大学の研究者によって開発されたこの深層学習モデルでは、神経ネットワークのトレーニングに使用されるデータセットには60,000のマンモグラムが含まれ、そのうち5%のみが黒人女性です。これらの患者は乳がんで死亡する可能性があります。セックスは43%にもなります。したがって、このアルゴリズムを使用して黒人女性などの少数派グループをテストすると、パフォーマンスが比較的低下します。これは、色の女性の乳がんは通常、より早い段階で症状を示すという事実に部分的に起因する可能性があります。これは、影響の違いが色の女性の確率分布の過小表示によるものであることを示しています。

これはまた別の重要な問題を提起します、それは正確さが公平さをうまく表すことができるかどうかです。上記の例では、少数派グループへの不公平さのために、少数派グループの分類精度も低いと考えられています。ただし、公平性の定義の違いとその性質のあいまいさのために、多くの場合、測定値が公平性を適切に表すことを保証することはできません。たとえば、私たちのアルゴリズムの正解率は、黒人女性と白人女性の両方で50%です。しかし、白人女性に30%の偽陽性(偽陽性)があり、黒人女性に30%の偽陰性(偽陰性)がある場合、それはまた、異なる影響の問題があることを示しています。

上記の例に関して言えば、グループの所属に基づく差別的な扱いのために、何らかの形の差別があると直接考えることができます。ただし、このグループの所属が予測に非常に役立つ場合があります。たとえば、eコマースWebサイトは、特定のコンテンツをさまざまなユーザーに表示しようとするため、各個人の性別、年齢、または社会経済的状況を知ることは非常に役立ちます。つまり、保護された属性をデータから削除するだけでは、モデルの精度が低下し、その他のパフォーマンス指標も低下します。同様に、黒人女性と白人女性の乳がんモデルに関する十分なデータがあれば、人種を入力としてアルゴリズムを開発できます。レース間のデータ分布の違いを考慮に入れると、新しいアルゴリズムは異なるレースの精度を向上させる可能性が高くなります。

したがって、アルゴリズムの一般化能力を向上させるためには、保護された属性を考慮することが最善です。また、識別を防ぐために、アルゴリズムは公平性指標によって制約される必要があります。

このアイデアは、MoritzHardtとEricPriceによって「監視された学習における機会の平等」という論文で提唱されました。平等な機会には、統計的パリティや等化オッズなどの指標よりも優れています。上記の3つの方法を以下に個別に説明します。

「公平性」の定義

このセクションでは、統計的平等を含む、機械学習の公平性研究者によって提案されたいくつかの概念、および統計的平等とはわずかに異なる機会の平等や補償確率などの指標を紹介します。

統計的パリティ(統計的パリティ)

統計的平等は、義務的な公平性の最も古くて最も単純な指標です。arXivの事前公開論文「アルゴリズムによる意思決定と公平性のコスト」では、統計的平等の概念が詳細に説明されています。統計的同等性の計算式を図5に示します。

では、統計的同等性の出力は、それが属するグループから独立していることをどのように理解する必要がありますか?これは、各グループの同じ部分がポジティブまたはネガティブとして分類される可能性が等しいことを意味します。したがって、統計的パリティは「人口統計学的パリティ」(人口統計学的パリティ)とも呼ばれます。pに分類されたすべてのグループについて、統計的同等性が適用されます。

統計的パリティを使用しないデータセットの場合、図6の式を使用して、統計的パリティからの逸脱の程度を示す統計的パリティ距離を計算できます。

統計的に等しい距離は、グループメンバーシップパラメータpに基づいてデータセットの公平性の尺度を提供します。

では、統計的同等性を使用する際のトレードオフは何ですか?

まず、統計的平等は公平性を保証しません

統計的同等性が予測の正確さを反映していないことに気づいたかもしれません。あるグループが陽性であると予測される確率が別のグループの確率よりも高い場合、2つのグループは偽陽性率と真率に大きな違いをもたらす可能性があります。これ自体が異なる効果を生み出します。つまり、あるグループ(p = 1)の資格のない個人に偏ると、別のグループ(p = 0)の資格のある個人を見逃す可能性があります。この意味で、統計的平等は「結果の平等」(結果の平等)に似ています。

下の写真は良い表示を示しています。2つのグループがある場合、「A = 1」グループが与えられている場合、一方のグループは10人(「A = 1」グループと呼ばれます)、もう一方のグループは5人(「A = 0」グループと呼ばれます)です。 8人がY = 1(80%)を獲得したため、いずれの場合も、「A = 0」グループの4人もY = 1(80%)を獲得する必要があります。

第二に、統計的同等性はアルゴリズムの精度を低下させます。

統計的同等性の2番目の問題は、保護された属性は予測に役立つ情報を提供する場合がありますが、統計的同等性の厳密な規則のために使用できないことです。たとえば、性別は人々の商品購入意向を予測するのに非常に役立ちます。性別を使用しないと、モデルが弱くなり、精度に影響します。良い方法は、異なる影響を与えることなく、グループ間の違いを考慮することができるはずです。明らかに、統計的同等性は、機械学習の精度という基本的な目標を満たしていません。優れた分類子は、統計的な同等性を保証しない場合があります。

上記の問題を考慮して、多くの機械学習の公平性の研究者は、統計的同等性は信頼できる指標ではないと考えています。ただし、統計的同等性は、他の公平性指標を構築するための基本的な出発点として使用できます。

真陽性パリティ、偽陽性パリティ、陽性率パリティなど、統計的同等性とはわずかに異なるいくつかの指標もあります。

真のポジティブパリティ(TPP)

真の平等は「機会の平等」(機会の平等)とも呼ばれ、2クラスの予測にのみ適用されます。真の等式は、TPクラスで統計的等式を実行します。つまり、予測出力が1で、真の出力も1の場合です。

真の平等は、2つのグループのすべての資格のある個人(Y = 1)が同じ割合で資格のある(C = 1)として分類されることを保証します。出力が正であるかどうかだけを気にする場合は、真の等式を使用できます。

誤検知パリティ

偽陽性の等式は、FPクラスに焦点を当てた、2クラスの予測、つまり、予測された出力が1であるが、実際の出力が0である場合にのみ適用されます。真陽性率に似ていますが、TPタイプと同等の出力を提供します。

正のレートパリティ(正のレートパリティ)

正の率の均等化は「均等化オッズ」とも呼ばれ、TPとFPの統計的同等性を組み合わせたものです。

  • 注:機会が等しい場合は、「Y = 0」の場合にオッズが等しくなければならないという等しい確率の制約を緩和しました。等しい確率と機会はより柔軟であり、保護された変数に関する情報は、異なる影響を与えることなく追加できます。

上記の指標はすべて、公正と見なすことができるいくつかの解決策を提供しますが、それらは特に満足のいくものではありません。その理由の1つは、公平性の意味について多くの矛盾する定義があり、アルゴリズムの形で定義を与えることが難しいことです。これらの方法は良い出発点を提供しますが、まだ改善の余地があります。

公平性を高める他の方法

統計的平等、平等な確率、平等な機会は、公平性の指標として良い出発点を提供します。さらに、アルゴリズムの使用が個人に対する過度の差別を引き起こさないことを保証する他の方法があります。Human in the loop(HITL)とAlgorithm Transparency(Algorithmic Transparency)は、現在提案されている2つの主要なソリューションです。

マンマシン共生

この名前はある種のローラーコースターのように聞こえますが、実際には人間がアルゴリズムプロセスを監督するパラダイムを表しています。人間とコンピューターの共生は、通常、アルゴリズムエラーのリスクが高い状況に適しています。たとえば、ミサイル検出システムは、相手が発射したミサイルを検出した後、軍に手動で確認し、対応方法を決定する必要があります。人との対話がない場合、アルゴリズムは応答しません。人工知能を使用して核兵器システムを操作することの壊滅的な結果を想像してみてください。システムが脅威を見つけると、それは発砲する権利を持ち、誤った判断は全世界の破壊につながる可能性があります。

別の例は、共生を決定するためのCOMPASシステムです。誰かが再犯者として分類されているという理由だけで、システムは対応する法的判断を下しません。代わりに、システムは裁判官によってCOMPASスコアをレビューし、これを状況レビューの考慮事項として使用します。これは、人間がアルゴリズムシステムとどのように相互作用するべきかという新しい疑問を提起します。Amazon Mechanical Turk(MTurk)クラウドソーシングプラットフォームを使用した一部の研究では、アルゴリズムは人間よりも知識が豊富であると信じているため、アルゴリズムの判断に完全に従う人もいれば、アルゴリズムの出力について疑わしい人もいます。アルゴリズムの出力を完全に無視する人さえいます。人間とコンピューターの共生研究は比較的新しい研究の方向性ですが、機械学習が社会に広まり続けるにつれて、この方向にさらに発展が見られるでしょう。

もう1つの重要な同様の概念は、ヒューマンオンザループです。これは、人間とコンピューターの共生に似ていますが、プロセスに積極的に参加するのではなく、アルゴリズムの監視に受動的に参加する点が異なります。たとえば、データアナリストは、石油とガスのパイプラインのすべての部分を監視して、すべてのセンサーとプロセスが正常に動作していることを確認し、注意やエラーが必要な情報を回避する責任があります。その中で、アナリストは監督状態にあるだけであり、プロセスに積極的に参加していません。「人為的な監視」は、人間の参加度が低いため、「人間とコンピュータの共生」よりもスケーラビリティが優れています。ただし、核ミサイルの監視など、特定の状況には適用されません。

アルゴリズムの透明性

一部の正式な文書では、公平性を実現するための主流の方法は、透明性を通じてアルゴリズムの解釈可能性と説明可能性を実現することです。文献は、アルゴリズムを公に観察し、注意深く分析することができれば、モデルに差異のある影響がないことを高い信頼性で保証できると提案しています。アルゴリズムの透過性は多くのレベルで達成できますが、いくつかの欠点もあります。

独自のアルゴリズムは定義上不透明であると主張する人もいます

ビジネスの観点から、透明性は多くの状況に適用できません。企業が独自のアルゴリズムとビジネスプロセスをすべての人に提供する場合、企業秘密や専有情報が明らかになる可能性があります。FacebookまたはTwitterが、識別の問題がないことを確認するために精査されるために、アルゴリズムを世界に公開する必要があると想像してください。このようにして、誰でも自分のコードをダウンロードして、自分のバージョンのTwitterまたはFacebookを起動できます。完全な透明性は、政府が使用するアルゴリズム(ある程度)、医療保険、法制度、およびその他の公的サービスで考慮する必要がある1つの要素にすぎません。法制度が法学者の主な関心事であることを考えると、これが現在のコンセンサスであると信じることは合理的です。

将来に目を向けると、投資したアルゴリズムの機密性を維持したい民間企業にとって、アルゴリズムの公平性に関連する規制を公布することは、アルゴリズムの透明性を達成するよりも信頼できるソリューションです。Andrew Tuttは、論文「An FDA For Algorithms」でこの概念について説明し、アルゴリズムを規制するためにFDAと同様の規制機関を設立することを提案しました。アルゴリズムは、規制当局またはサードパーティの監査サービスに提出して分析し、それらの適用性を確認することができ、矛盾が生じることはありません。

確かに、透明性を実現するには、多くの議論、多額の投資、および関連する専門知識の拡大が必要です。しかし、私の意見では、透明性ソリューションは実行可能のようです。アルゴリズムに差分処理の干渉や差分の影響がないことを確認するには、まだ長い道のりがあります。規制、透明性、人間と機械の共生、人間の監督、そして新たに提案された統計的均等化改善方法の包括的な使用により、状況は改善しています。しかし、公平性の研究分野はまだ揺籃期にあり、やるべきことはまだたくさんあります。この分野は注目に値する。

結びの言葉

この記事では、トレーニングデータセットのさまざまな偏差について詳しく説明します。これらの偏差は、トレーニングデータの収集方法と分析方法によって発生します。さらに、バイアスの影響を減らすためのいくつかの方法が与えられ、アルゴリズムが少数派グループと保護されたクラスを区別しないようにします。

本質的に、機械学習には何らかの形の統計的識別があります。そして、特定の特権グループが体系的な上位の位置に置かれ、特定の非特権グループが体系的な不利な立場に置かれると、この種の差別は好ましくなくなります。ラベルに存在するバイアス、アンダーサンプリング、またはオーバーサンプリングのために、トレーニングデータに偏差があり、モデルにも望ましくない偏差があります。

一部の人々は、決定は部分的な情報に基づいて人々によって行われることを示唆しており、意思決定者によって行われる決定は、彼らが存在する多くの暗黙的および認知的バイアスの影響を受ける可能性があります。また、意思決定の自動化により、より正確な結果が得られ、逸脱の影響が大幅に制限されます。これらのアルゴリズムは完全である必要はなく、以前に使用されたアルゴリズムよりも優れている必要があります。歴史的発展は、最終的には曲がりくねって正しい方向に進むでしょう。

アルゴリズムは、データの不公平または固有のバイアスを体系的に反映できるようにすることも示唆されています。これらの問題を軽減するには、保護された属性に関連する変数をデータから削除し、関連するすべての変数を削除または制限する必要があります。

上記のアプローチは両方とも部分的に正しいです。しかし、不公平なアルゴリズムに満足すべきではありません。結局のところ、改善の余地があります。同様に、持っているすべてのデータを無駄にしたり、すべての変数を削除したりしないでください。これにより、システムのパフォーマンスが低下し、それらの有用性が低下します。つまり、最終的には、データ収集を担当するアルゴリズム、規制当局、および機関の作成者が、これらの逸脱が適切に処理されるように最善を尽くす必要があります。

データの収集とサンプリングのプロセスは、通常、統計教育の最も退屈な部分であり、一般の人々はそれを認識していません。規制当局が介入する前に、機械学習エンジニア、統計学者、およびデータ科学者が機械学習の実践に平等な機会を与えるようにする必要があります。データの出所と処理方法に注意を払う必要があります。前任者が木を植え、子孫が日陰を楽しんでいることを忘れないでください。

著者について:

マシュー・スチュワート、ハーバード大学データサイエンス博士、機械学習コンサルタント。

元のリンク:

https://towardsdatascience.com/programming-fairness-in-algorithms-4943a13dd9f8

 

おすすめ

転載: blog.csdn.net/aizhushou/article/details/108724150