Q:
機械学習で機械バイアスが問題になるのはなぜですか?
A:この質問には2つの異なる方法で答えることができます。 最初に、なぜ機械学習プロセスに存在するのか、機械バイアス問題はなぜですか?
機械学習は、高度で複雑ですが、使用するデータセットに基づいてある程度制限されています。 データセットの構築には、固有のバイアスが伴います。 省略や意図的な包含の選択が特定のバイアスを示す可能性のあるメディアのように、機械学習では、使用されるデータセットを調べて、どのようなバイアスが存在するかを判断する必要があります。
無料ダウンロード: 機械学習とその重要性 |
たとえば、技術テストと設計プロセスでは、あるタイプのユーザーが別のタイプのユーザーよりも優先されることを示すことは一般的な問題です。 1つの大きな例は、技術の世界における男女格差です。
なぜこれが違いを生み、なぜ機械学習に適用されるのですか?
テスト環境に既存の女性がいないと、女性の視聴者にとって使いにくい生産技術が生まれる可能性があるためです。 一部の専門家がこれを説明する方法は、既存の女性テストなしでは、最終製品は女性ユーザーの入力を認識しない可能性があります。女性の身元を認識したり、女性からの入力を適切に処理するためのツールがない可能性があります
同じことは、さまざまな民族、異なる宗教の人々、または他の種類の人口統計にも当てはまります。 適切なデータがないと、特定のユーザーセットに対して機械学習アルゴリズムが正しく機能しないため、包含データを意図的にテクノロジに追加する必要があります。 プライマリデータセットを取得して固有のバイアスを強化する代わりに、人間のハンドラーは実際に問題を調べる必要があります。
別の例は、仕事と給与の情報を取り込み、結果を出力する機械学習エンジンです。 その固有のデータセットが分析されない場合、マシンはバイアスを強化します。 男性が幹部職の大部分を保持していると認識し、機械学習プロセスで生データセットをフィルタリングし、対応する結果を返す場合、男性のバイアスを示す結果が返されます。
質問の2番目の部分には、このバイアスが非常に有害である理由が含まれます。 適切な監督とテストなしでは、新しいテクノロジーは、私たちの包摂と平等の感覚を損なう可能性があります。 明るい肌の顔を認識し、暗い肌の顔を認識しない新しいハイテク製品を展開すると、エスカレートした緊張が高まり、問題の会社が多様性に敏感ではないという感覚につながる可能性があります。 機械学習アルゴリズムがデータセットのバイアスを再現し、高めると、その人工知能は、あるグループの人々を他のグループよりも優先する社会システムにすでに存在する人間の声や人間の傾向にその声を加えようとしています。
これに対処する最良の方法は、基礎となるデータセットを詳細に調べ、機能選択を使用し、変数入力を追加して生データセット自体を操作し、意図的な人間のデータ作成で機械学習の真の力を強化することです結果は優れた分析力を提供しますが、コンピューターがまだ複製できない人間の洞察の一部も提供します。
