人工知能(AI)が人々の生活に浸透し、家庭や職場、さらには外出先での体験を支えるようになるにつれて、自分が利用するマシンの挙動の仕組みとその理由について考えなければならなくなっている。ほとんどのAIは「ブラックボックス」の中で動作するため、その意思決定プロセスを窺い知ることはできないが(たとえば、GPSはなぜルートを変更したのか)、AIの透明性はシステムに対する信頼を築く上で不可欠だ。
だが、求められているのは透明性だけではない。AIの能力を全面的に信頼するためには、AIの意思決定に偏向がないようにする必要もある。
テクノロジ業界の偏向の問題は周知の事実だ。特に、女性従業員の割合の低さや賃金格差はよく知られている。しかし、偏向は機械学習が訓練に使用するデータそのものにも紛れ込み、機械学習の予測に影響を及ぼすこともある。
ルイビル大学でサイバーセキュリティ研究所のディレクターを務めるRoman Yampolskiy氏は次のように述べる。「人間の意思決定のデータセットには、必ず偏りが含まれている。採用者の決定、学生のレポートの採点、医療診断、オブジェクト記述はすべて、文化、教育、性別、人種などに関する偏向を含んでいる」
では、偏りのあるデータによって、アルゴリズムに具体的にどのような影響が出ているのだろうか。
残り本文:約2604文字 ログインして続きを読んでください。