機械学習における公平性②

公平性を保証した...

福地先生、筑波大学AI/機械学習

https://www.slideshare.net/kazutofukuchi/ai-197738033

 

近年注目が集まる

ICML,NIPS,KDD

 

採用不採用の結果で予測分布が一致してほしい

calibration:出力するラベルのみによって、ラベルの予測結果が決まってほしい??

individual fairness:似た人は似た結果にしてください。

特徴ベクトルに距離を定義する?

 

・ML

分類誤差最小+公平基準を満たす

 

in-processを考える

不公平さの罰則の項を一緒に最小化する

→凸でなくなって、最適化が難しくなる

 

・Reduction Approach

分類機上の分布を出力するものを学習する

最適化の空間が滑らかになって、学習がやりやすくなる

ラグランジュを使って、minmax問題にする(交互に最適化)

→鞍点の搜索はアルゴがたくさんある

 

・コストセンシティブ学習

疾患を見逃すのはまずい

positiveとnegativeを予測するときで、cを変える

 

・fair regression

連続変数を離散化して、分類問題にしてやる

 

・表現学習

公平な表現学習、ベクトルをsensitiveな情報に依存しないようにしたい

この後の分類機も公平になるのか??

 

・Invariant feature

特定の要素に依存しないような、学習をしたい

GANを使おう:、Demographic Parity、discriminatorでsensitive属性がわからなくなればおk

男女の識別にすると、中性的な顔とか作れそうだな。。

 

・VAE+information bottle nec

GANだと遅いけど、VAEで効率的な学習をできる

-------

公平性の学習理論

 

汎化性能、testデータの分類性能を評価しましょう

汎化誤差=test data error - train data error

汎化公平性=test data 不公平性 - train data 不公平性

 

・Learning Non-Dictiminatory Predictors

- ROCが一致するように調整?

- データを半分に割って、公平性の項を課した学習を行い、もう片方でpost処理で公平性を満たす

 

・Training Well...

汎化誤差はモデルの複雑さに依存するが、公平性は制約の数にしか依存しない

 

・バンディット問題

オンライン推薦など、累積報酬の最大化

能力主義的公平性、能力の高さ以外で優先的に選んではいけない

信頼区間が一番平均が高い人に連なる集団から一様にとる

regretも解析されてる

 

強化学習

 

・Delayed Effect

学習とテストに時間の隔たりがある

貧困層の学生を取らないと、貧困が広がる

 

・Human in the Loop

出力の結果に人間が入る

人の考えが影響する、学習は一回では終わらない

 

・公平性を装う技術

不公平なものを世間的に公平に見せることができるか?

不公平なモデルから公平なラベルづけデータセットを生成できる