公平性を保証した...
https://www.slideshare.net/kazutofukuchi/ai-197738033
近年注目が集まる
ICML,NIPS,KDD
採用不採用の結果で予測分布が一致してほしい
calibration:出力するラベルのみによって、ラベルの予測結果が決まってほしい??
individual fairness:似た人は似た結果にしてください。
特徴ベクトルに距離を定義する?
・ML
分類誤差最小+公平基準を満たす
in-processを考える
不公平さの罰則の項を一緒に最小化する
→凸でなくなって、最適化が難しくなる
・Reduction Approach
分類機上の分布を出力するものを学習する
最適化の空間が滑らかになって、学習がやりやすくなる
ラグランジュを使って、minmax問題にする(交互に最適化)
→鞍点の搜索はアルゴがたくさんある
・コストセンシティブ学習
疾患を見逃すのはまずい
positiveとnegativeを予測するときで、cを変える
・fair regression
連続変数を離散化して、分類問題にしてやる
・表現学習
公平な表現学習、ベクトルをsensitiveな情報に依存しないようにしたい
この後の分類機も公平になるのか??
・Invariant feature
特定の要素に依存しないような、学習をしたい
GANを使おう:、Demographic Parity、discriminatorでsensitive属性がわからなくなればおk
男女の識別にすると、中性的な顔とか作れそうだな。。
・VAE+information bottle nec
GANだと遅いけど、VAEで効率的な学習をできる
-------
公平性の学習理論
汎化性能、testデータの分類性能を評価しましょう
汎化誤差=test data error - train data error
汎化公平性=test data 不公平性 - train data 不公平性
・Learning Non-Dictiminatory Predictors
- ROCが一致するように調整?
- データを半分に割って、公平性の項を課した学習を行い、もう片方でpost処理で公平性を満たす
・Training Well...
汎化誤差はモデルの複雑さに依存するが、公平性は制約の数にしか依存しない
・バンディット問題
オンライン推薦など、累積報酬の最大化
能力主義的公平性、能力の高さ以外で優先的に選んではいけない
信頼区間が一番平均が高い人に連なる集団から一様にとる
regretも解析されてる
・強化学習
・Delayed Effect
学習とテストに時間の隔たりがある
貧困層の学生を取らないと、貧困が広がる
・Human in the Loop
出力の結果に人間が入る
人の考えが影響する、学習は一回では終わらない
・公平性を装う技術
不公平なものを世間的に公平に見せることができるか?
不公平なモデルから公平なラベルづけデータセットを生成できる