Apprentissage débiaisé

 

De nombreuses références proposent d’adapter ou contraindre des méthodes d’apprentissage à construire une règle de décision sans biais ou de biais réduit tout en préservant au mieux la qualité de prévision.

  • Kamiran et al. (2010) proposent d’adapter la recherche des reègles de division pour la définition des nœuds d’un arbre de décision.
  • Calders et Verwer (2010) le font pour des classifieurs bayésiens naïfs.
  • Tout récemment, Zafar et al. (2017) définissent des contraintes de « loyauté » qui peuvent être intégrées aux algorithmes d’estimation de méthodes classiques  comme la régression logistique ou les  SVM tout en contrôlant la perte de précision de la prévision.
  • Dwrok et al. (2012) (?).
  • Zemel et al. (2013) associent un individu à une distribution dans un espace de représentation, qui « oublie » l’appartenance à un groupe protégé tout en conservant le « plus ‘informations ». Il s’agit donc de la recherche d’une meilleure représentation masquant l’information sensible.
  • Hajian et al. (2014) adoptent une autre stratégie en débiaisant une décision après le processus d’apprentissage.

Références

T. Calders, S. VerwerThree (2010). Naive Bayes Approaches for Discrimination-Free Classication in Data Mining and Knowledge Discovery 21(2), 277–292.

C. Dwork, M. Hardt, T. Pitassi, O. Reingold, R. Zemel (2012). Fairness Through Awareness in ITCS, 214-226.

S. Hajian, J. Domingo-Ferrer, A. Monreale, D. Pedreschi, F. Giannotti (2014). Discrimination – and privacy – aware patterns in Data Mining and Knowledge Discovery 29(6).

F. Kamiran, T. Calders, M. Pechenizkiy (2010). Discrimination Aware Decision Tree Learning in ICDM, 869-874.

M. B. Zafar, I. Valera, M. G. Rodriguez, K. P. Gummadi (2017). Fairness Constraints: Mechanisms for Fair Classication in International Conference on Articial Intelligence and Statistics (AISTATS), vol. 5.

R. Zemel, Y. Wu, K. Swersky, T. Pitassi, C. Dwork (2013). Learning Fair Representations in  JMLR W&CP 28(3), 325–333.

 

 
Mentions Légales