ЗАСТОСУВАННЯ МЕТОДІВ КОМП’ЮТЕРНОЇ СТАТИСТИКИ ДЛЯ ВИЯВЛЕННЯ УПЕРЕДЖЕНЬ В АЛГОРИТМАХ ШТУЧНОГО ІНТЕЛЕКТУ

Сергій Сергійович Карандін, Юрій Валерійович Гуртовий

Анотація


У статті досліджено алгоритмічну упередженість у кредитному скорингу на прикладі датасету German Credit. Розглянуто ґендерне упередження в базових моделях (логістична регресія, Random Forest, XGBoost) за метриками групової справедливості (SPD, EOD) і статистичними тестами (χ², t‑тест, K–S). Реалізовано методи дебайзінгу: reweighing і adversarial debiasing. Показано, що після застосування цих підходів упередженість суттєво зменшується, при помірному зниженні точності. Зроблено висновки щодо ефективності моделей з урахуванням fairness.


Повний текст:

PDF

Посилання


Kamiran F., Calders T. Data Preprocessing Techniques for Classification without Discrimination. Knowledge and Information Systems. 2012, Vol. 33, Issue 1, P. 1–33.

Hardt M., Price E., Srebro N. Equality of Opportunity in Supervised Learning. Advances in Neural Information Processing Systems (NeurIPS). 2016, Vol. 29, P. 3325–3333.

Bellamy R.K.E. et al. AI Fairness 360: An Extensible Toolkit for Detecting and Mitigating Algorithmic Bias. AAAI Conference on Artificial Intelligence. 2018. (Документація IBM AIF360, розділ Fairness Metrics).

Mervič Ž. Orange Fairness – Adversarial Debiasing. Orange Blog. Sep 19, 2023. (пояснення алгоритму adversarial debiasing у контексті справедливості).

Mehrabi N. et al. A Survey on Bias and Fairness in Machine Learning. ACM Computing Surveys. 2021, Vol. 54, Issue 6, Article 115.

Barocas S., Selbst A.D. Big Data’s Disparate Impact. California Law Review. 2016. (систематичний огляд проблем дискримінації в алгоритмах)


Посилання

  • Поки немає зовнішніх посилань.