Skip to content
This repository has been archived by the owner on Jan 2, 2023. It is now read-only.

mbogomazov/hse_workshop_classification

 
 

Repository files navigation

Метрики

Ключевой метрикой для оценки качества модели была выбрана метрика ROC AUC, поскольку именно площадь под кривой и то, насколько больше (меньше) значение этой метрики чем 0.5 - показывают насколько качественно была обучена модель и какова разница между предсказанным и истинным значением.

Однако также было интересно взглянуть и на другие метрики для разных моделей: для лучшей, найденной с помощью hyperopt, и для catboost. Во второй моделе такие низкие оценки, поскольку модель пыталась предсказывать все классы, не игнорирую малочисленные, и из-за дисбаланса данных - получалось у нее это достаточно плохо.

Model accuracy precision f1 recall ROC AUC
Best hyperopt 0.531 0.6842 0.5693 0.4875 0.82745, 0.51902, 0.60317, 0.57442, 0.75862
CatBoost 0.5 0.6323 0.5810 0.5375 0.83573, 0.66033, 0.63591, 0.55814, 0.72414

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • HTML 92.1%
  • Jupyter Notebook 4.3%
  • Python 2.9%
  • Makefile 0.7%