Мне было интересно, если кто-нибудь может объяснить разницу между сбалансированной точностью, которая
b_acc = (sensitivity + specificity)/2
и оценка f1:
f1 = 2*precision*recall/(precision + recall)
источник
Мне было интересно, если кто-нибудь может объяснить разницу между сбалансированной точностью, которая
b_acc = (sensitivity + specificity)/2
и оценка f1:
f1 = 2*precision*recall/(precision + recall)
Математически, b_acc - среднее арифметическое для rec_P, а Recall_N и f1 - среднее гармоническое для rec_P и precision_P.
И F1, и b_acc являются метриками для оценки классификатора, которые (в некоторой степени) обрабатывают дисбаланс классов. В зависимости от того, какой из двух классов (N или P) превосходит другой, каждый показатель превосходит другой.
1) Если N >> P, то f1 лучше.
2) Если P >> N, лучше b_acc.
Очевидно, что если вы можете переключать метки, обе метрики можно использовать в любом из двух случаев дисбаланса, описанных выше. Если нет, то в зависимости от дисбаланса в тренировочных данных вы можете выбрать соответствующий показатель.