Ниже приведен пример, извлеченный из документации sklearn.metrics.classification_report.
Что я не понимаю, так это то, почему существуют значения f1-показателя, точности и отзыва для каждого класса, где я считаю, что класс является меткой предиктора? Я думал, что оценка f1 говорит вам об общей точности модели. Кроме того, что говорит нам колонка поддержки? Я не мог найти информацию об этом.
print(classification_report(y_true, y_pred, target_names=target_names))
precision recall f1-score support
class 0 0.50 1.00 0.67 1
class 1 0.00 0.00 0.00 1
class 2 1.00 0.67 0.80 3
avg / total 0.70 0.60 0.61 5
avg / total
? Похоже, это не соответствует столбцу означает ... Как это вычисляется и что это значит?(0.50*1 + 0.0*1 + 1.0*3)/5 = 0.70
. Всего только для общей поддержки, которая 5 здесь.