Точность = 1- частота ошибок теста

14

Извиняюсь, если это очень очевидный вопрос, но я читал различные посты и не могу найти хорошее подтверждение. В случае классификации, точность классификатора = 1- частота ошибок теста ? Я получаю, что точность составляет , но мой вопрос, как именно связаны точность и частота ошибок тестирования. Tп+TNп+N

micro_gnomics
источник

Ответы:

5

В принципе, да, точность - это доля правильно спрогнозированных случаев, то есть 1 - доля неправильно классифицированных случаев, то есть ошибка (коэффициент). Однако оба термина могут иногда использоваться более расплывчато и охватывают разные вещи, такие как уравновешенная классами ошибка / точность или даже F-оценка или AUROC - всегда лучше искать / включать соответствующее разъяснение в документ или отчет.

Также обратите внимание, что частота ошибок при тестировании подразумевает ошибку в тестовом наборе, так что, скорее всего, это точность набора из 1 теста, и могут быть и другие ошибки, связанные с полетами.


источник
Да, я думаю, что проблема, с которой я столкнулся, заключается в том, что термины используются расплывчато, и вы подчеркиваете, что об этом нужно сообщить в контексте вашего анализа. Спасибо за разъяснение!
micro_gnomics
2

@mbq ответил:

«1 - доля ошибочно классифицированных случаев, то есть ошибка (коэффициент)»

Однако это кажется неправильным, поскольку неправильная классификация и ошибка - это одно и то же. Смотрите ниже (из http://www.dataschool.io/simple-guide-to-confusion-matrix-terminology/ ):

Точность: В целом, как часто верен классификатор? (TP + TN) / всего = (100 + 50) / 165 = 0,91

Уровень ошибочной классификации: В целом, как часто это неправильно? (FP + FN) / всего = (10 + 5) / 165 = 0,09 эквивалентно 1 минус точность

также известный как «Частота ошибок»

Исраэль Клосс
источник