Я читаю о двух популярных методах интерпретации специальных моделей: LIME и SHAP
У меня проблемы с пониманием ключевой разницы в этих двух методах.
По словам Скотта Лундберга , мозги, стоящие за SHAP:
Значения SHAP поставляются с преимуществами локальной оценки для черного ящика, а также с теоретическими гарантиями согласованности и локальной точности из теории игр (атрибуты других методов, которые мы объединили)
У меня возникли проблемы с пониманием того, что такое « теоретические гарантии согласованности и локальной точности из теории игр ». Поскольку SHAP был разработан после LIME, я предполагаю, что он заполняет некоторые пробелы, которые LIME не может устранить. Что это?
Книга Кристофа Молнара в главе об оценке Шепли гласит:
Разница между прогнозом и средним прогнозом справедливо распределяется между значениями признаков экземпляра - свойством эффективности Шепли. Это свойство устанавливает значение Shapley отдельно от других методов, таких как LIME. LIME не гарантирует идеальное распределение эффектов. Это может сделать значение Шепли единственным методом, обеспечивающим полное объяснение.
Читая это, я чувствую, что SHAP - это не локальное, а глобальное объяснение точки данных. Я могу ошибаться, и мне нужно немного понять, что означает эта цитата выше. Подводя итог моей просьбе: ИЗВЕСТЬ производит местные объяснения. Чем объяснения SHAP отличаются от объяснений LIME?
источник
Ответы:
LIME создает суррогатную модель локально вокруг единицы, предсказание которой вы хотите понять. Таким образом, это изначально локально. Великолепные значения «разлагают» окончательный прогноз на вклад каждого атрибута - это то, что некоторые подразумевают под «непротиворечивостью» (значения складываются в фактический прогноз истинной модели, это не то, что вы получаете с LIME). Но чтобы на самом деле получить правильные значения, необходимо принять решение о том, что делать / как обрабатывать значения атрибутов, которые «пропущены», - так получаются значения. В этом решении есть некоторый выбор, который может изменить интерпретацию. Если я «пропущу» атрибут, усредняю ли я все возможности? Выберите какой-нибудь «базовый уровень»?
Таким образом, Shapely на самом деле говорит вам, аддитивным образом, как вы получили свой счет, но есть некоторый выбор в отношении «отправной точки» (то есть решение об опущенных атрибутах).
LIME просто говорит вам, в локальном смысле, что является самым важным атрибутом вокруг интересующей точки данных.
источник