Недавно я узнал о методах «без правдоподобия», которые обсуждаются в литературе. Однако мне не ясно, что означает, что метод логического вывода или метод оптимизации не имеют правдоподобия .
В машинном обучении цель обычно состоит в том, чтобы максимизировать вероятность того, что некоторые параметры соответствуют функции, например весам нейронной сети.
Так в чем же заключается философия подхода без правдоподобия, и почему такие сети, как GAN, подпадают под эту категорию?
В частности, [последние] методы без правдоподобия представляют собой переписывание алгоритмов ABC, где ABC обозначает приблизительные байесовские вычисления . Это предназначено для охвата методов вывода, которые не требуют использования функции правдоподобия в закрытой форме, но все же намереваются изучить конкретную статистическую модель. Они свободны от вычислительных трудностей, связанных с вероятностью, но не от модели, которая производит эту вероятность. Смотри например
источник
Чтобы добавить к списку ответов, асимптотическая статистика на самом деле свободна от вероятностей.
«Вероятность» здесь относится к модели вероятности для данных . Я могу не заботиться об этом. Но я могу найти некоторую простую оценку, например среднее значение, которое представляет собой адекватную сводку данных, и я хочу сделать вывод о среднем распределении (предполагая, что оно существует, что часто является разумным предположением).
По центральной предельной теореме среднее имеет аппроксимирующее нормальное распределение при больших N, когда дисперсия также существует. Я могу создать согласованные тесты (мощность обращается в 1, когда N уходит в бесконечность, когда ноль равно false), которые имеют правильный размер. Хотя у меня есть вероятностная модель (которая является ложной) для распределения выборки среднего значения в конечных размерах выборки, я могу получить действительный вывод и объективную оценку, чтобы увеличить мою «полезную сводку данных» (среднее значение).
Следует отметить, что тесты, основанные на 95% ДИ для медианы (т.е. вариант 6 в ответе @ kjetilbhalvorsen), также полагаются на центральную предельную теорему, чтобы показать, что они согласуются. Так что не безумно рассматривать простой T-тест как «непараметрический» или «не основанный на правдоподобии» тест.
источник
Почему ГАН подпадают под это? Итак, функция Loss - это нейронная сеть, и эта нейронная сеть не фиксирована, а изучена совместно. Поэтому мы больше не принимаем никакой формы (за исключением того, чтор ( у| х) попадает в семейство распределений, которое может быть представлено дискриминатором, но для теории мы говорим, что это универсальный аппроксиматор функции в любом случае).
источник