Вопросы с тегом «decision-theory»

66
Сколько заплатить? Практическая проблема

Это не вопрос домашнего труда, а реальная проблема, с которой сталкивается наша компания. Совсем недавно (2 дня назад) мы заказали у дилера 10000 этикеток. Дилер - независимый человек. Он получает этикетки, изготовленные извне, и компания производит оплату дилеру. Каждый лейбл стоил компании ровно...

29
Как работать с иерархическими / вложенными данными в машинном обучении

Я объясню мою проблему на примере. Предположим, вы хотите предсказать доход человека с учетом некоторых атрибутов: {Возраст, Пол, Страна, Регион, Город}. У вас есть тренировочный набор данных, как так train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4,...

23
В чем разница между функцией потерь и функцией принятия решений?

Я вижу, что обе функции являются частью методов интеллектуального анализа данных, таких как Gradient Boosting Regressors. Я вижу, что это тоже отдельные объекты. Каковы отношения между обоими в...

20
Каково теоретико-обоснованное обоснование байесовских интервалов вероятности?

(Чтобы понять, почему я написал это, проверьте комментарии ниже моего ответа на этот вопрос .) Ошибки типа III и теория статистических решений Правильный ответ на неправильный вопрос иногда называют ошибкой типа III. Теория статистических решений - это формализация принятия решений в условиях...

17
При каких условиях совпадают байесовские и частые точечные оценки?

С фиксированным априором оценки ML (частота - максимальная вероятность) и MAP (байесовская апостериорная) совпадают. В целом, однако, я говорю о точечных оценках, полученных как оптимизаторы некоторой функции потерь. Т.е. (Bayesian)  х...

14
Чеканка монет, процессы принятия решений и ценность информации

Представьте себе следующую схему: у вас есть 2 монеты, монета A, которая гарантированно будет честной, и монета B, которая может быть или не быть честной. Вас просят сделать 100 монетных бросков, и ваша цель - максимизировать количество голов . Ваша предварительная информация о монете B состоит в...

12
Что такое полная достаточная статистика?

У меня есть проблемы с пониманием полной достаточной статистики? Пусть - достаточная статистика.T= Σ xяTзнак равноΣИксяT=\Sigma x_i Если с вероятностью 1 для некоторой функции g , то это полная достаточная статистика.Е[ г( Т) ] = 0Е[грамм(T)]знак равно0E[g(T)]=0граммграммg Но что это значит? Я...

12
Пример строгого неравенства фон Неймана

Пусть обозначает байесовский риск оценки относительно априора , пусть обозначает множество всех априоров в пространстве параметров , а обозначает множество все (возможно, рандомизированные) правила принятия решений.δ π Π Θ Δr(π,δ)r(π,δ)r(\pi, \delta)δδ\deltaππ\piΠΠ\PiΘΘ\ThetaΔΔ\Delta Статистическая...

11
Граница принятия решения для персептрона

Я пытаюсь построить границу решения алгоритма персептрона, и я действительно запутался в нескольких вещах. Мои входные экземпляры имеют форму , в основном это двумерный входной экземпляр ( x 1 и x 2 ) и целевое значение двоичного класса ( y ) [1 или 0].[(x1,x2),y][(x1,x2),y][(x_{1},x_{2}),...

11
Загадка парикмахера

Моя парикмахерская Стейси всегда выглядит счастливой, но ей часто не хватает времени. Сегодня Стейси была запоздалой на мое назначение и очень извинялась. Во время стрижки я подумала: как долго должны проходить ее стандартные встречи? (если предпочтение клиента на чистые круглые числа может быть...

10
Помимо теста Дурбина-Уотсона, какие проверки гипотез могут дать неубедительные результаты?

Тестовая статистика Дарбины-Уотсон может лежать в безрезультатной области, где не возможно либо отклонить или не отвергнуть нулевую гипотезу (в данном случае, нулевой автокорреляции). Какие другие статистические тесты могут дать "неубедительные" результаты? Существует ли общее объяснение (хорошо...

10
Как оценка, которая минимизирует взвешенную сумму квадратов смещения и дисперсии, вписывается в теорию принятия решений?

Хорошо, мое оригинальное сообщение не смогло получить ответ; Итак, позвольте мне поставить вопрос по-другому. Я начну с объяснения моего понимания оценки с точки зрения теории решения. У меня нет формального обучения, и меня не удивит, если мое мышление каким-то образом ошибочно. Предположим , у...

10
Как выбрать лучший показатель для измерения калибровки?

Я программирую и занимаюсь разработкой на основе тестов. После внесения изменений в код я запускаю свои тесты. Иногда они добиваются успеха, а иногда они терпят неудачу. Перед запуском теста я записываю число от 0,01 до 0,99, чтобы удостовериться, что тест пройдёт успешно. Я хочу знать, улучшаю ли...

10
MAP является решением

Я столкнулся с этими слайдами (слайд № 16 и № 17) на одном из онлайн-курсов. Преподаватель пытался объяснить, как максимальная апостериорная оценка (MAP) на самом деле является решением L(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}] , где - истинный параметр.θ∗θ∗\theta^{*}...

9
Для какой проблемы или игры оптимальным решением являются дисперсия и стандартное отклонение?

Для заданной случайной величины (или совокупности, или стохастического процесса) математическое ожидание является ответом на вопрос: какой точечный прогноз минимизирует ожидаемую квадратичную потерю? , Кроме того, это оптимальное решение для игры. Угадайте следующую реализацию случайной величины...

9
Требует ли оценка Байеса, что истинный параметр является возможным изменением предыдущего?

Это может быть немного философским вопросом, но здесь мы идем: В теории принятия решений риск оценки Байеса для определен относительно предыдущего распределения на .thetas∈thetasлthetasθ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta Теперь, с одной стороны, чтобы истинное сгенерировало...

9
Что может быть примером, когда L2 является хорошей функцией потерь для вычисления апостериорных потерь?

Потери L2 вместе с потерями L0 и L1 являются тремя очень распространенными функциями потерь «по умолчанию», используемыми при суммировании апостериорного значения с минимальной апостериорной ожидаемой потерей. Возможно, одной из причин этого является то, что их относительно легко вычислить (по...