Вопросы с тегом «theory»

9
Проблемы с имитационным исследованием объяснения повторных экспериментов с 95% доверительным интервалом - где я ошибаюсь?

Я пытаюсь написать сценарий R для имитации повторяющихся экспериментов интерпретации 95% доверительного интервала. Я обнаружил, что он переоценивает долю случаев, когда истинная популяционная ценность доли содержится в 95% ДИ выборки. Не большая разница - около 96% против 95%, но это, тем не менее,...

9
Как сравнить наблюдаемые и ожидаемые события?

Предположим, у меня есть одна выборка частот из 4 возможных событий: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 и у меня есть ожидаемые вероятности того, что мои события произойдут: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 С суммой наблюдаемых частот моих четырех событий (18) я могу рассчитать ожидаемые частоты...

9
Интуиция о совместной энтропии

У меня проблемы с построением некоторой интуиции о совместной энтропии. = неопределенность в совместном распределении ; = неопределенность в ; = неопределенность в .p ( x , y ) H ( X ) p x ( x ) H ( Y ) p y ( y )ЧАС( Х, Y)ЧАС(Икс,Y)H(X,Y)р ( х , у)п(Икс,Y)p(x,y)ЧАС( Х)ЧАС(Икс)H(X)пИкс( х...

9
Как журнал (p (x, y)) нормализует точечную взаимную информацию?

Я пытаюсь понять нормализованную форму точечной взаимной информации. npmi=pmi(x,y)log(p(x,y))npmi=pmi(x,y)log(p(x,y))npmi = \frac{pmi(x,y)}{log(p(x,y))} Почему логарифмическая вероятность нормализует точечную взаимную информацию между [-1, 1]? Точечная взаимная информация:...

9
Что может быть примером, когда L2 является хорошей функцией потерь для вычисления апостериорных потерь?

Потери L2 вместе с потерями L0 и L1 являются тремя очень распространенными функциями потерь «по умолчанию», используемыми при суммировании апостериорного значения с минимальной апостериорной ожидаемой потерей. Возможно, одной из причин этого является то, что их относительно легко вычислить (по...

9
Использование теории информации в прикладной науке о данных

Сегодня я наткнулся на книгу Джеймса Стоуна «Теория информации: введение в учебное пособие» и несколько минут думал о степени использования теории информации в прикладной науке о данных (если вас не устраивает этот еще несколько нечеткий термин, вспомним анализ данных , который ИМХО в науке о...

9
Что значит интегрировать по случайной мере?

В настоящее время я смотрю на статью о модели случайных эффектов процесса Дирихле, и спецификация модели выглядит следующим образом: где - параметр масштаба и является базовой мерой. Позже в статье предлагается интегрировать функцию по базовой мере например Базовая мера в процессе Дирихле - это cdf...

9
Используют ли нейронные сети эффективное кодирование?

Мой вопрос касается взаимосвязи между гипотезой эффективного кодирования, изложенной на странице Википедии об эффективных алгоритмах кодирования и обучения нейронной сети. Какова связь между гипотезой эффективного кодирования и нейронными сетями? Существуют ли какие-либо модели нейронных сетей,...

9
Я хотел бы изучить теорию вероятностей, теорию мер и, наконец, машинное обучение. С чего мне начать? [закрыто]

Закрыто . Этот вопрос должен быть более сфокусированным . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он был сосредоточен только на одной проблеме, отредактировав этот пост . Закрыто 3 года назад . Я хотел бы изучить теорию вероятностей, теорию мер...

9
Требует ли оценка Байеса, что истинный параметр является возможным изменением предыдущего?

Это может быть немного философским вопросом, но здесь мы идем: В теории принятия решений риск оценки Байеса для определен относительно предыдущего распределения на .thetas∈thetasлthetasθ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta Теперь, с одной стороны, чтобы истинное сгенерировало...

9
Для какой проблемы или игры оптимальным решением являются дисперсия и стандартное отклонение?

Для заданной случайной величины (или совокупности, или стохастического процесса) математическое ожидание является ответом на вопрос: какой точечный прогноз минимизирует ожидаемую квадратичную потерю? , Кроме того, это оптимальное решение для игры. Угадайте следующую реализацию случайной величины...