Это сложная тема для меня, потому что поиск слов «оптимизация» и «стохастик» в поиске почти автоматически приводит к поиску стохастической оптимизации. Но что я действительно хочу знать, так это то, какие методы существуют для оптимизации компьютерных моделей, когда выходные данные компьютерной модели являются стохастическими, то есть недетерминированными?
Например, если вы рассматриваете компьютерную модель, в которой есть некоторая неизвестная функция которая представляет выходные данные компьютерной модели, то существует много статистических методов для решения таких проблем, как
когда является детерминированным. Но что происходит, когда является стохастическим? Есть ли решение проблемы, или в лучшем случае мы можем решить толькоf ( x )
где - обычный оператор ожидания.
источник
Ответы:
( Расширяю мой комментарий до правильного ответа. )
Как я уже говорил, это зависит от вашей цели.
Ожидаемое значение - это только один из многих возможных вариантов для цели оптимизации. Например, предполагая, что нормально распределены, вы можете сделать:f ( x )E [F( х ) ] е( х )
κ∈Rκ>0κκ
В целом, оптимизация байесовской (BO, что связанно с гауссовскими процессами и кригингом ) сделками с дорогостоящими и иногда шумными оценками функции; хотя большая часть литературы была на первой части. Вы можете найти отзывы об байесовской оптимизации по этому вопросу .
Несколько человек применили БО к шумным функциям. В качестве введения в тему Дэвид Гинсбургер выступил с прекрасной речью под названием «Вариации ожидаемого улучшения» на семинаре по гауссовским процессам глобальной оптимизации (Шеффилд, 17 сентября 2015 г.). Вы можете найти его доклад здесь , и все доклады доступны на этой странице (я также рекомендую все остальные доклады как отличное общее введение в BO).
В качестве ссылки я бы начал с работы, проделанной Гинсбурджером и его коллегами, а также Грэмси и его коллегами:
Picheny, V. и Ginsbourger, D., 2014. «Методы оптимизации на основе шумного кригинга: унифицированная реализация в пакете DiceOptim». Вычислительная статистика и анализ данных , 71, с. 1035-1053. ( ссылка )
Picheny, V., Ginsbourger, D., Richet, Y. and Caplin, G., 2013. «Оптимизация на основе квантиля шумовых компьютерных экспериментов с настраиваемой точностью». Технометрия , 55 (1), с.2-13. ( ссылка )
Gramacy, RB и Lee, HK, 2012. «Модели гауссовского процесса с байесовским трэдом с применением к компьютерному моделированию». Журнал Американской статистической ассоциации . ( ссылка )
Gramacy, RB и Apley, DW, 2015. «Приближение локального гауссовского процесса для больших компьютерных экспериментов». Журнал вычислительной и графической статистики , 24 (2), с. 561-578. ( ссылка )
И Ginsburger, и Gramacy имеют R-пакеты, которые реализуют свои методы BO, соответственно DiceOptim и tgp .
источник
Текущие ответы сосредоточены на правильном (математическом) определении цели стохастической оптимизации - я хочу представить несколько более прикладную перспективу.
Эта проблема часто возникает при подборе стохастических моделей, например, с использованием неформальных или синтетических вероятностей. Ссылка (1) предоставляет вам список опций, которые можно использовать для определения расстояния между стохастической моделью и данными.
После того, как вы определили свою цель таким образом, остается вопрос: найти оптимальное значение для некоторого среднего значения для шумной цели. Есть два пути: а) оптимизация и б) выборка MCMC. Вы спрашивали конкретно об оптимизации, но я хочу привлечь MCMC, потому что они часто лучше себя ведут для этой задачи.
а) Если вы продолжаете оптимизацию, вам нужно убедиться, что вы не застряли и оптимизатор может справиться со стохастической целью. Глава 4 в диссертации доктора Маттео Фазиоло дает некоторые подсказки, см. (2).
b) Как мы отмечаем в (1), MCMC, как правило, более устойчивы к стохастической цели - в мягких условиях, касающихся распределения шума, MCMC будет усреднять шум, а выбранная цель будет неотличима от нешумной цель со средним значением шумной цели. Однако MCMC также могут застрять при встрече с оценкой, которая особенно хороша. Что вы НЕ ДОЛЖНЫ делать сейчас, так это получить следующую «очевидную» идею: просто рассчитайте как текущее, так и предлагаемое значение в каждой итерации MCMC. Ключевое слово для поиска здесь "псевдо-маргинальное", смотрите также здесь и здесь .
1) Хартиг, Ф .; Калабрезе, JM; Reineking, B .; Wiegand, T. & Huth, A. (2011) Статистический вывод для стохастических имитационных моделей - теория и применение . Ecol. Lett., 14, 816-827.
2) Фасиоло, М. (2016) Статистические методы комплексной динамики населения . Университет Бата
источник
Допустим, мы находимся в дискретном вероятностном пространстве, так что . Интуитивно вам нужна некоторая функция чтобы вы могли оптимизировать . Вы можете оптимизировать только одну цель! U : R n → R U ( f ( x ) )f(x)∈Rn U:Rn→R U(f(x))
Оптимизация одной целевой функции может показаться довольно сдерживающей, но это не так ! Скорее одна цель может представлять невероятно разнообразные предпочтения, которые вы можете иметь перед тем, что является лучшим или худшим решением.
Забегая вперед, можно начать с простого выбора случайной величины затем решить:λ
E[f(x)]
Базовая настройка:
Ваша проблема состоит в том, чтобы выбрать , чтобы:x∗∈X
Эквивалентность максимизации полезности (при определенных технических условиях)
Для технической простоты я скажу, что мы находимся в дискретном вероятностном пространстве с исходами, поэтому я могу представить случайный результат с вектором .n y~ y∈Rn
При определенных технических условиях (которые не являются ограничивающими в практическом смысле) вышеуказанная проблема эквивалентна максимизации функции полезности . (Функция полезности назначает более предпочтительным результатам большее число.)U(y)
Эта логика применима к любой проблеме, когда ваш выбор приводит к множеству переменных результата.
Предоставление большей структуры функции полезности : Гипотеза ожидаемой полезности :U
Если мы находимся в вероятностной обстановке и принимаем аксиомы Неймана-Моргернстерна , общая функция полезности должна принимать особый вид:U
Заметьте, что простой случай максимизирует ожидаемое значение (то есть отсутствие неприятия риска).u(yi)=yi
Другой подход: весλ
Еще одна вещь, которую нужно сделать:
Интуитивно вы можете выбрать веса , которые больше или меньше вероятности возникновения состояния , и это отражает важность состояния.p iλi pi
Более глубокое обоснование этого подхода состоит в том, что при определенных технических условиях существуют лямбда-веса , так что вышеуказанная проблема и более ранние проблемы (например, максимизация ) имеют одно и то же решение.U ( f ( x ) )λ U(f(x))
источник