Я до сих пор помню документ «Анналы статистики» Фридмана-Хасти-Тибширани об усилении, а также комментарии других авторов (включая Фрейнда и Шапира) по тем же вопросам. В то время очевидно, что Boosting рассматривался как прорыв во многих отношениях: выполнимый в вычислительном отношении метод ансамбля с превосходными, но загадочными характеристиками. Примерно в то же время SVM достиг совершеннолетия, предлагая структуру, основанную на твердой теории и с большим количеством вариантов и приложений.
Это было в чудесных 90-х. В последние 15 лет мне кажется, что большая часть статистики была операцией очистки и детализации, но с несколькими действительно новыми взглядами.
Поэтому я задам два вопроса:
- Я пропустил какую-то революционную / оригинальную статью?
- Если нет, то есть ли новые подходы, которые, по вашему мнению, могут изменить точку зрения на статистический вывод?
Правила:
- Один ответ на пост;
- Ссылки или ссылки приветствуются.
PS: у меня есть пара кандидатов на многообещающие прорывы. Я опубликую их позже.
Ответы:
Ответ настолько прост, что мне нужно написать все это бред, чтобы составить резюме, позвольте мне опубликовать его: R
источник
Я не уверен, что вы бы назвали это «прорывом» как таковым, но публикация теории вероятностей: логика науки Эдвином Джейнсом и Ларри Бретторстом заслуживает внимания. Некоторые из вещей, которые они делают здесь:
1) показать эквивалентность между некоторыми итерационными схемами «сезонной корректировки» и байесовской интеграцией «параметра помех».
2) разрешен так называемый «парадокс маргинализации», который некоторые считают «смертью байесовства», а другими - «смертью ненадлежащих первоисточников».
3) идея о том, что вероятность описывает состояние знания о том, что суждение является истинным или ложным, в отличие от описания физического свойства мира .
Первые три главы этой книги доступны бесплатно здесь .
источник
Как специалист по прикладной статистике, а иногда и второстепенный автор программного обеспечения, я бы сказал:
WinBUGS (выпущен в 1997 году)
Он основан на BUGS, выпущенном более 15 лет назад (1989), но именно WinBUGS сделал байесовский анализ реально сложных моделей доступным для гораздо более широкой пользовательской базы. См., Например, Lunn, Spiegelhalter, Thomas & Best (2009) (и обсуждение этого в Статистике в медицине, том 28, выпуск 25 ).
источник
Stan
нет?источник
Внедрение в теорию принятия решения функции потерь "внутреннего несоответствия" и других функций "без параметризации". У этого есть много других "хороших" свойств, но я думаю, что лучше всего следующее:
Я думаю, что это очень круто! (например, наилучшая оценка log-odds - log (p / (1-p)), наилучшая оценка дисперсии - квадрат стандартного отклонения и т. д. и т. д.)
Подвох? внутреннее несоответствие может быть довольно трудно решить! (включает в себя функцию min (), отношение правдоподобия и интегралы!)
"Контрудар"? Вы можете «перестроить» задачу так, чтобы ее было легче рассчитать!
«Встречный встречный улов»? выяснить, как «перестроить» проблему, может быть сложно!
Вот некоторые ссылки, которые я знаю, которые используют эту функцию потери. Хотя мне очень нравятся части «внутренних оценок» этих статей / слайдов, у меня есть некоторые оговорки в отношении подхода «предварительная оценка», который также описан.
Байесовская проверка гипотез: эталонный подход
Внутренняя оценка
Сравнение нормальных средств: новые методы для старой проблемы
Комплексная объективная байесовская оценка и проверка гипотез
источник
Я полагаю, что в 15-летнее окно попадают только алгоритмы контроля уровня ложных открытий . Мне нравится подход «q-значение».
источник
Сложив свои 5 центов, я считаю, что самым значительным прорывом за последние 15 лет стало сжатие, обнаружение. LARS, LASSO и множество других алгоритмов попадают в эту область, в которой Compressed Sensing объясняет, почему они работают, и распространяет их на другие области.
источник
Что-то, что имеет очень мало общего с самой статистикой, но принесло огромную пользу: увеличение огневой мощи компьютеров, повышение доступности больших массивов данных и более сложный статистический анализ, особенно в прикладных областях.
источник
Алгоритм ожидания-распространения для байесовского вывода, особенно в классификации Гауссовского процесса, был, возможно, значительным прорывом, поскольку он обеспечивает эффективный метод аналитической аппроксимации, который работает почти так же, как вычислительно-дорогостоящие подходы, основанные на выборке (в отличие от обычного приближения Лапласа). Смотрите работу Томаса Минки и других на дорожной карте EP
источник
Я думаю, что «Приближенный байесовский вывод для скрытых гауссовских моделей с использованием интегрированных вложенных аппроксимаций Лапласа» H. Rue et. Аль (2009) является потенциальным кандидатом.
источник
На мой взгляд, все, что позволяет вам запускать новые модели в больших масштабах, является прорывом. Ядро интерполяции для масштабируемых структурированных гауссовских процессов (KISS-GP) может быть кандидатом (хотя идея является новой и не было много реализаций представленной идеи).
источник
Хотя это и немного более общее, чем статистика, я думаю, что были достигнуты важные успехи в методах воспроизводимых исследований (ОР) . Например, развитие R
knittr
иSweave
пакеты и записные книжки «R Markdown», улучшения LyX и LaTeX внесли значительный вклад в обмен данными, совместную работу, проверку / валидацию и даже дополнительные улучшения статистики. Рецензируемые статьи в статистических, медицинских и эпидемиологических журналах редко позволяли легко воспроизвести результаты до появления этих воспроизводимых методов / технологий исследования. В настоящее время несколько журналов требуют воспроизводимых исследований, и многие статистики используют RR и публикуют код, свои результаты и источники данных в Интернете. Это также помогло укрепить дисциплины науки о данных и сделало статистическое обучение более доступным.источник
На мой взгляд, статья опубликована в 2011 году в журнале Science. Авторы предлагают очень интересную меру связи между парой случайных величин, которая хорошо работает во многих ситуациях, когда подобные меры терпят неудачу (Pearson, Spearman, Kendall). Действительно хорошая бумага. Вот.
источник