Книга Бейтса и Уоттса « Нелинейный регрессионный анализ и его приложения » (2007) приходит на ум в качестве немедленного предложения. Он является соавтором одного из мастеров разработки алгоритма регрессии (Д. Бейтс). Обратите внимание, что это не совсем новый ; издание, на которое я ссылаюсь, опубликовано в 2007 году, но большая часть материала относится к изданию 1989 года. Тем не менее, это, безусловно, авторитетный и очень хорошо состарился. Я использовал его как справочник время от времени, и это было очень хорошо. Особенно, когда речь шла о вычислительных аспектах, это было необходимо. Он хорошо сочетается с « Моделями смешанных эффектов в S и S-PLUS » (2000), разработанными Pinheiro & Bates, что ближе к парадигме панельных данных этой проблемы.
Вторичные предложения: Ruppert et al. « Полупараметрическая регрессия » (2003) имеет меньшую вычислительную направленность, чем B & W, но я думаю, что она также имеет более широкий охват. В зависимости от того, как мы определяем нелинейную регрессию, рассмотрение обобщенных аддитивных моделей может быть очень проницательным, и в этом смысле « Обобщенные аддитивные модели Вуда : Введение с R » (2017; 2-е изд.), Вероятно, является самой современной Ссылка там, это отличное чтение. Точно так же, если мы больше заботимся о моделях локальной регрессии, проверка Fan & Gijbels « Локальное полиномиальное моделирование и его приложения » (1996), безусловно, тоже классическая. (Я ценю, что эти вторичные предложения уходят еще дальше от парадигмы панельных данных, но мне нужны они, чтобы высказать следующее.
Комментарий: можно отметить, что в последнее время выходит меньше непараметрических регрессионных книг; это не совсем совпадение: машинное обучение произошло. Откладывая лучшие в своем классе общие книги, такие как: « Элементы статистического обучения » (2009), Hastie et al. и « Машинное обучение: вероятностная перспектива » (2013) Мерфи, изучая Devroye et al. « Вероятностная теория распознавания образов » (1997) подробно описывает результаты согласованности, границы, частоту появления ошибок, сходимость и т. Д. Поэтому есть несколько обзорных статей о пересечении машинного обучения и эконометрики, таких как: « Машинное обучение: прикладной эконометрический подход » (2017) от Mullainathan & Spiess или «Большие данные: новые уловки для эконометрики "(2014), автор Varian. Они дают хороший обзор, но не предлагают строгой математической обработки вопроса, они должны хотя бы предложить разумный список ссылок.
Нелинейная регрессия является зрелой и широкой темой, поэтому я сомневаюсь, что есть много недавних обзорных работ. Единственные документы, о которых я могу думать:
Мотульский Х.Д., Ранснас Л.А.: «Подгонка кривых к данным с использованием нелинейной регрессии: практический и нематематический обзор». Журнал FASEB, 1 (5), 365-374 <- Как следует из названия, нематематический обзор, поэтому не очень хорошее место для поиска информации о согласованности и асимптотике.
А.Р. Галлант: «Нелинейная регрессия». 29, No. 2 (May 1975), pp. 73-81 <- Старее, чем бумага, упомянутая вами в вопросе.
Вы можете найти хороший обзор в некоторых справочниках по статистике. Например, в «Справочнике по методам регрессии» Янга или в «Современных методах регрессии» Райана вы можете найти хорошую главу о нелинейной регрессии.
О согласованности и асимптотике я могу порекомендовать главу 2 книги «Статистические инструменты для нелинейной регрессии» Huet et al.
И последнее, но не менее важное: две классики в англоязычной литературе - Бейтс и Уоттс, как упоминалось выше, и «Нелинейная регрессия» от Себера и Уайлда. Еще один очень хороший бок - «Нелинейные статистические модели» Галанта
источник