Каковы сходства и различия между этими 3 методами: пакетированного Повышая, Штабелеры? Какой самый лучший? И почему? Можете ли вы дать мне пример для
В машинном обучении методы ансамбля объединяют несколько алгоритмов, чтобы сделать прогноз. Пакетирование, повышение и укладка - вот несколько примеров.
Каковы сходства и различия между этими 3 методами: пакетированного Повышая, Штабелеры? Какой самый лучший? И почему? Можете ли вы дать мне пример для
Повышение градиентного дерева, предложенное Фридманом, использует деревья решений в качестве базовых учеников. Мне интересно, должны ли мы сделать базовое дерево решений настолько сложным, насколько это возможно (полностью выросло) или проще? Есть ли объяснение выбора? Случайный лес - это еще один...
Сначала это был Brexit , теперь выборы в США. Многие модельные прогнозы были отклонены с большой разницей, и есть ли уроки, которые нужно здесь извлечь? Вчера в 16:00 по тихоокеанскому времени рынки ставок по-прежнему предпочитали Хиллари 4: 1. Я полагаю, что рынки ставок с реальными деньгами на...
При изучении Gradient Boosting я не слышал о каких-либо ограничениях в отношении свойств «слабого классификатора», который метод использует для построения и ансамбля модели. Однако я не мог представить себе применение ГБ, которое использует линейную регрессию, и на самом деле, когда я выполнил...
В моем понимании, сильно коррелированные переменные не будут вызывать проблемы мультиколлинеарности в модели случайного леса (пожалуйста, исправьте меня, если я ошибаюсь). Однако, с другой стороны, если у меня будет слишком много переменных, содержащих аналогичную информацию, будет ли модель...
Закрыто. Этот вопрос не по теме . В настоящее время не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 2 года назад . Я использую каретку, чтобы запустить перекрестный проверенный случайный лес по набору данных. Переменная...
Я пытаюсь решить регрессионную задачу. Я обнаружил, что 3 модели прекрасно работают для разных подмножеств данных: LassoLARS, SVR и Gradient Tree Boosting. Я заметил, что когда я делаю прогнозы, используя все эти 3 модели, а затем составляю таблицу «истинного результата» и выходных данных моих 3...
У меня есть несколько тесно связанных вопросов относительно слабых учеников в обучении ансамблю (например, повышение). Это может показаться глупым, но каковы преимущества использования слабых по сравнению с сильными учениками? (например, почему бы не повысить с "сильными" методами обучения?) Есть...
Я часто нахожу себя обучающим несколько различных прогностических моделей с использованием caretR. Я тренирую их все по одним и тем же сгибам перекрестной проверки, используя caret::: createFolds, а затем выбираю лучшую модель, основанную на перекрестно проверенной ошибке. Тем не менее, медианный...
В последнее время я работал над алгоритмами повышения обучаемости, такими как adaboost, ускорение градиента, и я знал тот факт, что наиболее часто используемым слабым учеником являются деревья. Я действительно хочу знать, есть ли некоторые недавние успешные примеры (я имею в виду некоторые статьи...
Я запутался в том, как разделить данные для k-кратной перекрестной проверки ансамблевого обучения. Предполагая, что у меня есть система обучения ансамбля для классификации. Мой первый слой содержит модели классификации, например, svm, деревья решений. Мой второй слой содержит модель голосования,...
Я немного новичок в изучении данных / машинного обучения / и т.д. и читали о нескольких способах объединения нескольких моделей и прогонов одной и той же модели для улучшения прогнозов. У меня сложилось впечатление, что после прочтения пары статей (которые часто интересны и хороши в теории и...
В общем, в проблеме классификации, где цель состоит в том, чтобы точно предсказать членство в классах вне выборки, когда я не должен использовать ансамблевый классификатор? Этот вопрос тесно связан с тем, почему не всегда использовать ансамблевое обучение? , Этот вопрос спрашивает, почему мы не...
Я немного запутался в изучении ансамбля. Короче говоря, он запускает k моделей и получает среднее значение этих k моделей. Как можно гарантировать, что среднее значение k моделей будет лучше, чем у любой другой модели? Я понимаю, что уклон "распределен" или "усреднен". Однако что, если в ансамбле...
Случайные леса работают путем создания множества деревьев решений, где каждое дерево создается с использованием начальной загрузки исходных обучающих данных (выборка как входных переменных, так и наблюдений). Можно ли применить аналогичный процесс для линейной регрессии? Создайте k моделей линейной...
Я хотел бы создать случайный лес, используя следующий процесс: Построить дерево на случайных выборках данных и объектов, используя прирост информации для определения разбиений Завершить листовой узел, если он превышает предопределенную глубину, ИЛИ любое разделение приведет к тому, что число...
Структура этого вопроса следующая: сначала я представляю концепцию обучения ансамблям , далее я даю список задач распознавания образов , затем я привожу примеры алгоритмов обучения ансамблям и, наконец, представляю свой вопрос. Те, кому не нужна вся дополнительная информация, могут просто...
Мне кажется, что ансамблевое обучение всегда даст лучшую прогностическую эффективность, чем с одной гипотезой обучения. Итак, почему бы нам не использовать их все время? Я думаю, возможно, из-за вычислительных ограничений? (даже тогда мы используем слабые предикторы, поэтому я не...
Мне нужно автоматизировать прогнозирование временных рядов, и я заранее не знаю особенностей этих рядов (сезонность, тренд, шум и т. Д.). Моя цель не в том, чтобы получить лучшую модель для каждой серии, а в том, чтобы избежать довольно плохих моделей. Другими словами, каждый раз получать небольшие...
Я хочу построить регрессионную модель, которая представляет собой среднее из нескольких моделей OLS, каждая из которых основана на подмножестве полных данных. Идея, лежащая в основе этого, основана на этой статье . Я создаю k сгибов и строю k моделей OLS, каждая на основе данных без одного сгиба....