Я пытаюсь понять математический смысл нелинейных классификационных моделей:
Я только что прочитал статью о том, что нейронные сети являются нелинейной классификационной моделью.
Но я просто понимаю, что:
Первый слой:
Последующий слой
Можно упростить до
Двухслойная нейронная сеть - это простая линейная регрессия.
Это может быть показано для любого количества слоев, поскольку линейная комбинация любого количества весов снова является линейной.
Что на самом деле делает нейронную сеть нелинейной классификационной моделью?
Как функция активации повлияет на нелинейность модели?
Можете ли вы объяснить мне?
источник
Вы правы, что несколько линейных слоев могут быть эквивалентны одному линейному слою. Как уже говорилось в других ответах, нелинейная функция активации допускает нелинейную классификацию. Сказать, что классификатор является нелинейным, означает, что он имеет нелинейную границу решения. Граница решения - это поверхность, которая разделяет классы; классификатор будет предсказывать один класс для всех точек на одной стороне границы решения, а другой класс для всех точек на другой стороне.
Рассмотрим общую ситуацию: выполнение бинарной классификации с сетью, содержащей несколько слоев нелинейных скрытых единиц и единицу вывода с сигмоидальной функцией активации. - вывод, - вектор активаций для последнего скрытого слоя, - вектор их весов на выходной единице, а - смещение выходной единицы. Выход:y h w b
где - это логистическая сигмоидальная функция. Выход интерпретируется как вероятность того, что класс равен . Прогнозируемый класс :σ 1 c
Давайте рассмотрим правило классификации в отношении активаций скрытых юнитов. Мы видим, что активация скрытого блока проецируется на линию . Правило назначения класса - это функция от , которая монотонно связана с проекцией вдоль линии. Следовательно, правило классификации эквивалентно определению, является ли проекция вдоль линии меньше или больше некоторого порогового значения (в этом случае пороговое значение задается отрицательным значением смещения). Это означает, что граница принятия решения является гиперплоскостью, которая ортогональна линии и пересекает линию в точке, соответствующей этому порогу.уhW+b y
Ранее я говорил, что граница принятия решения является нелинейной, но гиперплоскость - это само определение линейной границы. Но мы рассматривали границу как функцию от скрытых единиц перед выходом. Активации скрытых элементов являются нелинейной функцией исходных входов, что связано с предыдущими скрытыми слоями и их нелинейными функциями активации. Один из способов думать о сети состоит в том, что она отображает данные нелинейно в некотором пространстве признаков. Координаты в этом пространстве задаются активациями последних скрытых юнитов. Затем сеть выполняет линейную классификацию в этом пространстве (в данном случае логистическая регрессия). Мы также можем думать о границе решения как о функции исходных данных. Эта функция будет нелинейной, как следствие нелинейного сопоставления входов с активациями скрытых единиц.
В этом сообщении блога показаны некоторые красивые рисунки и анимации этого процесса.
источник
Нелинейность исходит от функции активации сигмоида 1 / (1 + e ^ x), где x - линейная комбинация предикторов и весов, на которые вы ссылались в своем вопросе.
Кстати, границы этой активации равны нулю и единице, потому что либо знаменатель становится настолько большим, что дробь приближается к нулю, либо e ^ x становится настолько малым, что дробь приближается к 1/1.
источник