Вопросы с тегом «convolution»

Свертка - это функциональнозначная операция над двумя функциями. е f и грамм g : ∫ ∞ - ∞ е ( τ ) г ( t - τ ) d τ ∫−∞∞f(τ)g(t−τ)dτ , Часто используется для получения плотности суммы независимых случайных величин. Этот тег также следует использовать для обратной операции деконволюции. НЕ используйте этот тег для сверточных нейронных сетей.

106
Что означает свертка 1x1 в нейронной сети?

В настоящее время я занимаюсь учебником по углубленному изучению Udacity. В уроке 3 они говорят о свертке 1x1. Эта свертка 1x1 используется в начальном модуле Google. У меня проблемы с пониманием, что такое свертка 1x1. Я также видел этот пост от Янн Лекун. Может ли кто-нибудь любезно объяснить это...

41
Важность нормализации местного ответа в CNN

Я обнаружил, что Imagenet и другие крупные CNN используют слои нормализации локального отклика. Однако я не могу найти столько информации о них. Насколько они важны и когда их следует использовать? С http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : «Уровень нормализации локального...

38
Что такое трансляционная инвариантность в компьютерном зрении и сверточной нейронной сети?

У меня нет компьютерного зрения, но когда я читаю некоторые статьи и статьи, связанные с обработкой изображений и сверточными нейронными сетями, я постоянно сталкиваюсь с термином translation invarianceили translation invariant. Или я много читал, что обеспечивает операция свертки translation...

30
Сверточные нейронные сети: разве центральные нейроны не представлены чрезмерно в выходных данных?

[Этот вопрос также был задан при переполнении стека] Короче вопрос Я изучаю сверточные нейронные сети и считаю, что эти сети не обрабатывают каждый входной нейрон (пиксель / параметр) одинаково. Представьте, что у нас есть глубокая сеть (много слоев), которая применяет свертку к некоторому входному...

27
Могут ли степени свободы быть нецелым числом?

Когда я использую GAM, он дает мне остаточный DF, (последняя строка в коде). Что это значит? Выходя за рамки примера GAM, в общем, может ли число степеней свободы быть нецелым числом?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data =...

25
«Оценка плотности ядра» - это свертка чего?

Я пытаюсь получить лучшее понимание оценки плотности ядра. Использование определения из Википедии: https://en.wikipedia.org/wiki/Kernel_density_esvaluation#Definition ечас^( х ) = 1NΣNя = 1Кчас( х - хя)= 1н чΣNя = 1К( х - хячас)ечас^(Икс)знак равно1NΣязнак равно1NКчас(Икс-Икся)знак равно1NчасΣязнак...

19
Сверточные слои: дополнять или не дополнять?

Архитектура AlexNet использует заполнение нулями, как показано на рисунке: Однако в статье нет объяснения, почему вводится это заполнение. Курс Standford CS 231n учит, что мы используем отступы для сохранения пространственного размера: Мне интересно, это единственная причина, по которой нам нужно...

16
Что делает шаг свертки в сверточной нейронной сети?

Я изучаю сверточные нейронные сети (CNN) из-за их применения в компьютерном зрении. Я уже знаком со стандартными нейронными сетями feed-foward, поэтому я надеюсь, что некоторые люди здесь могут помочь мне сделать дополнительный шаг в понимании CNN. Вот что я думаю о CNN: В традиционных NN с прямой...

16
Динамический системный взгляд на Центральную предельную теорему?

(Первоначально опубликовано на MSE.) Я видел много эвристических обсуждений классической центральной предельной теоремы, говорящей о нормальном распределении (или любом из устойчивых распределений) как об «аттракторе» в пространстве плотностей вероятностей. Например, рассмотрим эти предложения в...

14
Распределение свертки квадратов нормальных и хи-квадрат переменных?

Следующая проблема возникла недавно при анализе данных. Если случайная величина X следует нормальному распределению, а Y следует распределению χ2nχn2\chi^2_n (с n dof), как распределяется Z=X2+Y2Z=X2+Y2Z = X^2 + Y^2 ? До сих пор я придумал ПРВ Y2Y2Y^2 :...

14
Есть ли математические причины для свертки в нейронных сетях сверх целесообразности?

В сверточных нейронных сетях (CNN) матрица весов на каждом шаге переворачивает свои строки и столбцы для получения матрицы ядра, прежде чем приступить к свертке. Это объясняется в серии видео Хьюго Ларошелле здесь : Вычисление скрытых карт будет соответствовать выполнению дискретной свертки с...

13
Как именно сверточные нейронные сети используют свертку вместо умножения матриц?

Я читал Книгу Йошуа Бенжио по глубокому обучению, и на странице 224 написано: Сверточные сети - это просто нейронные сети, которые используют свертку вместо общего умножения матриц, по крайней мере, на одном из их уровней. однако я не был уверен на 100% в том, как «заменить умножение матриц...

12
В CNN, апсэмплинг и транспонирование свертки - то же самое?

Термины «повышающая дискретизация» и «транспонированная свертка» используются, когда вы делаете «деконволюцию» (<- не очень хороший термин, но позвольте мне использовать его здесь). Первоначально я думал, что они означают одно и то же, но мне кажется, что они разные после того, как я прочитал...

11
Сумма независимых логнормальных случайных величин оказывается логнормальной?

Я пытаюсь понять, почему сумма двух (или более) логнормальных случайных величин приближается к логнормальному распределению при увеличении количества наблюдений. Я посмотрел онлайн и не нашел никаких результатов, касающихся этого. Ясно, что если и Y являются независимыми логнормальными переменными,...

11
Разве несколько фильтров в сверточном слое не будут учить один и тот же параметр во время тренировки?

Основываясь на том, что я узнал, мы используем несколько фильтров в Conv Layer CNN для изучения различных детекторов функций. Но так как эти фильтры применяются одинаково (то есть скользят и умножаются на области ввода), разве они не изучат одни и те же параметры во время обучения? Следовательно,...

10
Как классифицировать несбалансированный набор данных по сверточным нейронным сетям (CNN)?

У меня есть несбалансированный набор данных в задаче двоичной классификации, где количество положительных и отрицательных значений составляет 0,3% против 99,7%. Разрыв между позитивами и негативами огромен. Когда я тренирую CNN со структурой, используемой в задаче MNIST, результат тестирования...

10
Стабильные распределения, которые можно умножить?

Стабильные распределения инвариантны относительно сверток. Какие подсемейства устойчивых распределений также замкнуты относительно умножения? В том смысле, что если f ∈ F и g ∈ F , то функция плотности вероятности произведения f ⋅ g (с точностью до константы нормализации) также принадлежит F ?FFFе∈...

9
Эффективная свертка (в R)

Я хочу рассчитать / оценить свертку g(x)=∫Df(x−t)ϕ(t)dt,g(x)=∫Df(x−t)ϕ(t)dt,g(x)=\int_D f(x-t) \phi(t) dt, где является плотностью и гладкая функция с компактным носителем . Свертка недоступна в закрытом виде, и мне нужно интегрировать ее численно. Мой вопрос: есть ли эффективный способ сделать...