Существуют ли вычислительные модели зеркальных нейронов?

17

Из Википедии:

Зеркальный нейрон - это нейрон, который срабатывает как тогда, когда животное действует, так и когда животное наблюдает за тем же действием, совершенным другим.

Зеркальные нейроны связаны с имитационным обучением, очень полезной функцией, которая отсутствует в современных реализациях искусственного интеллекта. Вместо того, чтобы учиться на примерах ввода-вывода (контролируемое обучение) или наградах (обучение с подкреплением), агент с зеркальными нейронами сможет учиться, просто наблюдая за другими агентами, переводя их движения в свою собственную систему координат. Что мы имеем по этому поводу в отношении вычислительных моделей?

rcpinto
источник

Ответы:

4

В этой статье дается описание зеркальных нейронов с точки зрения обучения Хебби, механизма, который широко используется в ИИ. Я не знаю, применялась ли когда-либо приведенная в статье формулировка в вычислительном отношении.

NietzscheanAI
источник
0

Независимо от того, «беру ли я мяч» или «он забирает мяч», все сохраненные экземпляры «беру» и «мяч» будут слабо активированы, а «беру [мяч]» будут сильно активированы. Разве это не квалифицируется как «зеркальное отображение»? Если вы также знаете, что «у меня есть рука» и «у него есть рука» и т. Д., То, когда «он берет несколько блоков», нетрудно подумать, что «я могу взять несколько блоков».

AMI
источник
0

На самом деле у нас есть много вещей в этом направлении, захват движений для экземпляров 3-D фильмов приходит на ум почти сразу. Проблема, если я подумаю об этом, заключается не столько в наблюдении за другим актором, а с помощью компьютеров относительности, которые делают это уже с тем количеством программного обеспечения для распознавания изображений, которое у нас есть, скорее, это проблема понимания, если действие дало хороший результат как net - это то, что компьютеры не могут сделать, так как это не проблема сети с одним узлом. Например, мы уже запрограммировали компьютер, чтобы он понимал человеческий язык (возможно, Уотсон), но даже Уотсон не понимал, что говорить «f ***» плохо. (Посмотрите, это забавная история.)

Но дело в том, что алгоритмы обучения не являются истинным обучением в некотором смысле, так как компьютер в настоящее время не имеет смысла «хорошего результата», следовательно, на этом этапе обучение наблюдению очень ограничено в смысле «обезьяна видит, обезьяна делает».

Возможно, самым близким, что я когда-либо читал об этом, были пожарные поисковые и спасательные боты, которые были в сети и передавали друг другу сообщения, когда один из них был уничтожен, поскольку боты знали, что область была чем-то, чего они должны были избегать.

В противном случае, я думаю, что это проблема наблюдательного обучения. Человек может заметить, что если кто-то ударит кулаком, вы получите ответный удар, компьютер будет наблюдать и попугать действия, хорошие или плохие.

метрический
источник