Есть ли какой-либо научный / математический аргумент, который мешает глубокому обучению создавать сильный ИИ?

12

Я читаю книгу Иудеи Перл « Книга почему» , в которой он упоминает, что глубокое обучение - это просто прославленная технология подбора кривых, и она не сможет производить интеллект, подобный человеку.

Из его книги приведена схема, иллюстрирующая три уровня когнитивных способностей:

Три уровня познавательных способностей

Идея состоит в том, что «интеллект», производимый современными технологиями глубокого обучения, находится только на уровне ассоциации. Таким образом, ИИ находится далеко от уровня задавания вопросов, таких как «как я могу заставить Y произойти» (вмешательство) и «Что если я поступлю иначе, Х все равно будет происходить?» (контрфактуальность), и очень маловероятно, что методы подбора кривой могут когда-либо приблизить нас к более высокому уровню когнитивных способностей.

Я нашел его аргумент убедительным на интуитивном уровне, но я не могу найти никаких физических или математических законов, которые могут поддержать или поставить под сомнение этот аргумент.

Итак, есть ли какой-либо научный / физический / химический / биологический / математический аргумент, который мешает глубокому обучению создавать сильный ИИ (человеческий интеллект)?

Гравитон
источник
Несколько часов назад у нас был своего рода Quetion, который говорит о нейробиологии и искусственном интеллекте, поэтому я думаю, что этот вопрос подходит для приложений данных, помимо машинного обучения.
пятнадцатое
1
Одна из проблем, с которой сталкиваются при ответе на это, заключается в том, что «Глубокое обучение» является своего рода торговой маркой, где действия, выполняемые с нейронными сетями, выходящими за рамки статистической подгонки кривой - например, RNN для последовательностей обучения и «глубокого подкрепления обучения» - могут также считаться частью этого приверженцами. Если вы позволите этому термину развиваться таким образом, то очень трудно придумать какой-либо аргумент о его возможностях.
Нил Слэйтер
Теорема Гёделя о неполноте
riemann77
2
@thecomplexitytheorist: Неполнота Годеля, проблема entscheidungs ​​и тому подобное, все они применимы и к человеческому разуму. В заключение, если они были причиной не достичь ИИ, то и люди не разумны. Модус толленс, Годельс не проблема на пути к AGI
pasaba por aqui
Кто сказал, что «Делать» и «Воображать» - это не просто «Подгонка по кривой», происходящая в мозге?
Данк

Ответы:

3

Комментарий Джуди Перл, опубликованный в 2018 году на ACM.org, в его книге « Построить действительно интеллектуальные машины,« Обучить их причине и следствию »» - это пронзительная правда

Все впечатляющие достижения глубокого обучения сводятся к простому подгонке.

рN

  1. Искусственные сети не могут выполнять логику.
  2. Искусственные сети - лучший подход к искусственному интеллекту.

Как рациональность может быть исключена из списка важных человеческих особенностей интеллекта, что означают эти два утверждения, взятые вместе?

Является ли человеческий мозг сетью искушенных сборщиков кривых? Знаменитая цитата Марвина Мински «Мозг, похоже, является мясной машиной» была предложена без доказательства, и с тех пор не было предложено ни доказательства его тривиализации человеческого мозга, ни доказательства того, что мозг недоступен вычислимости Тьюринга, так как ,

Когда вы читаете эти слова, ваши нейронные сети выполняют следующую последовательность кривых?

  • Лезвия из сетчатки палочек и колбочек
  • Линии от краев
  • Формы из линий
  • Письма от форм
  • Лингвистические элементы из групп букв
  • Лингвистические структуры из элементов
  • Понимание от языковых структур

Случай убедителен в том, что первые пять - это механизм конвергенции в модели, а вся структура машинного обучения - это просто метод для подгонки данных к модели.

Последние два пункта обозначают, где парадигма нарушается и где многие исследователи и авторы ИИ правильно заявили, что машинное обучение имеет существенные ограничения, когда основано исключительно на многослойных персептронах и ядрах свертки. Кроме того, последний элемент пули значительно упрощен в своем текущем состоянии, вероятно, на несколько порядков. Даже если Минский прав в том, что компьютер может выполнять то, что делает мозг, процесс чтения и понимания этого абзаца может легко иметь тысячи различных видов уникальных компонентов процесса в шаблонах внутреннего рабочего процесса с массивным параллелизмом. Технология визуализации указывает на эту вероятность. У нас есть компьютеры, моделирующие только самые простые периферийные слои.

Есть ли какой-либо научный / математический аргумент, который мешает глубокому обучению создавать сильный ИИ? - Нет. Но нет такого аргумента, который бы это гарантировал.

Другие вопросы здесь исследуют, могут ли эти сложные сборщики кривых выполнять элементы познания или рассуждения.

Тотем трех в изображении вопроса, видения, выполнения и воображения, не является особенно полным, точным или проницательным.

  • У человека есть как минимум пять сенсорных парадигм, а не одна
  • Делая предшествующие человеческие чувства миллиардами лет - бактерии делают
  • Воображение не является значительно более сложным процессом, чем воспроизведение сценария из моделей прошлого опыта с некоторым методом применения функций множества для их объединения и введения случайных мутаций.
  • Креативность может быть просто воображением в предыдущем пункте, за которым следует отсеивание бесполезных результатов воображения с некоторыми ориентированными на рынок критериями качества, оставляя впечатляющие креативные продукты, которые продают

Высшие формы - это оценка, чувство реальности, выходящее за рамки научного измерения, законное сомнение, любовь, жертва на благо других или человечества.

Многие признают, что текущее состояние технологии ИИ далеко не близко к закупке системы, которая может надежно ответить: «Как я могу заставить Y произойти?» или "Если бы я поступил по-другому, Х все еще будет происходить?"

Не существует математических доказательств того, что некоторая комбинация небольших подгоночных элементов может или не может достичь способности ответить на эти вопросы, как это может сделать обычный человек, в основном из-за недостаточного понимания того, что такое интеллект или как его определить в математических терминах.

Также возможно, что человеческий интеллект вообще не существует, что ссылки на него основаны на религиозном убеждении, что мы как вид выше, чем другие виды. То, что мы можем населять, потреблять и истреблять, на самом деле не очень разумная концепция интеллекта.

Утверждение, что человеческий интеллект - это адаптация, которая отличает нас от других млекопитающих, вступает в противоречие с тем, хорошо ли мы адаптируемся. Мы не были проверены. Приходите к следующему глобальному метеориту-убийце с ударной волной, равной величине метеора кратера Чиксулуб, а затем несколько тысяч лет солнечной зимы, и мы посмотрим, будет ли наше существование в 160 000 лет или существование бактерий в 4 000 000 000 лет. оказывается более устойчивым. На жизненном графике человеческий интеллект еще не проявил себя как адаптивная черта.

Что ясно в развитии ИИ, так это то, что другие виды систем играют определенную роль наряду с глубокими учениками, основанными на концепции многослойного персептрона и ядрах свертки, которые являются строго приспособителями поверхности.

Компоненты Q-Learning, компоненты, основанные на внимании, и компоненты краткосрочной памяти - все это также подходит для поверхностного монтажа, но только путем значительного расширения определения соответствия поверхности. Они обладают адаптивными свойствами и состоянием в реальном времени, поэтому они могут быть завершены по Тьюрингу.

Контейнеры нечеткой логики, системы, основанные на правилах, алгоритмы с марковскими свойствами и многие другие типы компонентов также играют свою роль и совсем не являются приспособителями поверхности.

Таким образом, есть пункты, которые основаны не только на правдоподобности или приятном интуитивном качестве, однако многие из этих авторов не предоставляют математической основы с определениями, приложениями, леммами, теоремами, доказательствами или даже мысленными экспериментами, которые могут быть изучен в формальном порядке.

Дуглас Дасеко
источник
1

Это парадокс, но машина глубокого обучения (определяемая как вариант NeuralNet) не в состоянии чему-либо научиться. Это гибкая и конфигурируемая аппаратно-программная архитектура, которая может быть параметризована для решения множества проблем. Но оптимальные параметры для решения задачи получают с помощью внешней системы, то есть алгоритма обратного распространения.

Подсистема обратного распространения использует традиционные парадигмы программирования, это не нейронная сеть. Этот факт находится в абсолютной противоположности человеческому разуму, где обучение и использование знаний осуществляется одной и той же системой (разумом).

Если все реальные интересные вещи сделаны вне NN, трудно утверждать, что NN (в любом варианте) может развиваться в AGI.

Также возможно найти еще некоторые отличия. Нейронные сети сильно численны по своему интерфейсу и внутренностям. С этой точки зрения они представляют собой эволюцию машин опорных векторов.

Слишком много различий и ограничений, чтобы ожидать AGI.

Примечание: я категорически не согласен с розыгрышем, включенным в исходный вопрос. «Видеть», «делать», «воображать» - это абсолютно неправильные уровни. Он игнорирует основные и общепринятые понятия программного обеспечения, такие как «абстракция» или «состояние программы» (разума, по словам Тьюринга); применяемые AI как «предвидеть»; и AGI как "свободная воля", "цели и чувства", ...

Pasaba Por Aqui
источник
4
Я думаю, что исключение обратного распространения (или любой части обучающей структуры) из рассмотрения и утверждение, что оставшаяся часть является частью «глубокого обучения», является искусственным, и отчасти уклоняется от вопроса. Я думаю, что разумно предположить, что ОП означает глубокое обучение в том виде, в каком оно практикуется, включая доступные процессы обучения.
Нил Слэйтер
1
@NeilSlater: Если мы говорим, что DL - это своего рода NeuralNet (чтобы заметить сходство с человеческим разумом и, как следствие, его возможную способность достигать AGI), мы исключаем обучающую часть, которая не является NN. , Если мы включим подсистему обучения в определение DL, то это не NN, это всего лишь обычное программирование, обладающее мощью любой обычной программы и имеющее те же возможности для достижения AGI, что и любая другая программная система или парадигма.
pasaba por aqui
Человеческий мозг учится, получая и обрабатывая входные данные исключительно от внешних «систем». Оптимальные параметры для решения проблем получаются методом проб и ошибок, применяя правила и обрабатывая входные данные из внешних систем. Обучение начинается, пока ребенок еще находится в матке, и продолжается 24 часа в сутки. Текущее состояние ИИ почти наверняка не сопоставимо с эмуляцией человеческого мозга; но утверждение, что ИИ не может учиться (или уже не учится аналогично человеческому мозгу), предполагает знание о том, как человеческий мозг «учится» и функционирует, чего наука еще не знает.
Данк