В настоящее время искусственный интеллект кажется почти равным машинному обучению, особенно глубокому. Некоторые говорят, что в этой области глубокое обучение заменит специалистов-людей, традиционно очень важных для разработки функций. Говорят, что два прорыва подкрепили рост глубокого обучения: с одной стороны, нейробиология и нейропластичностьв частности, говорит нам, что подобно человеческому мозгу, который является очень пластичным, искусственные сети могут использоваться для моделирования почти всех функций; с другой стороны, увеличение вычислительной мощности, в частности внедрение графических процессоров и FPGA, великолепно повысило алгоритмический интеллект и сделало модели, созданные десятилетия назад, чрезвычайно мощными и универсальными. Добавлю, что большие данные (в основном помеченные), накопленные за последние годы, также актуальны.
Такие разработки переносят компьютерное зрение (и распознавание голоса) в новую эру, но в системах обработки естественного языка и экспертных системах ситуация, похоже, не сильно изменилась.
Достижение здравого смысла для нейронных сетей кажется непростым делом, но большинство предложений, разговоров и коротких текстов содержат выводы, которые следует извлечь из базовых знаний о мире. Таким образом, знание графики имеет большое значение для искусственного интеллекта. Нейронные сети могут быть использованы для создания баз знаний, но кажется, что модели нейронных сетей испытывают трудности при использовании этих построенных баз знаний.
Мои вопросы:
1) Является ли база знаний (например, «граф знаний», придуманная Google) перспективной ветвью в искусственном интеллекте? Если да, то каким образом KB может расширить возможности машинного обучения? И как это может помочь в создании естественного языка?
2) Для выживания в возрасте, в котором доминирует DL, где находится направление для базы знаний (или общий термин символический подход)? Является ли Wolfram- like z динамическая база знаний новым направлением? Или какие-то новые направления?
Надеюсь, я задаю соответствующий вопрос здесь, так как я не смог пометить свой вопрос как «база знаний» или «граф знаний».
Я упускаю что-то фундаментальное или какие-то идеи, которые решают эти проблемы?
Ответы:
Прежде всего, я хотел бы указать на основные различия между базой знаний и (глубоким) машинным обучением, особенно когда основное внимание уделяется «ИИ», а не «Науке данных»:
NNs как черный ящик; Даже если они изучат набор данных и получат возможность обобщения по проблемной области, вы никогда не узнаете, как они работают. Если вы внимательно изучите детали разработанной модели, вы увидите только цифры, веса, слабые и сильные связи и функции преобразования. шаг «извлечения характеристик» перед этапом обучения буквально говорит вам: «Эй, человек, хватит с твоим сложным миром, давай начнем с нуля и единицы». В случае с DL это хуже! мы даже не видим, каковы выбранные и эффективные функции. Я не эксперт по DL, но насколько я знаю, черный ящик DL темнее! Но базы знаний написаны на понятном человеку языке. после фазы накопления знаний вы могли видеть все связи между сущностями, и что более важно, Вы могли бы интерпретировать эти связи. если вы перерезаете провод в базе знаний, ваша модель потеряет лишь немного своей силы, и вы будете знать, что именно она потеряет; например, отключение узла «Плутон» от узла «солнечная система» расскажет вашей модели, что сказал нам Деграс Тайсон. но в модели ML это может превратить ее в чисто бесполезную: что произойдет, если вы манипулируете связью между нейроном № 14 и 47 в модели NN, используемой для предсказания того, какие планеты принадлежат Солнечной системе ?!
Модели ML являются просто надписью данных. У них нет силы вывода, и они не дают вам ее. База знаний, с другой стороны, способна сделать вывод из предыдущих знаний, как вы указали в своем вопросе. Показано, что модели DL, которые были обучены, скажем, данным классификации изображений, также могут быть применены к проблеме обнаружения голоса. Но это не значит, что модели DL могут применить свои предварительные знания в области изображений к области голосов.
Вам нужны килограммы данных для традиционных алгоритмов ML и тонны данных для алгоритмов DL. но один экземпляр набора данных создаст для вас значимую базу знаний.
В НЛП есть две основные темы исследований: машинный перевод и ответы на вопросы. Практически было показано, что DL в значительной степени работает с проблемами машинного перевода, но действует довольно глупо, отвечая на вопрос, особенно когда область тем, обсуждаемых в человеко-машинном диалоге, широка. Базы знаний не являются хорошим выбором для машинного перевода, но, вероятно, являются ключом к благородному автоответчику. Поскольку в машинном переводе важна только переведенная версия текста (и мне все равно, как машина справилась с этой задачей, насколько это правда), а в вопросе, отвечающем на вопрос, мне не нужен попугай, который повторяет ту же информацию, которую я дал ему, но разумное существо, которое дает мне «яблоко съедобно» после того, как я говорю ему «яблоко - это фрукт» и «
источник