Какие математические проблемы существуют в ИИ, над которыми люди работают?

11

Недавно я получил 18-месячную должность постдока в математическом отделе. Это позиция с относительно легким преподавательским долгом и большой свободой в отношении того, какие исследования я хочу проводить.

Ранее я в основном занимался исследованиями вероятностей и комбинаторики. Но я думаю о том, чтобы сделать немного больше прикладной работы, например, AI. (Существует также мнение, что есть большая вероятность того, что я не получу должность в должности, которая останется в должности в конце моей нынешней должности. Изучение немного ИИ может быть полезным для других карьерных возможностей.)

Какие математические проблемы существуют в ИИ, над которыми люди работают? Из того, что я слышал, есть люди, изучающие

Есть еще примеры?

ablmf
источник
3
Оптимизация. Вероятно, является наиболее влиятельным полем для AI ML. Доказательства конвергенции, как и в обучении с подкреплением, отсутствуют.
drerD

Ответы:

10

В искусственном интеллекте (иногда называемом машинным или вычислительным интеллектом ) существует несколько проблем, основанных на математических темах, в частности, оптимизации, статистике, теории вероятностей, исчислении и линейной алгебре.

Маркус Хаттер работал над математической теорией для искусственного общего интеллекта , названной AIXI , которая основана на нескольких математических и вычислительных концепциях, таких как обучение с подкреплением, теория вероятностей (например, теорема Байеса и смежные вопросы), теория измерения , алгоритмическая теория информации (например, Колмогоровская сложность), оптимизация, индукция Соломонова , универсальный поиск Левина и теория вычислений (например, универсальные машины Тьюринга). Его книга « Универсальный искусственный интеллект: последовательные решения на основе алгоритмической вероятности», который является высокотехнической и математической книгой, описывает его теорию оптимальных байесовских немарковских обучающих агентов для подкрепления.

Существует также область исследований, называемая вычислительной теорией обучения , которая посвящена изучению разработки и анализа алгоритмов машинного обучения. Точнее, область фокусируется на тщательном изучении и математическом анализе алгоритмов машинного обучения с использованием методов из таких областей, как теория вероятностей, статистика, оптимизация, теория информации и геометрия. Несколько человек работали над теорией компьютерного обучения, в том числе Майкл Кернс и Владимир Вапник . Существует также смежная область, называемая статистической теорией обучения .

Существует также много исследовательских работ, посвященных аппроксимациям (эвристике) комбинаторной оптимизации и задачам NP-завершения , таким как оптимизация муравьиных колоний .

Есть также некоторые работы по ИИ-полноте , но этому не уделяется много внимания (по сравнению с другими областями исследований, упомянутыми выше).

нбро
источник
4

Большая часть математической работы, выполняемой в AI, с которой я знаком, уже описана в ответе nbro. Одна вещь, в которую я не верю, еще рассматривается в этом ответе - это доказательство алгоритмической эквивалентности и / или получение эквивалентных алгоритмов . Хадо ван Хасселт и Ричард Саттон - одна из моих любимых статей на эту тему - « Обучение прогнозированию независимо от диапазона ».

Основная идея состоит в том, что мы можем сначала сформулировать алгоритм (в математической форме, например, некоторые правила обновления / уравнения для параметров, которые мы обучаем) одним способом, а затем найти другие правила обновления / уравнения (то есть другой алгоритм) для что мы можем доказать, что он эквивалентен первому (т.е. всегда приводит к одному и тому же результату).

Типичный случай, когда это полезно, если первый алгоритм легко понять / обращается к нашей интуиции / более удобен для доказательства сходимости или другого теоретического анализа, а второй алгоритм более эффективен (с точки зрения вычислений, требований к памяти и т. Д.). .).

Деннис Соемерс
источник
3

Специально для математического аппарата нейронных сетей - теория случайных матриц . Неасимптотическая теория случайных матриц использовалась в некоторых доказательствах сходимости градиентного спуска для нейронных сетей , случайные ландшафты больших размеров в связи с гессенским спектром имеют отношение к поверхностям потерь нейронных сетей .

Анализ топологических данных является еще одной областью интенсивных исследований, связанных с ОД, ИИ и применением к нейронным сетям .

Было несколько работ по тропической геометрии нейронных сетей.

Теория гомотопического типа также имеет связь с ИИ

mirror2image
источник