Недавно я получил 18-месячную должность постдока в математическом отделе. Это позиция с относительно легким преподавательским долгом и большой свободой в отношении того, какие исследования я хочу проводить.
Ранее я в основном занимался исследованиями вероятностей и комбинаторики. Но я думаю о том, чтобы сделать немного больше прикладной работы, например, AI. (Существует также мнение, что есть большая вероятность того, что я не получу должность в должности, которая останется в должности в конце моей нынешней должности. Изучение немного ИИ может быть полезным для других карьерных возможностей.)
Какие математические проблемы существуют в ИИ, над которыми люди работают? Из того, что я слышал, есть люди, изучающие
- Детерминированный конечный автомат
- Многорукие проблемы с бандитами
- Поиск дерева Монте-Карло
- Обнаружение сообщества
Есть еще примеры?
Ответы:
В искусственном интеллекте (иногда называемом машинным или вычислительным интеллектом ) существует несколько проблем, основанных на математических темах, в частности, оптимизации, статистике, теории вероятностей, исчислении и линейной алгебре.
Маркус Хаттер работал над математической теорией для искусственного общего интеллекта , названной AIXI , которая основана на нескольких математических и вычислительных концепциях, таких как обучение с подкреплением, теория вероятностей (например, теорема Байеса и смежные вопросы), теория измерения , алгоритмическая теория информации (например, Колмогоровская сложность), оптимизация, индукция Соломонова , универсальный поиск Левина и теория вычислений (например, универсальные машины Тьюринга). Его книга « Универсальный искусственный интеллект: последовательные решения на основе алгоритмической вероятности», который является высокотехнической и математической книгой, описывает его теорию оптимальных байесовских немарковских обучающих агентов для подкрепления.
Существует также область исследований, называемая вычислительной теорией обучения , которая посвящена изучению разработки и анализа алгоритмов машинного обучения. Точнее, область фокусируется на тщательном изучении и математическом анализе алгоритмов машинного обучения с использованием методов из таких областей, как теория вероятностей, статистика, оптимизация, теория информации и геометрия. Несколько человек работали над теорией компьютерного обучения, в том числе Майкл Кернс и Владимир Вапник . Существует также смежная область, называемая статистической теорией обучения .
Существует также много исследовательских работ, посвященных аппроксимациям (эвристике) комбинаторной оптимизации и задачам NP-завершения , таким как оптимизация муравьиных колоний .
Есть также некоторые работы по ИИ-полноте , но этому не уделяется много внимания (по сравнению с другими областями исследований, упомянутыми выше).
источник
Большая часть математической работы, выполняемой в AI, с которой я знаком, уже описана в ответе nbro. Одна вещь, в которую я не верю, еще рассматривается в этом ответе - это доказательство алгоритмической эквивалентности и / или получение эквивалентных алгоритмов . Хадо ван Хасселт и Ричард Саттон - одна из моих любимых статей на эту тему - « Обучение прогнозированию независимо от диапазона ».
Основная идея состоит в том, что мы можем сначала сформулировать алгоритм (в математической форме, например, некоторые правила обновления / уравнения для параметров, которые мы обучаем) одним способом, а затем найти другие правила обновления / уравнения (то есть другой алгоритм) для что мы можем доказать, что он эквивалентен первому (т.е. всегда приводит к одному и тому же результату).
Типичный случай, когда это полезно, если первый алгоритм легко понять / обращается к нашей интуиции / более удобен для доказательства сходимости или другого теоретического анализа, а второй алгоритм более эффективен (с точки зрения вычислений, требований к памяти и т. Д.). .).
источник
Специально для математического аппарата нейронных сетей - теория случайных матриц . Неасимптотическая теория случайных матриц использовалась в некоторых доказательствах сходимости градиентного спуска для нейронных сетей , случайные ландшафты больших размеров в связи с гессенским спектром имеют отношение к поверхностям потерь нейронных сетей .
Анализ топологических данных является еще одной областью интенсивных исследований, связанных с ОД, ИИ и применением к нейронным сетям .
Было несколько работ по тропической геометрии нейронных сетей.
Теория гомотопического типа также имеет связь с ИИ
источник