Мне кажется, что специалисты по машинному обучению / интеллектуальному анализу данных знакомы с P и NP, но редко говорят о некоторых более тонких классах сложности (например, NC, BPP или IP) и их последствиях для эффективного анализа данных. Есть ли какой-нибудь обзор работы, выполняющей это?
cc.complexity-theory
reference-request
machine-learning
Майк Избицкий
источник
источник
Ответы:
Существует некоторое врожденное различие или несходство подходов между двумя областями прикладного машинного обучения и теории TCS / сложности.
Вот недавний семинар на эту тему в Центре вычислительной сложности, Принстон, с большим количеством видео.
В TCS основная область изучения «обучения», иногда, может быть, даже запутанная, также называемая «машинным обучением», называется теорией PAC, которая расшифровывается как «Вероятно, приблизительно правильно». его начало 1980-х предшествовало гораздо более современным исследованиям в области «машинного обучения». Википедия называет это частью теории вычислительного обучения . PAC часто касается результатов изучения булевых формул с учетом статистических выборок распределений и т. Д. И достижимой точности обучения с использованием различных алгоритмов или ограниченных выборок. Это изучается строго теоретически с привязками к классам сложности. Но это не столько страница прикладных исследований и википедии по машинному обучению, сколько ее даже нет.
Вычислительная сложность машинного обучения докторской диссертации Кернса
Син слайды на (PAC) машинного обучения
источник