Я слушал доклад группы, состоящей из двух влиятельных китайских ученых: Ван Гана и Ю Кая и других.
Отвечая на вопрос о самом большом узком месте развития искусственного интеллекта в ближайшем будущем (от 3 до 5 лет), Ю Кай, который имеет опыт работы в области аппаратного обеспечения, сказал, что аппаратное обеспечение будет существенной проблемой, и мы должны заплатить большую часть наше внимание к этому. Он привел нам два примера:
- В начале разработки компьютера мы сравнивали наши машины по чипам;
- Искусственный интеллект, который очень популярен в эти годы, был бы почти невозможен, если бы не усиливалась графическим процессором Nvidia.
Фундаментальные алгоритмы существовали уже в 1980-х и 1990-х годах, но искусственный интеллект пережил 3 зимы ИИ и не был эмпирическим, пока мы не сможем обучать модели с мегасерверами, усиленными GPU.
Затем доктор Ван прокомментировал свое мнение о том, что мы должны также разрабатывать программные системы, потому что мы не можем создать автоматическую машину, даже если мы объединили все графические процессоры и вычисления в мире вместе.
Затем, как обычно, мой разум отвлекся, и я начал думать, что, если бы те, кто мог управлять суперкомпьютерами в 1980-х и 1990-х годах, использовали существующие тогда алгоритмы нейронных сетей и обучали их множеству научных данных? Некоторые люди в то время, очевидно, могут пытаться создавать системы искусственного интеллекта, которые мы строим сейчас. Но почему ИИ стал горячей темой и стал эмпирическим до десятилетий спустя? Это только вопрос оборудования, программного обеспечения и данных?
источник
Ответы:
Есть много факторов для бума индустрии искусственного интеллекта. Хотя многие упускают из виду, что бум в основном происходил в области машинного обучения ИИ. Это может быть связано с различными простыми причинами и их сравнениями в более ранние времена:
Еще один важный аспект - в настоящее время каждый человек имеет доступ к мощным компьютерам. Таким образом, любой может построить новые модели ML, переобучить уже существующие модели, модифицировать модели и т. Д. Это было совсем невозможно в прежние времена,
Все эти факторы привели к огромному росту интереса к ОД и вызвали бум, который мы наблюдаем сегодня. Также проверьте этот вопрос о том, как мы выходим за пределы цифровых процессоров.
источник
Графические процессоры были идеальными для бума искусственного интеллекта, потому что
ИИ был исследован в течение долгого времени. Почти полвека. Однако это было все исследование того, как алгоритмы будут работать и выглядеть. Когда NV увидела, что ИИ собирается стать мейнстримом, они посмотрели на свои графические процессоры и поняли, что огромная вычислительная мощность parellel, с относительной простотой программирования, идеальна для предстоящей эпохи. Многие другие тоже это поняли.
GPGPU - это концепция параллельной обработки GPU для общих задач. Вы можете ускорить графику или сделать свой алгоритм более 1000 ядер доступным на GPU. Это делает GPU отличной целью для всех видов использования, включая AI. Учитывая, что они уже доступны и не слишком сложны для программирования, это идеальный выбор для ускорения алгоритмов ИИ.
источник