Я использую Libsvm для обучения данных и прогнозирования классификации по проблеме семантического анализа . Но он имеет производительность вопрос о крупномасштабных данных, поскольку касается семантического анализа п-размерности задачи.
В прошлом году был выпущен Liblinear , и он может решить проблемы с производительностью. Но это стоило слишком много памяти . Является ли MapReduce единственным способом решения проблемы семантического анализа больших данных? Или есть какие-то другие методы, которые могут улучшить узкое место в памяти на Liblinear ?
machine-learning
bigdata
libsvm
Тупик GDI
источник
источник
Вы можете проверить ваубал ваббит . Он довольно популярен для крупномасштабного обучения и включает в себя параллельные положения.
С их сайта:
источник