Мне нужно скачать 100 ГБ файлов (примерно 150 файлов) в течение 7 дней до истечения срока их действия. Загрузка ограничена хостом, поэтому она занимает НАМНОГО дольше, чем теоретическая скорость передачи, основанная на обычной скорости интернета. У меня есть скрипт curl http://curl.haxx.se/docs/manpage.html - одна строка на файл.
У меня была идея автоматически раскрутить n экземпляров EC2, выполнить команду и отправить файлы по FTP в центральное место, а затем выключить машины. Как бы я это сделал?
Мне все равно, будь то Linux или Windows.
источник
Я использовал boto, чтобы писать такие вещи раньше. Проще всего раскрутить образы linux, а затем использовать ssh для их работы.
источник
Не уверен в лучшем решении. Но если вы делаете это на регулярной основе и вам нужно что-то для автоматического запуска и остановки ваших компьютеров, то вы можете посмотреть на этот продукт: http://LabSlice.com (с оговоркой, что я являюсь техническим директором).
источник
Vagrant с провайдером AWS делает это легко и является мультиплатформенным.
После того,
Vagrantfile
как объект создан, вы запускаете экземпляр с помощьюvagrant up
, входите в негоvagrant ssh
и уничтожаете его с помощьюvagrant destroy
. Супер-легкий.источник