Я пытаюсь зайти на сайт с помощью следующей команды, но что-то не хватает:
wget --no-check-certificate --save-cookies cookies.txt --keep-session-cookies --post-data "loginId=Email%40gmail.com&password=PASSWORD&submit-btn" "https://login.aliexpress.com/"
Что не так с этой командой?
%40
для @
Я почти уверен, что ему не хватает токена и реферера, но все, что кажется слишком сложным для воспроизведения.
Есть ли в браузере плагин, куда вы можете добавить список URL и загрузить страницу каждого URL в этом списке?
Необходимо сохранить куки / сеанс браузера (я войду из браузера)
Спасибо!
Ответы:
Поскольку вопрос помечен как "curl", я предполагаю, что команда curl также приемлема. Делать эти вещи методом проб и ошибок может быть утомительно, поэтому я рекомендую открыть страницу входа в Firefox, затем открыть инструменты разработчика, перейти на вкладку «Сеть», нажать «Сохранять журналы» на вкладке «Сеть», а затем нажать кнопку входа. кнопка на странице. Все сетевые доступы будут отображаться один за другим, и вы можете щелкнуть правой кнопкой мыши любой из них и выбрать «Копировать» - & gt; Скопируйте как cURL. Вы получите команду curl в вашем буфере вставки, которая будет воспроизводить точно такой же запрос, который был выполнен Firefox. (Если ваша версия curl немного старше, возможно, придется скорректировать команды curl.)
Chrome также обладает этими функциями, с той лишь разницей (в текущих стабильных версиях), что «Persist Logs» называется «Сохранять журнал».
источник