Страница 98 / 118

Wget: [Назад] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 [Вперед]

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: 0) Cygwin,  1) GNUWin32 (учитывайте зависимости), 2) Wget + OpenSSL by GetGnuWin32, 3) by Bart Puype  4) by osspack32, 5) by Alex_Piggy, 6) by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширением «Export Cookies»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wgetа — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
 
Разное.
GUI для Wgetа
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1503 | Зарегистр. 17-06-2003 | Отправлено: 12:39 08-11-2003 | Исправлено: VictorVG2, 22:57 06-01-2016
Victor_VG

Редактировать | Цитировать | Сообщить модератору
Баг устранён. Только что проверил. Автор перезалил архив - wget-1.16.7z и в новой сборке ошибки уже нет.  
 
И от меня - выложил новый curl-ca-bundle.crt от Wed Oct 29 11:22:42 2014 (в архиве он значительно старее - от Thu Dec  5 09:40:49 2013 и иные сертификаты уже просрочены). В подтверждении исправления бага тот же сертификат, только в оригинальном виде как его перл-скрипт генерит, а curl-ca-bundle.crt это просто - mv -f ca-bundle.crt curl-ca-bundle.crt .

Отправлено: 14:36 29-10-2014 | Исправлено: Victor_VG, 14:38 29-10-2014
JekaKot



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
При использовании
Код:
-i file

все тупо скачивается в корень, где лежит wget,exe. Нужно, чтобы все было по папкам.
 
Подскажите параметры ком. строки для скачивания файлов в соответствии со структурой сайта, запамятовал.



Код:
-i file -x -r -nc

Всего записей: 2419 | Зарегистр. 10-03-2006 | Отправлено: 10:41 01-11-2014 | Исправлено: JekaKot, 11:11 01-11-2014
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
JekaKot

Цитата:
  -x,  --force-directories         force creation of directories.

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 11:09 01-11-2014
JekaKot



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
уже нашел, спасибо
Просто  

Код:
 -x
не подойдет, при этом не берутся картинки.

Всего записей: 2419 | Зарегистр. 10-03-2006 | Отправлено: 11:13 01-11-2014
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
JekaKot

Цитата:
Просто  
 
Код:
 -x
не подойдет, при этом не берутся картинки.

Почему это не берутся ? По умолчанию ничего не пропускается,если не установлено исключений на директории и расширения файлов либо есть ограничения в robots.txt (при рекурсивном скачивании).У меня  работает,я так простые сайты целиком скачиваю.
Вообще,это по нубски так спрашивать без предъявления всей ком.строки и конечной цели.
 

Цитата:
-i file -x -r -nc

В этой строке нет каких то волшебных опций для изображений,а только
- брать ссылки из file
- создавать директории
- скачивать рекурсивно
- пропускать файлы,уже существующие в директориях (полезно при повторной закачке сайта со статическим контентом.)

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 11:29 01-11-2014 | Исправлено: mithridat1, 11:43 01-11-2014
JekaKot



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1

Цитата:
Почему это не берутся ?

Не знаю, может на твоих "простых" сайтах "вся ком. строка"

Код:
wget.exe -i file
и работает так как тебе надо.
Я же при попытке такого запуска получаю ворох htm-ок в той же папке, кучу дубликатов страниц (сохраняются как *htm.1, *htm.2,...) и ни одного графического файла.
Между тем,

Код:
wget.exe -i file -x -r -nc
отрабатывает так, как мне надо - структура папок, все картинки на месте. Т.е., "в соответствии со структурой сайта".
 
Если ты не понимаешь вопрос, но даешь на него ответ и тебе не нравится, что ответ не подходит - то еще неизвестно, кто "нубнее"
 

Цитата:
В этой строке нет каких то волшебных опций для изображений

Я так понимаю, что графика не требует дополнительных опций.
 
А вот чтобы сохранять pdf и mp4 со скачиваемых страниц "какие-то волшебные опции" нужны. Пока не нашел, буду искать дальше.
 
Если есть конструктивные предложения - буду благодарен.

Всего записей: 2419 | Зарегистр. 10-03-2006 | Отправлено: 12:58 01-11-2014 | Исправлено: JekaKot, 12:59 01-11-2014
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
JekaKot
Ответ был дан точно в соответствии с вопросом.И не моя проблема если имелось в виду что то другое  

Цитата:
Я так понимаю, что графика не требует дополнительных опций.

Что было очевидно сразу.

Цитата:
А вот чтобы сохранять pdf и mp4 со скачиваемых страниц "какие-то волшебные опции" нужны.

Очередная чушь.Wget известная и очень консервативная утилита,каких то секретов там быть не может.
Я 10 лет ей разные сайты качаю.
Выше я уже перечислял причины по которым контент некоторого типа может исключаться.Можно еще добавить,что некоторые ресурсы внимательны к cookies и user-agent.Но поскольку вы не хотите давать полной информации разбирайтесь со своими заблуждениями сами.Удачи в поисках "волшебных опций"

Цитата:
Код:
wget.exe -i file -x -r -nc
отрабатывает так, как мне надо - структура папок, все картинки на месте. Т.е., "в соответствии со структурой сайта".  

Код wget.exe -i file -x -r отрабатывает как мне надо - структура каталогов,все файлы,включая мультимедийные,на месте.ЧЯДНТ ?

Цитата:
Если ты не понимаешь вопрос, но даешь на него ответ и тебе не нравится, что ответ не подходит - то еще неизвестно, кто "нубнее"  

Не стоит обижаться на адекватные сравнения
 
 

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 15:10 01-11-2014 | Исправлено: mithridat1, 15:13 01-11-2014
Victor_VG

Редактировать | Цитировать | Сообщить модератору
JekaKot
mithridat1
 
Ребята, стоп! Давайте думать - а может вся причина в том что в комстроке есть двояко трактуемые ключи которые и приводят к неправильным с нашей точки зрения результатам?
 
Предложенную комстроку wget.exe -i file -x -r -nc я переписал (для сборки GNU Wget 1.15.20-8e5e-dirty Ru-Board Variant от Alex_Piggy, но мой вариант может несколько отличаться от того, что выложен в шапке т.к. мы вылавливали и исправляли ошибки):
 
wget.exe --input-file=<file> --force-directories --recursive --no-clobber --user-agent="Mozilla/5.0 (Windows NT 6.1; rv:33.0) Gecko/20100101 Firefox/33.0" --continue --adjust-extension --no-check-certificate --retr-symlinks --convert-links --page-requisites --span-hosts --relative
 
так по идее должно работать т.к. в исходной комстроке к примеру та же опция -x трактуется программой по разному в зависимости от ситуации, а теперь мы чётко указали программе что делать исключив для неё любые возможности ошибочного трактования команды.  
 
Если что, то список ключей можно уточнить тут, но старайтесь использовать полное (длинное) имя команды чтобы исключить для программы возможность её двоякого толкования ибо при конфликте смысла опций она всегда выберет более приоритетное по её логике, но обычно не правильное с нашей точки зрения поведение.

Отправлено: 15:42 01-11-2014 | Исправлено: Victor_VG, 15:46 01-11-2014
JekaKot



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Похоже на то, спасибо
 
mithridat1
Расслабься, вопрос решен.

Всего записей: 2419 | Зарегистр. 10-03-2006 | Отправлено: 17:02 01-11-2014
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG

Цитата:
 старайтесь использовать полное (длинное) имя команды чтобы исключить для программы возможность её двоякого толкования

Всю жизнь использовал сокращенные названия опций и не имел с этим проблем.Правда,сборки wget я использую достаточно старые,проверенные временем.За новьем из шапки не гонюсь,поскольку традиционно в новых версиях подобных классических утилит багов больше чем добавленных полезных фич

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 17:26 01-11-2014
Victor_VG

Редактировать | Цитировать | Сообщить модератору
mithridat1

Цитата:
Всю жизнь использовал сокращенные названия опций и не имел с этим проблем.

этот вариант комстроки годится только в случае когда у программы нет иных опций с такой мнемоникой, а как только они появляются его приходится исключать задавая полные значения ключей.  
 
Я этот эффект увидел ещё в начале 80-х - неопытная девочка-оператор выдала с пульта аббревиатуру команды ОС и та вместо утилиты каталогизации томов как "честная ось" запустила ... утилиту автономного форматирования резидентного тома. Итог был великолепен в смысле последствий - громы и молнии со стороны начальства, ВЦ неделю на ушах стоял пока ОС с бэкапов поднимали, ну а затем всех почти год трясли следователи с Лубянки - диверсия - ловим врага!, девчонку понятно мгновенно выгнали по статье, а у нас после этого дела ребята из дзержинки (по уровню знаний были на голову выше всех наших системщиков вместе взятых) после в курилке ещё долго с усмешкой спрашивали не хочет ли кто провести ещё какой эксперимент.

Отправлено: 18:07 01-11-2014 | Исправлено: Victor_VG, 18:10 01-11-2014
HelioSS



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Я правильно понимаю, что при
Код:
wget.exe -i -N -c
программа:
- проверит если ли в директории файл
- если нет - начнёт закачку, если есть - запросит на сервере имя и размер и сравнит с тем, что есть на компе
- если файл уже качался, но не докачался, программа начнёт докачку?
 
Это все условия?
Они правильные?
Есть ещё какие-то трактовки?
 
Программа новый файл качает как *.*.1. А как слеоать, чтобы она сразу же заменяла существующий новой его версией?

Всего записей: 3912 | Зарегистр. 26-11-2007 | Отправлено: 10:16 10-11-2014 | Исправлено: HelioSS, 10:18 10-11-2014
Skif_off

Редактировать | Цитировать | Сообщить модератору
Не получается слить NirLauncher, при этом браузером и Download Master всё нормально сливается.
Лог:

Код:
>wget.exe http://download.nirsoft.net/nirsoft_package_1.19.7.zip
converted 'http://download.nirsoft.net/nirsoft_package_1.19.7.zip' (ASCII) -> 'http://download.nirsoft.net/nirsoft_package_1.19.7.zip' (UTF-8)
--2014-11-10 15:54:42--  http://download.nirsoft.net/nirsoft_package_1.19.7.zip
Распознаётся download.nirsoft.net (download.nirsoft.net): 50.22.232.74
Подключение к download.nirsoft.net (download.nirsoft.net)|50.22.232.74|:80... соединение установлено.
HTTP-запрос отправлен. Ожидание ответа... 403 Forbidden
2014-11-10 15:54:44 ОШИБКА 403: Forbidden.

В чём можеь быть дело? Автору писал, пока ответа нет.

Отправлено: 14:02 10-11-2014
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Skif_off
У меня и в браузере(если просто линк в адресную строку вбить) 403 вылазит.
В curl тоже 403
 
Добавлено:
Вот так работает
wget --referer=bla-bla http://download.nirsoft.net/nirsoft_package_1.19.7.zip
Вопрос не к разработчику  wget,а к владельцу сайта nirsoft - зачем то ему хочется чтобы был реферер.

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 14:13 10-11-2014 | Исправлено: mithridat1, 14:17 10-11-2014
Skif_off

Редактировать | Цитировать | Сообщить модератору
mithridat1
Заработало, спасибо.
 
А как можно отключить создание лога? --quiet как-то грубовато.

Отправлено: 18:25 10-11-2014
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Skif_off
Не очень понятен вопрос,поскольку --quiet как раз и используют для отключения вывода логов в wget.Что вы хотите получить на выходе ?
 
Добавлено:

Цитата:
Автору писал, пока ответа нет.

Я думаю Nir Sofer создал таким образом тривиальную защиту от программ для автоматического скачивания сайтов целиком (типа wget с режимом рекурсии.)

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 19:51 10-11-2014
Skif_off

Редактировать | Цитировать | Сообщить модератору
mithridat1
Хочу, чтобы не создавался лог, пусть валит всё STDOUT. Не пойму из доков: --quiet вырубает вывод вообще или только запись лог-файла?
Запускаю пачку, чтобы не тратить время (что-то медленнее загружается, что-то быстрее), с --background:
wget.exe -N --background URL
и теперь в рабочий каталог валятся wget-log.N.
 
 
Добавлено:

Цитата:
Я думаю Nir Sofer создал таким образом тривиальную защиту от программ для автоматического скачивания сайтов целиком

Банятся автоматом (раньше сливал по списку), поэтому решил не скачивать каждую по отдельности, а один лаунчер и дальше его потрошить.

Отправлено: 20:13 10-11-2014
Victor_VG

Редактировать | Цитировать | Сообщить модератору
Skif_off
 
С --quiet лог не пишется вообще. Посмотри у меня в FarUE3 - там лога нет в природе - отключён.

Цитата:
-q,  --quiet               ничего не выводить

Отправлено: 20:17 10-11-2014 | Исправлено: Victor_VG, 20:19 10-11-2014
Skif_off

Редактировать | Цитировать | Сообщить модератору
mithridat1
Victor_VG
Спасибо, надо было просто проверить
Кроме ключа -N для сохранения даты файла вроде больше ничего нет?

Отправлено: 20:40 10-11-2014
HelioSS



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Ребята, помогите с вопросом

Всего записей: 3912 | Зарегистр. 26-11-2007 | Отправлено: 22:40 10-11-2014
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Сохранено: 09.06.2016 19:47:15 (c) xForumSaver