Страница 70 / 118

Wget: [Назад] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 [Вперед]

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: 0) Cygwin,  1) GNUWin32 (учитывайте зависимости), 2) Wget + OpenSSL by GetGnuWin32, 3) by Bart Puype  4) by osspack32, 5) by Alex_Piggy, 6) by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширением «Export Cookies»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wgetа — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
 
Разное.
GUI для Wgetа
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1503 | Зарегистр. 17-06-2003 | Отправлено: 12:39 08-11-2003 | Исправлено: VictorVG2, 22:57 06-01-2016
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, sikemo

Цитата:
Да кстати. --page-requisites скачало изображения, но на html страницах они не видны (адрес другой чтоли).

Поэтому я и говорил про "-kK" - конвертировать ссылки.

Цитата:
 будет работать сам по себе или лучше как CygWin. В смысле ему давать локальную страницу и обрабатывать ее или же он может сообщаться з www.  

К сожалению, не понял. Берет ссылки из локальной страницы и докачивает из www. Как это считается? (-B "http://mirreferatov.com/books/") - -base="http://mirreferatov.com/books/" - адрес, откуда были скачаны страницы.

Цитата:
И обрабатывается задача двумя ресурсами (sed +wget в win), а не шэллом?

Проверял как *.bat. Должен работать и как *.sh (не проверял). Запускаете из папки, где уже скачанные html. Проверял на sed 4.2.1 nightly  + wget 1.14 w/o IRI w/o SSL

Всего записей: 1537 | Зарегистр. 07-08-2002 | Отправлено: 14:18 11-11-2012 | Исправлено: Alex_Piggy, 14:20 11-11-2012
sikemo

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
подскажите.
 
у меня линки типа этих
http://philosophy.evgenidinev.com/abraham/
http://philosophy.evgenidinev.com/aurora/
http://philosophy.evgenidinev.com/adonis/
http://philosophy.evgenidinev.com/aides/
http://philosophy.evgenidinev.com/amour/
http://philosophy.evgenidinev.com/amphitrite/
http://philosophy.evgenidinev.com/andromede/
 
при скачке превращаются в index.html.1 etc. Какой параметр надо задать, чтоб оставалось имя?

Всего записей: 921 | Зарегистр. 27-11-2008 | Отправлено: 22:05 03-12-2012
Victor_VG

Редактировать | Цитировать | Сообщить модератору
sikemo
 
Это сервер задаёт имя. По умолчанию обычно имя индексной страницы может быть типа *index*.* и Ваши линки её и запрашивают. По крайней мере я их так понял.

Отправлено: 05:22 04-12-2012
king_stiven

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sikemo
а линки сидят в текстовом файле? И выложи код, которым качаешь.

Всего записей: 2093 | Зарегистр. 17-07-2006 | Отправлено: 09:01 04-12-2012 | Исправлено: king_stiven, 09:02 04-12-2012
sikemo

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
а линки сидят в текстовом файле? И выложи код, которым качаешь.

 
wget -i l.t
 
l.t:
 
вышеприведенные линки

Всего записей: 921 | Зарегистр. 27-11-2008 | Отправлено: 15:05 04-12-2012
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, sikemo
Если у Вас wget версии >1.12 (там где ввели --trust-server-names) - просто отбрасывате последний слеш. ( "http://philosophy.evgenidinev.com/abraham" )
Или можете попытатся распарсить  
sed -r -e "s/.*\/([^\/]+)\/*$/wget -O \x22\1\x22 \x22\0\x22/gp" l.t

Всего записей: 1537 | Зарегистр. 07-08-2002 | Отправлено: 18:10 04-12-2012
sikemo

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
версия 1.11 wget --trust-server-names http://philosophy.evgenidinev.com/abraham не понимает. У меня виндовс, sed пока не использую.
 
попробую оновиться.  
 
Ещё вопрос. Пробую скачать подстраницы отсюда: http://goo.gl/1XZOQ.  
взял линки типа хтмл….com.ua/article.php?book=22&amp;article=2571
 
но ничего путнего не выходит, если перейти по линку или пустить файлом. Как обойти?

Всего записей: 921 | Зарегистр. 27-11-2008 | Отправлено: 22:20 04-12-2012
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый вечер, sikemo
Вы немного не так поняли. "--trust-server-names" используется в wget 1.11 по умолчанию. А здесь он как раз не нужен. Проверял просто  
wget -E "http://philosophy.evgenidinev.com/abraham"

Цитата:
но ничего путнего не выходит, если перейти по линку или пустить файлом. Как обойти?

К сожалению, не понял. Пробовали рекурсию (Проверил на 1.11.4)?
wget -r -k -K -l1 -p -E "http://polka-knig.com.ua/book.php?book=22"
И по отдельности качает... Если в комстроке, то не забываете про кавычки.
 
PS. А что может не получится при обновлении?

Всего записей: 1537 | Зарегистр. 07-08-2002 | Отправлено: 23:42 04-12-2012
DimitriusXZ

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Часто использую wget и заметил, что если закачка была прервана и потом    
возобновлена, он качает с ошибками (использую при этом опцию --continue).    
Или не скачивает большой файл полностью (немного его не хватает) или контрольная     
сумма файла (md5) не совпадает с исходником (мелкое внутреннее несоответствие).    
Почему он ошибается, ведь не должен?    
С другими загрузчиками я такого не замечал.    
Как-нибудь можно перекачать только испорченный участок файла,    
без перезакачки всего файла?    
Что можно сделать в этой ситуации?    
Как откорректировать файл без его полной повторной перезакачки?

Всего записей: 458 | Зарегистр. 17-01-2010 | Отправлено: 16:33 20-12-2012
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, DimitriusXZ
Какая версия? Это стабильно (в смысле, каждый докачаный файл битый)? Вы можете какое-то время посохранять логи ( "-d -a log.txt")? Если постоянно бьется какой-то файл, можете дать ссылку на него?
Попробуйте опцию "--no-cache"... И ключ "-N" , на случай если файл меняется на сайте.
PS. Скачивал файл 3,5 МБ версией 1.14, через каждые пару процентов обрывая - MD5 совпало.
PPS. Восстановить файл - если у кого-то есть доступ к полному файлу, то Zidrav или RSC32. Если есть торрент - то через торрент (не получится, если смещение). Если сайт поддерживает rsync, то через него.

Всего записей: 1537 | Зарегистр. 07-08-2002 | Отправлено: 17:13 20-12-2012 | Исправлено: Alex_Piggy, 17:56 20-12-2012
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
DimitriusXZ

Цитата:
Часто использую wget и заметил, что если закачка была прервана и потом    
возобновлена, он качает с ошибками (использую при этом опцию --continue).    
Или не скачивает большой файл полностью (немного его не хватает) или контрольная      
сумма файла (md5) не совпадает с исходником (мелкое внутреннее несоответствие).  

Может быть за время загрузки успел обновиться сам файл на сервере ?

Всего записей: 3469 | Зарегистр. 05-01-2006 | Отправлено: 08:12 21-12-2012
Pasha_ZZZ



Silver Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
если у кого-то есть доступ к полному файлу, то Zidrav или RSC32.
еще есть QuickPar

Всего записей: 3758 | Зарегистр. 11-03-2002 | Отправлено: 08:22 21-12-2012
john_doe



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
wget 1.14 для Windows в шапку бы.
Помимо скомпилированных участниками ru-board вот тут есть (и обновляется) публичная версия:
http://opensourcepack.blogspot.com/2010/05/wget-112-for-windows.html
 
Добавлено:
В этой сборке активирована поддержка large-file.
А в выложенных на предыдущих страницах её нет.
Интересно почему.

Всего записей: 134 | Зарегистр. 03-02-2006 | Отправлено: 13:52 26-12-2012
Victor_VG

Редактировать | Цитировать | Сообщить модератору
john_doe
 
Разумно, добавил ссылки. Тем более что эта сборка собрана поддержкой последней версии OpenSSL 1.0.1c и +digest +https +ipv6 +iri +large-file +nls +ntlm +opie +ssl/openssl т.е. всех возможностей Wget и будет работать на любой ОС семейства WINNT начиная с Windows NT 4.0.  Пользователи Win9x/ME могут получить проблемы с зависимостями.
 
Добавлено:
 
В мэйках через .configure зачем-то вырубают. У меня на демонёнке в портах она включена, а кто и зачем её выключает - чужая голова потёмки....

Отправлено: 14:44 26-12-2012 | Исправлено: Victor_VG, 14:49 26-12-2012
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день
john_doe
Спасибо за ссылку на нормально скомпиленый wget.
 
Victor_VG
Главное,  этот Wget собран без внешних зависимостей (помните, обсуждали?). Таки крайне интересно, как.
Но в Win98 действительно, совсем не запускается. Будет время, попробую собрать себе полностью под Win98.
 
А "large-files" это поддержка >2Gb или >4Gb? Если >2Gb, то в моих сборках работает... Хотят флаг не стоит. Не знаю. Специально не отключал, но и не разбирался (не те объемы траффика. Проверял на 3Gb).

Всего записей: 1537 | Зарегистр. 07-08-2002 | Отправлено: 16:50 26-12-2012
Victor_VG

Редактировать | Цитировать | Сообщить модератору
Alex_Piggy
 
Да, помню. А размер - волшебный ключик -Os в gcc и линкере. Получаем минимальный размер, остальное слинковано статически:
 
Compile: gcc -DHAVE_CONFIG_H -DSYSTEM_WGETRC="." -DLOCALEDIR="." -I. -I../lib -I../lib -Os -msse2 -mfpmath=sse  
Link: gcc -Os -msse2 -mfpmath=sse -Wl,-s -lssl -lcrypto -lws2_32 -lgdi32 -lidn -lpcre -lintl -liconv -ldl -lz -lxtraposix ftp-opie.o mswindows.o openssl.o http-ntlm.o ../lib/libgnu.a
 
минимально под Pentium IV/AMD64 - ключ -msse2.

Отправлено: 18:26 26-12-2012
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Victor_VG
Да. Действительно волшебный ключ. Я пробовал даже еще более магический "-s" (он же --strip), про который Вы не упомянули.
Называется "найди 10 отличий"
Это весит 4,2 MB (1,3 MB Wget + 1,7 MB OpenSSl + 1 MB iconv)

Код:
 
Compile: gcc -DHAVE_CONFIG_H -DSYSTEM_WGETRC="/usr/local/etc/wgetrc" -DLOCALEDIR="/usr/local/share/locale" -I. -I../lib -I../lib -I/usr/local/include -I/usr/local/ssl/include -Os  
Link: gcc -Os -static /usr/local/lib/libiconv.dll.a -L/usr/local/lib -lintl /usr/local/lib/libiconv.dll.a -L/usr/local/lib /usr/local/ssl/lib/libssl.a /usr/local/ssl/lib/libcrypto.a -lz -lws2_32 -lgdi32 -lidn ftp-opie.o mswindows.o openssl.o  http-ntlm.o ../lib/libgnu.a  
 

А это - 1,5 MB

Код:
 
Compile: gcc -DHAVE_CONFIG_H -DSYSTEM_WGETRC="." -DLOCALEDIR="." -I. -I../lib -I../lib -Os -msse2 -mfpmath=sse  
Link: gcc -Os -msse2 -mfpmath=sse -Wl,-s -lssl -lcrypto -lws2_32 -lgdi32 -lidn -lpcre -lintl -liconv -ldl -lz -lxtraposix ftp-opie.o mswindows.o openssl.o http-ntlm.o ../lib/libgnu.a
 

Буду пробовать с SSE и искать libxtraposix libdl... Хотя при чем здесь они...
PS. Прошу прощения за тон. Ну не могу я понять, что делаю неправильно...

Всего записей: 1537 | Зарегистр. 07-08-2002 | Отправлено: 19:36 26-12-2012 | Исправлено: Alex_Piggy, 19:40 26-12-2012
Victor_VG

Редактировать | Цитировать | Сообщить модератору
Alex_Piggy
 
Ответ простейший - UPX 3.08 с опцией --ultra-brute. Про то, что код можно упаковать мы и забыли. Без этого собранный с -Os бинарник  имеет размер примерно 1,5 МБ. Ведь при просмотре как текста в заголовке бинарника записи .UPX1 и .UPX2 и 3.08 UPX! видны даже в Блокноте, и должны были сразу привлечь наше внимание, а мы на них и не взглянули. Оба хороши.

Отправлено: 22:33 26-12-2012 | Исправлено: Victor_VG, 22:36 26-12-2012
DimitriusXZ

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
[/q]

Цитата:
 

[q]Добрый день, DimitriusXZ  
Какая версия? Это стабильно (в смысле, каждый докачаный файл битый)? Вы можете какое-то время посохранять логи ( "-d -a log.txt")? Если постоянно бьется какой-то файл, можете дать ссылку на него?  
Попробуйте опцию "--no-cache"... И ключ "-N" , на случай если файл меняется на сайте.  
PS. Скачивал файл 3,5 МБ версией 1.14, через каждые пару процентов обрывая - MD5 совпало.  
PPS. Восстановить файл - если у кого-то есть доступ к полному файлу, то Zidrav или RSC32. Если есть торрент - то через торрент (не получится, если смещение). Если сайт поддерживает rsync, то через него.

 
Версия 1.11.4 из Vwget 2.4a1.     
Раньше была 1.11 из WinWGet.
Обе имеют этот недостаток.
Это случается при возобновлении прерванной закачки.
Не всегда, но довольно часто.
Опцию -с (--continue) использую.
Часто это было на sourceforge.net и ftp.yandex.ru. Ну и другие также.
Логи постараюсь сохранить.

Всего записей: 458 | Зарегистр. 17-01-2010 | Отправлено: 15:02 27-12-2012
Victor_VG

Редактировать | Цитировать | Сообщить модератору
DimitriusXZ
 
С обоих серверов докачка поддерживается. Тут возможно у Вас в канале связи что-то сбоит. Попробуйте другими инструментами - если в них ошибка воспроизводится, то стоит проверить сеть. В первую очередь контакты - это 99% всех неисправностей.

Отправлено: 16:20 27-12-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Сохранено: 09.06.2016 19:44:51 (c) xForumSaver