04.12.2006, 09:46
общий
это ответ
Здравствуйте, Цельм Сергей!
Ну если говорить более точно, то вот как лучше:
Сначала надо проверить несколько ссылок. Возможны следующие варианты.
1. Есть оглавления ведущие на одну страницу (или 2-3). Они оформленны в виде закладок. т.е.
1 ссылка xxxxxx.html#yyy
2 ссылка xxxxxx.html#rrrr
...
тогда достаточно открыть страницу xxxxxx.html и сохранить (сделать аналогично для пары других)
2. Если каждая ссылка ведет на свою страницу (...мерзость...), то надо прибегать к помощи автоматики.
2.1. Если по ссылками нет картинок. То я рекомендую брать RegetDelux. Если он установлен с интеграцией (поумолчанию), то можно щелкнуть правой кнопкой мыши и выбрать Download All... и задать папку куда. Этот метод очень быстрый! Кроме того если есть явная закономерность в ссылках и названиях то можно написать мелкую прогу для генерации ссылок и скормить ее Reget`у. Так можно целый сайт скачать. Но с катринками тут напряги.
2.2. Если по ссылкам есть картинки. A) То тут как ни крути надо качалку использовать. (см выше). Мне вот TeleportPro нравится. Там есть опция вложенности. Ставьте 1-2(зависит от программы). И он перекачает все с картинками. НО ЭТОТ МЕТОД ТОРМОЗНОЙ+БОЛЬШОЙ ОБЪЕМ ТРАФИКА (т.к. куча банеров и рекламы перекачивается). Создается сложная многофайловая структура на диске.
B) Если честно, то мне этот метод мало нравится. На объемах в 30 ссылок проще действовать вручную. Берете открываете N окон, ждете пока загрузятся. Потом все сохраняете. Закрываете еще N окон.
А вот если оглавление разбито по страницам... то тут лучше про вариант 2.2.a сразу забыть. ибо тогда надо увеличивать уровень вложенности. А это значит, почти, качать весь сайт! Надо строить систему правил...
хорошо что для FAQ свойственен метод 1.