WebSite Watcher

Форум Сообщества Практиков Конкурентной разведки (СПКР)

Конкурентная разведка, Бизнес-разведка, Корпоративная разведка,
Деловая разведка по открытым источникам в бизнесе.
Работаем строго в рамках закона.

Дезинформация и активные мероприятия в бизнесе
Форум Сообщества Практиков Конкурентной разведки (СПКР) »   Софт для конкурентной разведки »   WebSite Watcher
RSS

WebSite Watcher

Всё, что связано с программой WebSite Watcher

<<Назад  Вперед>>Страницы: 1 2 3 4 * 5 6
Печать
 
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009
Поместил в старт-топик прямые ссылки на файлы справки к программе.

Здесь продублирую для тех, кому лень переходить на первую страничку :smile:

Русский help-файл для WebSite-Watcher

Manual на русском (PDF)
SkyAn
Молчун

Всего сообщений: 5
Рейтинг пользователя: 0


Ссылка


Дата регистрации на форуме:
5 мая 2015
Можете подсказать, как организовать при анализе (скачивании) сайта фильтрацию. Тоесть, ссылки с pdf сбрасывать в под папку PDF, а ссылки с рисунками в под папку Image
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009
Вы неясно описали задачу. Процитирую оба Ваши сообщения из двух веток форума:

SkyAn написал:
[q]
помогите выбрать программу для слежением изменений на сайтах конкурентов. Нужно всего немного от программы, получить список страниц сайта, следить за изменениями на них и по возможности фильтровать картинки и pdf с сайта по под папкам.

как организовать при анализе (скачивании) сайта фильтрацию. Тоесть, ссылки с pdf сбрасывать в под папку PDF, а ссылки с рисунками в под папку Image
[/q]

Если я правильно понял:
1. Есть некий сайт.
2. На страницах сайта есть ссылки на PDF-файлы и есть ссылки на рисунки. (Возможно, также потребуется уточнить техническую деталь: рисунки отображаются на странице, или на них есть только ссылки?)
Дальше ничего не понятно...

Уточните, пожалуйста, что Вам требуется от программы:
-- Анализировать сайт? Или скачивать? Если скачивать, то весь сайт или только отдельные файлы? Что следует понимать под "анализом" сайта?
-- Какие конкретно действия/результаты Вы имеете ввиду под словом "фильтрация"?
-- Как следует понимать фразу "сбрасывать ссылки"? В каком виде Вы хотели бы получить результат?
-- О каких "папках" идёт речь: о папках на жёстком диске или о папках WebSite Watcher?
-- Зачем именно раскладывать PDF и рисунки по подпапкам? Не достаточно будет того, что файлы имеют разное расширение?

Опишите подробно, по шагам, что должна для Вас делать программа (как если бы Вы делали то же самое, но вручную).
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009
Один из участников форума задал мне вопрос:
[q]
Не могу поставить на мониторинг страничку из контактов. Есть которые ставятся, а есть которые нет. В чем загвоздка?
[/q]


Поскольку ситуация довольно распространённая, а решается разными способами, я отвечу в этой ветке, чтобы мой ответ увидели другие читатели форума и знали, как поступать в таких случаях.

Причина проблемы чаще всего кроется в настройках доступности страничек ВК. Некоторые пользователи ВК открывают свои странички для всех Интернет-пользователей, другие пользователи закрывают их от незарегистрированных пользователей ВК, или открывают их только для друзей. То же самое относится и к другим ресурсам с ограниченным доступом, например, к форумам.

Когда пользователь заходит в ВК через обычный браузер, то авторизуется (возможно автоматически) и видит всё, что ему доступно - открытые странички, страницы друзей. Когда WSW заходит в ВК, то он не авторизован. Он видит только то, что доступно обычному не авторизованному посетителю, то есть только те странички, которые открыты для всех пользователей Интернета.

Чтобы решить эту проблему, нужно научить WebSite Watcher автоматически авторизовываться на ресурсах с ограниченным доступом.
Программа поддерживает сразу несколько видов авторизации.

Способ 1. Cookies. Это, пожалуй, самый быстрый способ авторизации.
Наверное, Вы замечали, что на некоторых сайтах достаточно авторизоваться один раз, а при следующих заходах сайт уже не требует ввода логина-пароля, а сразу пропускает пользователя. Причина кроется в Cookies - небольших файлах, которые сайт сохраняет на компьютере пользователя, и которые содержат некий код идентификации. При каждом следующем заходе сайт просто находит нужный ему файл Cookies, считывает из него код, и, если код правильный, то пропускает пользователя без необходимости ввода пароля.
WebSite Watcher может хранить в себе такие файлы Cookies, либо считывать их из Internet Explorer. Способ работы с Cookies выбирается в настройках закладки "Дополнительно / Опции проверки (2) / Cookies".

Способ 2. Авторизация сервера.
Иногда, когда Вы заходите на сайт, он выводит специальное окошко с 2 полями, в которые нужно ввести пару логин-пароль. Для авторизации такого типа в WebSite Watcher есть специальная настройка "Дополнительно / Login / Авторизация сервера". Просто введите логин и пароль в программе, и WSW будет сам подставлять их в поля формы авторизации.

Способ 3. Макрос. Некоторые сайты, вроде нашего форума, имеют сложный механизм Cookies-авторизации. Однажды сохранённые Cookies не сработают при следующей авторизации. Для подобных сложных случаев в программе предусмотрена авторизация через макрос.
Макрос записывает действия пользователя, которые он совершает при входе на сайт (ввод текста в поля, нажатия кнопок и т.д.), а при проверке закладки автоматически воспроизводит все эти действия. Несмотря на большое удобство этого способа, всё же у него есть недостаток - программа делает довольно большие паузы между действиями, в результате такие закладки проверяются чрезвычайно медленно.
Макрос можно записать в свойствах закладки двумя способами: "Общие / Check Macro..." или "Дополнительно / Login / Check Macro...".

Способ 4. Referrer. Есть такие странички, которые невозможно посмотреть по прямой ссылке. Они доступны только если запрос перенаправлен с другого сайта. WebSite Watcher поддерживает такие перенаправления. В свойствах закладки нужно ввести URL-адрес сайта, с которого осуществляется перенаправление в "Дополнительно / Опции проверки (2) / Referrer".

Способ 5. GET / POST. Этот способ для продвинутых пользователей. Если Вы представляете, как страничка в браузере общается с Интернет-сервером, то можете прописать, какие именно запросы можно отправить серверу в форме GET или POST.


Для авторизации в ВК подойдёт Способ 1.
Откройте ВК в Internet Explorer, авторизуйтесь и импортируйте Cookies.
Либо откройте мини-браузер WebSite Watcher, зайдите в ВК, авторизуйтесь, перейдите на вкладку "Cookies" и скопируйте её содержимое в настройки закладки.
Один и тот же Cookies используйте для всех закладок к ВК.
SkyAn
Молчун

Всего сообщений: 5
Рейтинг пользователя: 0


Ссылка


Дата регистрации на форуме:
5 мая 2015
[q=tungus1973]Если я правильно понял:
1. Есть некий сайт.
2. На страницах сайта есть ссылки на PDF-файлы и есть ссылки на рисунки. (Возможно, также потребуется уточнить техническую деталь: рисунки отображаются на странице, или на них есть только ссылки?)
Дальше ничего не понятно...

Уточните, пожалуйста, что Вам требуется от программы:
-- Анализировать сайт? Или скачивать? Если скачивать, то весь сайт или только отдельные файлы? Что следует понимать под "анализом" сайта?
-- Какие конкретно действия/результаты Вы имеете ввиду под словом "фильтрация"?
-- Как следует понимать фразу "сбрасывать ссылки"? В каком виде Вы хотели бы получить результат?
-- О каких "папках" идёт речь: о папках на жёстком диске или о папках WebSite Watcher?
-- Зачем именно раскладывать PDF и рисунки по подпапкам? Не достаточно будет того, что файлы имеют разное расширение?

Опишите подробно, по шагам, что должна для Вас делать программа (как если бы Вы делали то же самое, но вручную). [/q]

Извините за долгий ответ. Думал, что это будет разовая работа, но ошибся. Опишу более подробно, что требуется.
Есть список сайтов конкурентов, за которыми хотелось наблюдать. Все эти сайты разделены на условные подгруппы, это для внутреннего понимания. Так вот, руководство хочет отслеживать изменения каждую неделю. Это я сделал. Получилось очень большое количество ссылок с каждого сайта (~2000стр), часть с них, это картинки, часть pdf, некоторые это архивы. А так же большое количество мусорных страниц, которые нас не интересуют, от них я избавился через "Отслеживание ссылок" и там добавил исключения (не знаю правильно ли). Для картинок, pdf и архивов я создал виртуальные папки и отсортировал имеющиеся ссылки по определенным признакам. Но при этом они все остались в основной папке. В таком виде легче воспринимать информацию.

Что хотелось бы получить на выходе.
- Фильтрация по типу ссылок. Частично сделал с помощью виртуальных папок.
- Сделать заготовку, когда добавляется новый сайт, то сразу создаются виртуальные папки с условиями фильтрации (тип, PDF, img, zip)
- Возможность пакетно редактировать условия фильтрации для виртуальных папок.
- Возможность совместной работы с базой. Или как-то по другому информировать об обновлениях.
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009

SkyAn написал:
[q]
А так же большое количество мусорных страниц, которые нас не интересуют, от них я избавился через "Отслеживание ссылок" и там добавил исключения (не знаю правильно ли)
[/q]
Есть такой способ. Должен работать.
А почему вы сомневаетесь в его правильности?
SkyAn
Молчун

Всего сообщений: 5
Рейтинг пользователя: 0


Ссылка


Дата регистрации на форуме:
5 мая 2015
[q]А почему вы сомневаетесь в его правильности? [/q]
Ну может это делается по другому. Мануал не осилил прочитать)))))
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009

SkyAn написал:
[q]
Что хотелось бы получить на выходе.
1. Фильтрация по типу ссылок. Частично сделал с помощью виртуальных папок.
2. Сделать заготовку, когда добавляется новый сайт, то сразу создаются виртуальные папки с условиями фильтрации (тип, PDF, img, zip)
3. Возможность пакетно редактировать условия фильтрации для виртуальных папок.
4. Возможность совместной работы с базой. Или как-то по другому информировать об обновлениях.
[/q]
Отвечу по пунктам:

1. Почему частично? Правила виртуальных папок настраиваются довольно гибко. Например, можно использовать правило "проверяемый url содержит текст "pdf" ". Все PDF-файлы будут попадать в эту виртуальную папку. Вторым правилом можно указать название сайта, чтобы файлы с разных сайтов попадали в разные папки.

2. К сожалению это невозможно в последней версии WSW. Папки можно создавать только вручную и задавать их свойства тоже только вручную.

3. Этого в программе тоже нет. Нельзя даже просто скопипастить правила попадания в папку.

4. Для информирования об обновлениях можно сделать рассылку отчётов с обновлениями. Есть ещё запуск программ с параметрами, но этот способ для умельцев создавать собственный софт.
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009
Сегодня выпущен WebSite-Watcher версии 2016.0.

Из нового:
  • Значительно увеличена скорость проверки закладок.
  • Теперь можно делать подсветку ключевых слов разными цветами.
  • Можно ограничить размер письма, пересылаемого WSW.
  • В отчётах об обновлениях можно указывать доменное имя закладки, а также способы сортировки закладок - по URL или по домену.
  • При мониторинге RSS-потоков теперь можно игнорировать статьи, получая только заголовки, даты публикации и т.п. Также поддерживаются нестандартные форматы RSS.
  • Можно регулировать максимальное количество соединений по протоколу HTTPS.
  • В плагинах появилась новая функция DecodeHtmlChars, которая декодирует HTML символы, вроде &nbsp; или &#250
  • В свойствах закладки появилась новая секция тонких настроек "Tweaks", которая сейчас позволяет изменить язык пользователя в HTTP-заголовках, например, чтобы видеть новости Google так, как их видят немцы, а не как их подсовывает поисковик гражданам других стран.
  • Во встроенном браузере теперь можно откатывать изменения.
  • Поддерживаются изображения SVG.
  • В Local Website Archive теперь можно добавлять лог-файлы.
  • В виртуальных папках теперь можно присваивать цветные флажки и выбирать цвет подсветки изменений черный/красный.
  • В Автофильтрах можно удалять отдельные строки.
  • Через Макросы теперь можно обрабатывать каптчи типа "Я не робот".
  • В экспорте/импорте закладок через Excel теперь можно переносить время для опции "Проверять каждые Х дней".
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009
Вышла первая бета-версия WebSite-Watcher 2017.0

Из нового:
  • Возможность запуска на одном компьютере нескольких экземпляров программы. Первой устанавливается настольная версия, потом можно установить в разные папки несколько портабельных версий с тем же самым ключом.
  • Синхронизация баз закладок с облачными хранилищами или с локальной/сетевой папкой. То есть, становится возможным работать с одной и той же базой на разных компьютерах (на рабочем, домашнем, ноутбуке). Эта же функциональность поддерживается на уровне скриптов.
  • Действия при обновлении - пересылка содержимого через e-mail. Теперь программа создаёт вложение в виде zip-файла, в который вкладывает HTML, картинки и scc-файлы.
  • При мониторинге RSS-лент теперь есть возможность получать изображения. Если RSS-канал имеет ошибки кода, то программа сама исправляет многие из них.
  • Для User Agent теперь можно просто подставить переменные {chrome} или {firefox}, а программа сама подставит правильные значения.
  • Появилась возможность проверять доступность отслеживаемого сервера через пинг.
  • Можно отменить отправку сообщения.
  • Если возникают ошибки выполнения сценария, то они отображаются в главном окне программы, например, если не найдена целевая папка.
  • Улучшена фильтрация контента через CSS.
  • Для плагинов теперь появилась специальная команда, которая удаляет дубликаты из строковых списков.
  • В мини-браузере появилась команда остановки выполнения макроса.
  • Улучшена подсветка ключевых слов на вкладке "Анализ".
  • Улучшена совместимость с Win10 / IE11.
  • Улучшена производительность проверки закладок. Существенно возросла скорость проверки закладок.
<<Назад  Вперед>>Страницы: 1 2 3 4 * 5 6
Печать
Форум Сообщества Практиков Конкурентной разведки (СПКР) »   Софт для конкурентной разведки »   WebSite Watcher
RSS

Последние RSS
Англоязычный интерфейс программы "Сайт Спутник"
Учебник по конкурентной разведке
Конкурентная разведка: маркетинг рисков и возможностей
Книга "История частной разведки США"
Книга "Нетворкинг для разведчиков"
Поиск и сбор информации в интернете в программе СайтСпутник
Новые видеоуроки по программе СайтСпутник для начинающих
Технологическая разведка
SiteSputnik. Мониторинг Телеграм
СайтСпутник: возврат к ранее установленной версии
SiteSputnik. Доступ к результатам работы из браузера
Анализ URL
Браузер для анонимной работы
Топливно-энергетический комплекс
Профессиональные сообщества СБ
Несколько Проектов в одном, выполнение Проектов по частям
SiteSputnik-Bot: Боты в программе СайтСпутник
К вопросу о телеграм
SiteSputnik: Автозамены до и после Рубрикации или Перевода
Демо-доступ к ИАС социальных сетей

Самые активные 20 тем RSS