Форум Сообщества Практиков Конкурентной разведки (СПКР) » Технологии работы и инструменты конкурентной разведки » Google для КР (перечитывая книгу Дж. Лонга) |
![]() |
| <<Назад Вперед>> | Страницы: 1 * 2 3 4 | Печать |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:05 Сообщение отредактировано: 7 ноября 2012 23:14
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий веб-сервера (привет Андрею Масаловичу )Для того чтобы обнаружить такие страницы в первом приближении, нужно добавить в запрос "intitle:index.of" (точка - это любой символ согласно поисковому языку гугла) Так как этот запрос дает много информационного шума, предлагаются более точные запросы, в которых указываются служебные заголовки, часто встречающиеся на таких страницах 1) intitle:index.of “parent directory” 2) intitle:index.of name size Так как часто интересует доступность оглавления конкретной директории на веб-сервере, то нужно добавить ее имя в запрос. Например, для поиска оглавлений директории admin рекомендуются запросы: 1)intitle:index.of.admin 2) intitle:index.of inurl:admin Иногда интересует возможность доступа к конкретному файлу через оглавление. В таких случаях предлагаются добавить имя файла. Например, для поиска ws_ftp.log предлагается запрос intitle:index.of ws_ftp.log Далее дается понятие о пересечении директорий (directory traversal) и описываются его виды. В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible). |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:30 Сообщение отредактировано: 7 ноября 2012 23:36
В четвертой главе описывается, как искать файлы тех или иных типов с помощью операторов filetype: и inurl: Например, для поиска конфигурационных файлов предлагается запрос "inurl:conf OR inurl:config OR inurl:cfg" Для уменьшения информационного шума предлагается все та же техника редукции результатов поиска с помощью уточнений и/или запретов выдачи страниц с определенными словами. Для удобства приводятся большие таблицы с запросами для поиска распространенных конгфигурационных файлов и файлов журналов популярных программ. Потом автор переходит к более интересному вопросу - поиску офисных документов (Word, Excel и т.д.) Хотя примитивный запрос вроде "inurl:xls OR inurl:doc OR inurl:mdb" не сильно эффективен (можно использовать как альтернативу оператор filetype), его как всегда можно улучшить, добавив требования к наличию конкретных слов в тексте документа (например, password). Интересным примером запроса является "filetype:xls username password email" Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
|
| CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 6036 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Vinni написал: Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси. по-моему, уже нельзя ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:47 Сообщение отредактировано: 7 ноября 2012 23:49
Далее в четвертой главе идет описание технологий поиска информации, интересной для тестирования на проникновение, но не для КР Но затем начинается описание простых скриптов на Perl для автоматизации анализа информации.Сначала описывается задача поиска всех адресов электронной почты в каком-то домене и для начала приводится скрипт для выделения из файла (полученного в резльтате поиска) адресов электронной почты с помощью регулярного выражения
Другое регулярное выражение позволит найти URL в файле
и полезно для автоматизации выделения ссылок из результатов поисковой выдачи Потом упоминается Google Desktop для поиска среди локальных файлов, найденных в результате поиска (привет Яндекс Десктопу ) |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 8 ноября 2012 0:13 Сообщение отредактировано: 8 ноября 2012 0:37
Пятая глава развивает тему автоматизации поиска и анализа его результатов... Сначала выдвигается тезис о том, что поиск, как правило, состоит из следующих шагов (далее мой вольный перевод ):
и подробно описывается каждый шаг Шаг уточнения поискового запроса рассматривается сначала на примере получения списка адресов e-mail какого-то домена. При этом приводится список типовых модификаций e-mail для защиты от спама и способы проверки валидности выделенного адреса e-mail. Потом рассматриваются случаи поиска телефонных номеров и людей по ФИО. Для уменьшения числа результатов поиска предлагается оператор site: Шаг получения страниц с данными с сайтов начинается с вдумчивого разбора структуры URL поискового запроса в Гугле и рассмотрения всевозможных простых вариантов утилит вместо веб-браузера для получения результатов поисковой выдачи - netcat, lynx, curl и wget. Анализ тегов страницы с поисковой выдачей производится с помощью FireBug (плагина Firefox). С его помощью выявляются строки с тегами, обрамляющие сниппеты на странице с поисковой выдачей. После этого описывается скрипт на perl, вызывающий curl для получения этой страницы и выделяющий с помощью найденных строк с тегами сниппеты Потом скрипт усложняется и из сниппета выделяются заголовок страницы, ее URL и собственно цитата из текста, приведенная в сниппете |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Затем рассматривается шаг парсинга результатов. Сначала описывается выделение из текста возможных вариантов написания e-mail и приведение их к каноническому виду с помощью регулярных выражений. Потом описываются возможные варианты написания телефонных номеров. Далее описываются примитивные варианты пост-обработки сниппетов как таковых или целых страниц. В частности, описывается сортировка страниц по релевантности. Приводится пример определения релевантности как нахождения на странице адресов e-mail, максимально похожих на ФИО человека, который ищется (для России надо будет использовать английский аналог ФИО ). Похожесть строк определяется как число совпадающих триграмм Далее кратко описывается предтеча Maltego система Evolution. Для повышения интереса приводится пример (с обезличенными данными) о том, как вычислить сотрудников одной из спецслужб (т.н агентства с именами из трех букв). Для начала ищутся телефонные номера на сайтах в домене xxx.gov. Потом берется строка с кодом города и АТС (исходя из предположения, что офисы агентства могут занимать почти всю номерную емкость АТС), которые упоминается в номерах и ищутся адреса e-mail, тел. номера и названия городов, находящиеся на тех же страницах, что и эта строка, в надежде на то, что кто-то из сотрудников указал свой личный email вместе со служебным номером телефона. И такой человек находится Номер телефона указан как номер теннисного клуба, но он подозрительно похож на номера офиса агентства.Другим примером является поиск Word-документов на сайтах какого-то агентства, выделение из их метаданных имени автора и поиск по этому имени профиля на LinkedIn. Для автоматизации далее приводится скрипт на Perl для получения метаданных офисного документа по ссылке на него и еще один, который посылает в Гугл запрос на офисные документы на сайтах определенного домена, и вызывает первый скрипт для автоматического получения метаданных для каждой из найденных ссылок |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Потом рассматривается вариант более сложного анализа (тоже с помощью EVOLUTION - все делается с его помощью) - установление связей между людьми (на примере их адресов e-mail) Для этого предлагается сначала найти для каждого из этих адресов e-mail все страницы с их упоминанием и выделить из них адреса веб-сайтов, email и номера телефонов,а потом сравнить результаты, чтобы выявить общее в них. Если совпадений нет, то берется каждый элемент результатов, полученных на первом шаге (адрес email и т.д.) для первого и второго email и для него делается то же самое, а затем снова ищется сходство между результатами и так до победного конца ...Шестая глава для нас неинтересна, поэтому опустим ее |
| CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 6036 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Уважаемый Vinni, ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
| Николаич
Модератор форума
Откуда: г. Ростов-на-Дону Всего сообщений: 1007 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Присоединяюсь! |
| Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1258 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Спасибо! ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
| <<Назад Вперед>> | Страницы: 1 * 2 3 4 | Печать |
Форум Сообщества Практиков Конкурентной разведки (СПКР) » Технологии работы и инструменты конкурентной разведки » Google для КР (перечитывая книгу Дж. Лонга) |
![]() |
| Самые активные 20 тем |
![]() |