Google для КР (перечитывая книгу Дж. Лонга)

Форум Сообщества Практиков Конкурентной разведки (СПКР)

Конкурентная разведка, Бизнес-разведка, Корпоративная разведка,
Деловая разведка по открытым источникам в бизнесе.
Работаем строго в рамках закона.

Дезинформация и активные мероприятия в бизнесе
Форум Сообщества Практиков Конкурентной разведки (СПКР) »   Технологии работы и инструменты конкурентной разведки »   Google для КР (перечитывая книгу Дж. Лонга)
RSS

Google для КР (перечитывая книгу Дж. Лонга)

<<Назад  Вперед>>Страницы: 1 2 3 4
Печать
 
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Думаю, что многим на этом форуме известна книга "Google Hacking for Penetration Testers, Volume 2" (именно второе издание - Volume 2! )

Если перечитать ее с точки зрения советов, полезных для сбора информации об организациях, с помощью Гугла, то получается не так уж и много :wonder1:

Первые две ее главы являются просто введением в поисковый язык Google и его операторы.
Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.

[q]

Если страница, которую Вы хотите посмотреть, не требует перевода, Вы можете использовать сервис перевода как прокси, модифицировав переменную hl в URL, чтобы она соответствовала родному языку этой страницы. Только учтите, что с помощью прокси такого рода нельзя получить изображения.
[/q]


И только с третьей главы начинается интересное :wink:
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Там рассматривается анонимный доступ к нужным сайтам с помощью кэша Гугла (ссылки cached или "Сохраненная копия" для результатов поисковой выдачи).
Автор даже запускает сниффер и смотрит, куда будут обращения при просмотре кэшированной страницы на его машине.
Увы, при этом обнаруживается, что к интересующему сайту таки будут обращения за графическими файлами, на которые есть ссылка на странице (я сам регулярно вижу такие обращения в логах своего корпоративного внешнего веб-сервера). :sad:
Но не все потеряно - оказывается на заголовке кэшированной страницы сверху есть ссылка "Текстовая версия" и при ее просмотре никаких обращений к сайту не происходит.
Чтобы напрямую получить ссылку на текстовую версию кэшированной страницы достаточно добавить в конце URL кэшированной страницы &strip=1 :wink:





Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий веб-сервера (привет Андрею Масаловичу :preved: )
Для того чтобы обнаружить такие страницы в первом приближении, нужно добавить в запрос "intitle:index.of" (точка - это любой символ согласно поисковому языку гугла)
Так как этот запрос дает много информационного шума, предлагаются более точные запросы, в которых указываются служебные заголовки, часто встречающиеся на таких страницах
1) intitle:index.of “parent directory”
2) intitle:index.of name size

Так как часто интересует доступность оглавления конкретной директории на веб-сервере, то нужно добавить ее имя в запрос. Например, для поиска оглавлений директории admin рекомендуются запросы:
1)intitle:index.of.admin
2) intitle:index.of inurl:admin

Иногда интересует возможность доступа к конкретному файлу через оглавление. В таких случаях предлагаются добавить имя файла. Например, для поиска ws_ftp.log предлагается запрос intitle:index.of ws_ftp.log

Далее дается понятие о пересечении директорий (directory traversal) и описываются его виды.
В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible).
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
В четвертой главе описывается, как искать файлы тех или иных типов с помощью операторов filetype: и inurl:
Например, для поиска конфигурационных файлов предлагается запрос "inurl:conf OR inurl:config OR inurl:cfg"
Для уменьшения информационного шума предлагается все та же техника редукции результатов поиска с помощью уточнений и/или запретов выдачи страниц с определенными словами.
Для удобства приводятся большие таблицы с запросами для поиска распространенных конгфигурационных файлов и файлов журналов популярных программ.

Потом автор переходит к более интересному вопросу - поиску офисных документов (Word, Excel и т.д.)
Хотя примитивный запрос вроде "inurl:xls OR inurl:doc OR inurl:mdb" не сильно эффективен (можно использовать как альтернативу оператор filetype), его как всегда можно улучшить, добавив требования к наличию конкретных слов в тексте документа (например, password). Интересным примером запроса является "filetype:xls username password email" :crazy:

Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:

[q]

filetype:xls username password email - пароли
filetype:xls inurl:”password.xls” - пароли
filetype:xls private приватные данные (на русском видимо стоит добавить слова "Конфиденциально" или "Коммерческая тайна")(используйте как базовый поиск)
Inurl:admin filetype:xls административные данные
filetype:xls inurl:contact - контактная информация, адреса e-mail
filetype:xls inurl:”email.xls” адреса E-mail, имена
allinurl: admin mdb административные бд
filetype:mdb inurl:users.mdb списки пользователей, адреса e-mail
Inurl:email filetype:mdb списки пользователей, адреса e-mail
Data filetype:mdb различные данные (используйте как базовый поиск)
Inurl:backup filetype:mdb архивные копии бд
Inurl:profiles filetype:mdb профили пользователей
Inurl:*db filetype:mdb различные данные (используйте как базовый поиск)
[/q]



CI-KP
Администратор

Откуда: Екатеринбург
Всего сообщений: 5563
Рейтинг пользователя: 24


Ссылка


Дата регистрации на форуме:
15 мая 2009

Vinni написал:
[q]
Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.
[/q]

по-моему, уже нельзя

---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru
Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь.
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Далее в четвертой главе идет описание технологий поиска информации, интересной для тестирования на проникновение, но не для КР :wonder1:

Но затем начинается описание простых скриптов на Perl :preved: для автоматизации анализа информации.
Сначала описывается задача поиска всех адресов электронной почты в каком-то домене и для начала приводится скрипт для выделения из файла (полученного в резльтате поиска) адресов электронной почты с помощью регулярного выражения
[q]

[a-zA-Z0-9._-]+@(([a-zA-Z0-9_-]{2,99}\.)+[a-zA-Z]{2,4})|((25[0-5]|2[0-
4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-
4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9]))
[/q]


Другое регулярное выражение позволит найти URL в файле

[q]

[a-zA-Z]{3,4}[sS]?://((([\w\d\-]+\.)+[ a-zA-Z]{2,4})|((25[0-5]|2[0-4]\d|1\d\d|[1-
9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-
9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])))((\?|/)[\w/=+#_~&:;%\-\?\.]*)*
[/q]


и полезно для автоматизации выделения ссылок из результатов поисковой выдачи

Потом упоминается Google Desktop для поиска среди локальных файлов, найденных в результате поиска (привет Яндекс Десктопу :preved: )
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Пятая глава развивает тему автоматизации поиска и анализа его результатов...
Сначала выдвигается тезис о том, что поиск, как правило, состоит из следующих шагов (далее мой вольный перевод :blush: ):
[q]

■ составить базовый поисковый запрос
■ уточнить его
■ получить страницы с данными с сайтов
■ произвести их синтаксический разбор и выделить нужные элементы
■ произвести их пост-обработку для получения интересующей информации
[/q]

и подробно описывается каждый шаг

Шаг уточнения поискового запроса рассматривается сначала на примере получения списка адресов e-mail какого-то домена.
При этом приводится список типовых модификаций e-mail для защиты от спама и способы проверки валидности выделенного адреса e-mail.
Потом рассматриваются случаи поиска телефонных номеров и людей по ФИО.
Для уменьшения числа результатов поиска предлагается оператор site:

Шаг получения страниц с данными с сайтов начинается с вдумчивого разбора структуры URL поискового запроса в Гугле и рассмотрения всевозможных простых вариантов утилит вместо веб-браузера для получения результатов поисковой выдачи - netcat, lynx, curl и wget.
Анализ тегов страницы с поисковой выдачей производится с помощью FireBug (плагина Firefox). С его помощью выявляются строки с тегами, обрамляющие сниппеты на странице с поисковой выдачей.
После этого описывается скрипт на perl, вызывающий curl для получения этой страницы и выделяющий с помощью найденных строк с тегами сниппеты :wink:

Потом скрипт усложняется и из сниппета выделяются заголовок страницы, ее URL и собственно цитата из текста, приведенная в сниппете
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Затем рассматривается шаг парсинга результатов.
Сначала описывается выделение из текста возможных вариантов написания e-mail и приведение их к каноническому виду с помощью регулярных выражений.
Потом описываются возможные варианты написания телефонных номеров.

Далее описываются примитивные варианты пост-обработки сниппетов как таковых или целых страниц.
В частности, описывается сортировка страниц по релевантности. Приводится пример определения релевантности как нахождения на странице адресов e-mail, максимально похожих на ФИО человека, который ищется (для России надо будет использовать английский аналог ФИО ). Похожесть строк определяется как число совпадающих триграмм :crazy:

Далее кратко описывается предтеча Maltego :preved: система Evolution.

Для повышения интереса приводится пример (с обезличенными данными) о том, как вычислить сотрудников одной из спецслужб (т.н агентства с именами из трех букв).
Для начала ищутся телефонные номера на сайтах в домене xxx.gov. Потом берется строка с кодом города и АТС (исходя из предположения, что офисы агентства могут занимать почти всю номерную емкость АТС), которые упоминается в номерах и ищутся адреса e-mail, тел. номера и названия городов, находящиеся на тех же страницах, что и эта строка, в надежде на то, что кто-то из сотрудников указал свой личный email вместе со служебным номером телефона.
И такой человек находится :facepalm: Номер телефона указан как номер теннисного клуба, но он подозрительно похож на номера офиса агентства.

Другим примером является поиск Word-документов на сайтах какого-то агентства, выделение из их метаданных имени автора и поиск по этому имени профиля на LinkedIn.
Для автоматизации далее приводится скрипт на Perl для получения метаданных офисного документа по ссылке на него и еще один, который посылает в Гугл запрос на офисные документы на сайтах определенного домена, и вызывает первый скрипт для автоматического получения метаданных для каждой из найденных ссылок



Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Потом рассматривается вариант более сложного анализа (тоже с помощью EVOLUTION - все делается с его помощью) - установление связей между людьми (на примере их адресов e-mail)
Для этого предлагается сначала найти для каждого из этих адресов e-mail все страницы с их упоминанием и выделить из них адреса веб-сайтов, email и номера телефонов,а потом сравнить результаты, чтобы выявить общее в них. Если совпадений нет, то берется каждый элемент результатов, полученных на первом шаге (адрес email и т.д.) для первого и второго email и для него делается то же самое, а затем снова ищется сходство между результатами :crazy: :tuktuk: и так до победного конца ...

Шестая глава для нас неинтересна, поэтому опустим ее :wink:
CI-KP
Администратор

Откуда: Екатеринбург
Всего сообщений: 5563
Рейтинг пользователя: 24


Ссылка


Дата регистрации на форуме:
15 мая 2009
Уважаемый Vinni,
:good: :good: :good:

---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru
Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь.
Николаич
Модератор форума

Откуда: г. Ростов-на-Дону
Всего сообщений: 752
Рейтинг пользователя: 24


Ссылка


Дата регистрации на форуме:
7 июня 2009
Присоединяюсь!
:good: :good: :good: :good:
Игорь Нежданов
Модератор форума
Прагматик
Откуда: Советский Союз
Всего сообщений: 1024
Рейтинг пользователя: 13


Ссылка


Дата регистрации на форуме:
7 июня 2009
Спасибо!

---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ...
Лаборатория Перспективных Разработок
fellix13
Член СПКР

Откуда: Екатеринбург
Всего сообщений: 527
Рейтинг пользователя: 10


Ссылка


Дата регистрации на форуме:
24 дек. 2010
Эх, кто тут последний покурить за углом..) :cactus3:
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Воодушевленный коллегами, попробую продолжить. :blush:
Седьмая глава называется интригующе - "десять простых поисковых запросов в области безопасности, которые работают" :wink:
Для КР интересны не все запросы, поэтому привожу ниже меньшее количество

  • site:домен.ru -site:www.домен.ru - позволяет установить какие сайты, кроме www есть в этом домене и посмотреть их страницы
  • intitle:index.of - уже описанный поиск оглавлений директорий
  • -ext:html -ext:htm -ext:shtml -ext:asp -ext:php - в сочетании с оператором site получает списко всех потенциально интересных файлов на сайте,
    кроме HTML-страниц (т.е. офисные документы и т.д.). Ее также стоит уточнять для уменьшения информационного шума.
  • inurl:temp | inurl:tmp | inurl:backup | inurl:bak - находит временные файлы и директории, а также архивные копии файлов


Кроме этого, приводятся запросы, которые могут быть интересны для последующего сбора информации с помощью социальной инженерии
(рекомендую читать другую книгу Дж. Лонга - "NoTech hacking")

Восьмая глава также посвящена поиску вещей, интересных только хакерам. :wink:
Исключение составляет только информация о том, как искать сетевое оборудование, доступное через Интернет - прежде всего веб-камеры. В главе приведена большая таблица с запросами по поиску специфических моделей оборудования.

Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Девятая глава посвящена поиску имен пользователей, их паролей и другой конфиденциальной информации. :wink:

В ней приводятся большое число примеров запросов для поиска имен пользователей. Ниже приведены самые универсальные запросы
[q]

inurl:admin inurl:userlist
inurl:admin filetype:asp inurl:userlist
[/q]


В некоторых случаях списки имен пользователей можно соборать с помощью программ статистики посещения сайтов.
Например, следующий запрос требуется для нахождения страниц Webalizer-а - +intext:webalizer +intext:”Total Usernames” +intext:”Usage Statistics for”.

Для поиска паролей также предлагается большое число запросов, ориентированных на конкретные программы.
Ниже приведены самые универсальные из них

[q]

intext:(password | passcode | pass) intext:(username | userid | user)
intitle:”Index of” passwords modified
filetype:bak inurl:”htaccess|passwd|shadow|htusers”
inurl:passlist.txt
intitle:index.of passwd passwd.bak
allinurl: admin mdb
filetype:mdb inurl:users.mdb
filetype:xls username password email
filetype:dat inurl:pass.dat
index.of passlist
filetype:dat “password.dat”
filetype:log inurl:”password.log”
ext:passwd -intext:the -sample -example
“login: *” “password= *” filetype:xls
[/q]


При этом рекомендуется помнить, что вместо английских слов в файлах могут употребляться их национальные аналоги (пароль, пользователь ти т.д.), поэтому надо и искать и их :wink:

Игорь Нежданов
Модератор форума
Прагматик
Откуда: Советский Союз
Всего сообщений: 1024
Рейтинг пользователя: 13


Ссылка


Дата регистрации на форуме:
7 июня 2009
Ждем с нетерпением.... :)

---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ...
Лаборатория Перспективных Разработок
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Кстати, для удобства приводится таблица с переводами слова пароль (password) на другие языки - французский, немецкий и т.д.

Дальше идет описание не очень интересных для КР (но интересных для хакеров) вещей - поиск номеров кредитных карт, SSN.

Говорится о том, что в последние годы все больше людей использует персональные финансовые программы (явно не в России :laugh: ) и что иногда их рабочие файлы доступны через Интернет (приводится таблица с расширениями файлов популярных персональных финансовых программ).

Наконец автор переходит к тому, как можно найти другую конфиденциальную информацию, которая может быть в весьма различных файлах. Приводится большая таблица с запросами по поиска таких файлов.
Ниже выжимка из нее с самыми интересными запросами:
[q]

intext:”Session Start * * * *:*:* *” filetype:log - журналы AIM IRC
“Index of” / “chat/logs” - логи чатов
intitle:”Index Of” cookies.txt “size” - файл cookies.txt может содержать информацию о пользователе
“phone * * *” “address *” “e-mail” intitle:”curriculum vitae” - в резюме тоже много интересной информации
intitle:index.of inbox - файлы с письмами
“:8080” “:3128” “:80” filetype:txt - файлы со спискамии HTTP Proxy
intitle:”Index of” dbconvert.exe chats -логи чатов ICQ
intitle:”Index Of” -inurl:maillog maillog size - почтовые журналы (тоже много интересной информации)
filetype:xls inurl:contact - excel-файл с контактной информацией
ext:log “Software: Microsoft Internet Information Services *.*” - журналы веб-сервера с IIS
filetype:pst inurl:”outlook.pst” - файл Microsoft Outlook (почта, календарь пользователя)
filetype:eml eml intext:”Subject” +From - файл c письмом в формет Outlook Express
inurl:/public/?Cmd=contents - публичные директории Outlook Web access

[/q]


Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Десятая глава посвящена детальному рассмотрению дополнительных сервисов Google и в-целом неинтересна для КР, за исключением отдельных моментов.

Сначала описывается Ajax API для поиска.

Потом рассказывается о Google Calendar (календаре, который может разделяться с другими) и о том, что иногда по ошибке календари делаются доступными всему интернету и их элементы (порой конфиденциальные) видны при поиске в публичных календарях.

Потом говорится о blogger.com и API для поиска в блогах и автоматического добавления в них постов. Говорится о спамерских блогах (splog-ах). Они интересны хакерам для того, чтобы без особых затрат создать привлекательную с точки зрения поисковиков страницу (и заманить туда таким образом много посетителей), а потом разместить на ней эксплойт и за счет популярности попытаться установить вредоносное ПО у большого числа ничего не подозревающих пользователей.
Сначала приводится простой пример на Python для добавления постов. Затем предлагается более интересный скрипт - чтение постов чужого блога (через RSS) и перепост их в своем блоге.

Заканчивается глава описанием Goole Alerts (уведомление по почте об изменениях в результатах поисковой выдачи по конкретному запросу) и Google Co-op (средством для создания собственных поисковых интерфейсов).


11ая глава напоминает выступления Андрея Масаловича и представляет из себя череду примеров того, какую конфиденциальную информацию можно обнаружить в Интернет с помощью Гугла (с большим количеством скриншотов):
-незащищенные веб-интерфейсы сетевых устройств и телекоммуникационного оборудования
-незащищенные административные интерфейсы форумов, баз данных и т.д.
-вебкамеры,показывающие порой очень интересные вещи
-разнообразная персональная конфиденциальная информация и пароли
-отчеты полиции, номера кредитных карт и SSN

Потом рассматривается случай сайта, у которого какое-то время была возможность просмотра оглавлений директории с информацией о сотрудниках, но потом эта директория была удалена. Увы, старая копия файла со списком сотрудников из этой директории :facepalm: осталась на сайте Веб-архива (archive.org) и была восстановлена с его помощью.


Глава 12 посвящена описанию приемов защиты своей конфиденциальной информации от Гугла.
Так как лучшая защита - это нападение, то в ней описывается Unix-программа Gooscan (находится на сайте _ttp://johnny.ihackstuff.com), написанная самим Дж. Лонгом, которая позволяет автоматизировать поиск в Гугле, но имеет только интерфейс командной строки. Также подробно рассматриваются Windows-программы - Athena (_ttp://snakeoillabs.com/) и Wikto(www.sensepost.com).

Далее описывается плагин для Firefox "Google Rower" (www.tankedgenius.com) для обхода ограничения в одну тысячу результатов поиска с помощью добавления букв в запрос (например, для запроса JeffBall5 идет поиск "Jeffball55 a", затем "Jeffball55 b", затем "Jeffball55 c" и т.д.) Еще одним средством с того же сайта является Google Site Indexer, который карту директорий и файлов сайта с помощью гугла.

Также для повышения удобства работы с операторами гугла предлагается плагин Advanced Dork (все тот же Firefox).


На этом книга заканчивается :goodbuy:
Николаич
Модератор форума

Откуда: г. Ростов-на-Дону
Всего сообщений: 752
Рейтинг пользователя: 24


Ссылка


Дата регистрации на форуме:
7 июня 2009

Vinni написал:
[q]
На этом книга заканчивается
[/q]

Тонкая книжонка, видимо, это все же брошюра :sad: :smile:
Уважаемый Vinni, спасибо! :good:
Я рискну задать вопрос - а можно ли каким-то образом осуществлять поиск в диапазоне IP-адресов?
Это к вопросу о поиске Web-камер, как-то пробовал по этой книжке, все хорошо, но далеко - Гонконг, Япония...
А как локализовать поиск так и не понял.

Еще раз спасибо!
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Увы, наверное так не получится - в поисковом языке гугла нет операторов, позволяющих ограничить поиск диапазоном IP (site позволяет ограничить поиск только определенным доменом). :wonder1:
Я бы предложил использовать доработанные скрипты из книги, и фильтровать результаты в Perl по диапазонам адресов :wink:
Elena_Larina
Модератор форума

Всего сообщений: 221
Рейтинг пользователя: 9


Ссылка


Дата регистрации на форуме:
25 нояб. 2010
Уважаемый Vinni!

Полезней, чем Малаховец, увлекательнее чем Ле Карре.
Респект. :hi:

---
Вопрос к блондинке. Какова вероятность встретить на улице динозавра? Блондинка отвечает...
Мы ищем правильных людей, а не правильные резюме
Алексей Мыльников
Долгожитель форума

Откуда: Волгоград
Всего сообщений: 877
Рейтинг пользователя: 6


Ссылка


Дата регистрации на форуме:
22 июня 2009

Vinni написал:
[q]
В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible).
[/q]

Да, это есть. Причем выполняется генерация массы вариантов, например, если ссылка:
ret-4\exhc-1.xls, то можно прописать проверку множества URL:
ret-1\exhc-1.xls,
ret-1\exhc-2.xls,
ret-1\exhc-3.xls,
...
ret-2\exhc-1.xls
,...
Подробнее в Иструкции в разделе "Поиск невидимых ссылок в окрестности видимой ссылки".

Продолжу...

Алексей Мыльников
Долгожитель форума

Откуда: Волгоград
Всего сообщений: 877
Рейтинг пользователя: 6


Ссылка


Дата регистрации на форуме:
22 июня 2009

Vinni написал:
[q]
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий
[/q]

Это тоже есть. Поиск папок открытых выполняется не только в Google, но и в Yahoo по пакету (ниже показан пакет, создаваемый автоматически по параметру "Имя сайта" (ресурса или веб-папки) для поиска открытых папок на сайте nalog.ru):

site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Yahoo=100 ^^Exit>0
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Yahoo=100 ^^Exit>0
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Yahoo=100

Сначала идет строгий поиск: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory"
Елси он ничего не нашел, то менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of"
Елси и он ничего не нашел, то ещё менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of"
Это как писал Винни в топике #4 - "редукция результата" "для уменьшения информационного шума".
Если найдутся открытые папки, то они будут открыты, выполнится проход по их вложенным папкам и найденные файлы попадут в Карту сайта. Это из варианта Invisible.

Продолжу...

Алексей Мыльников
Долгожитель форума

Откуда: Волгоград
Всего сообщений: 877
Рейтинг пользователя: 6


Ссылка


Дата регистрации на форуме:
22 июня 2009

Vinni написал:
[q]
Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
[q]

filetype:xls username password email - пароли
filetype:xls inurl:”password.xls” - пароли
filetype:xls private приватные данные (на русском видимо стоит добавить слова "Конфиденциально" или "Коммерческая тайна")(используйте как базовый поиск)
Inurl:admin filetype:xls административные данные
filetype:xls inurl:contact - контактная информация, адреса e-mail
filetype:xls inurl:”email.xls” адреса E-mail, имена
allinurl: admin mdb административные бд
filetype:mdb inurl:users.mdb списки пользователей, адреса e-mail
Inurl:email filetype:mdb списки пользователей, адреса e-mail
Data filetype:mdb различные данные (используйте как базовый поиск)
Inurl:backup filetype:mdb архивные копии бд
Inurl:profiles filetype:mdb профили пользователей
Inurl:*db filetype:mdb различные данные (используйте как базовый поиск)
[/q]
[/q]

Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом".
Его можно разбить на отдельные целевые.
Можно добавить поиск интересных файлов и ссылок в других поисковиках или источниках.
Можно добавить свои запросы в пакет.
Например, сообщения #15 и #17 можно тоже "помеcтить" в пакет и выполнять одним махом и, немаловажно, без повтора ссылок, находимых по разным запросам, разными поисковиками, или по разным источникам. Запомнить все варианты запросов сложно, выполнять по-отдельности долго.




^^ТЕКСТ ПАКЕТА
^^Поиск ссылок и файлов, которые могут Быть интересны
^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365

^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы
^^<3>=3;7;20;100 //Глубина поиска

site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные
site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли
site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1
site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2
site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3
site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные
site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail
site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена
site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД
site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД
site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей
site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов


Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Спасибо, Алексей за предоставленные пакеты! :good:



Алексей Мыльников
Долгожитель форума

Откуда: Волгоград
Всего сообщений: 877
Рейтинг пользователя: 6


Ссылка


Дата регистрации на форуме:
22 июня 2009
Чтобы воспользоваться пакетом из сообщения #24 следует:

- живьём скопировать его текст из сообщения в буфер обмена,
- открыть программу SiteSputnik, в подменю "Золотого ключика" выбрать "Пакеты+ с параметрами - Создать - С чистого листа".
- ввести имя создаваемого пакета, например, "Интересные ссылки",
- восстановить из буфера обмена скопированный тест, оставив только его, и сохранить файл.

Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз.

Затем:

- нажать на "Золотой ключик", потом на кнопку "Пакет+",
- выбрать в открывшемся диалоге "Интересные ссылки",
- ввести параметр - имя своего сайта и нажать на кнопку "Совместно".

Для полного выполнения пакета достаточно иметь SiteSputnik Pro.

Игорь Нежданов
Модератор форума
Прагматик
Откуда: Советский Союз
Всего сообщений: 1024
Рейтинг пользователя: 13


Ссылка


Дата регистрации на форуме:
7 июня 2009

Алексей Мыльников написал:
[q]
Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". ...
[/q]

Очень разумное решение собрать в один пакет все запросы к Google для поиска дырок на сайте - спасибо! Экономия времени налицо. Да и гарантия, что не забыл какой то вариант. Уже использовал и получил результат.

Кстати, это уже к Vinni, возможно есть еще интересные варианты использования запросов в Google, которые можно "вшить" в пакет к СайтСпутнику.


---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ...
Лаборатория Перспективных Разработок
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Конечно есть - их много есть у меня на сайте Google Hacking Database (GHDB), организованном автором книги для подобных запросов :wink:
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Сорри - не ту ссылку дал. Надо смотреть запросы в _ttp://www.exploit-db.com/google-dorks/ он регулярно пополняется

Мне кажется, стоит добавить еще запросы

[q]

Microsoft-IIS/7.0 intitle:index.of name size - поиск оглавлений для IIS7
inurl:"passes" OR inurl:"passwords" OR inurl:"credentials" -search -download -techsupt -git -games -gz -bypass -exe filetype:txt @yahoo.com OR @gmail OR @hotmail OR @rediff - страницы с паролями на фишинговых сервера
inurl:ftp "password" filetype:xls
(username=* | username:* |) | ( ((password=* | password:*) | (passwd=* | passwd:*) | (credentials=* | credentials:*)) | ((hash=* | hash:*) | (md5:* | md5=*)) | (inurl:auth | inurl:passwd | inurl:pass) ) filetype:log - имена, пароли, хэши
"login: *" "password= *" filetype:xls

[/q]


Игорь Нежданов
Модератор форума
Прагматик
Откуда: Советский Союз
Всего сообщений: 1024
Рейтинг пользователя: 13


Ссылка


Дата регистрации на форуме:
7 июня 2009
Та ссылка тоже ничего так :)

---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ...
Лаборатория Перспективных Разработок
CI-KP
Администратор

Откуда: Екатеринбург
Всего сообщений: 5563
Рейтинг пользователя: 24


Ссылка


Дата регистрации на форуме:
15 мая 2009

Алексей Мыльников написал:
[q]
Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз.

Затем:

- нажать на "Золотой ключик", потом на кнопку "Пакет+",
- выбрать в открывшемся диалоге "Интересные ссылки",
- ввести параметр - имя своего сайта и нажать на кнопку "Совместно".

Для полного выполнения пакета достаточно иметь SiteSputnik Pro.
[/q]

А у меня не получилось. Открылся OpenOffice, предложил какие-то параметры таблицы сделать - я согласился. Он сделал таблицу у которой в первой ячейке было что-то типа <1> .

Я это оттуда стер, и вставил туда из буфера обмена вот этот массив:

----------------------------

^^ТЕКСТ ПАКЕТА
^^Поиск ссылок и файлов, которые могут Быть интересны
^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365

^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы
^^<3>=3;7;20;100 //Глубина поиска

site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные
site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли
site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1
site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2
site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3
site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные
site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail
site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена
site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД
site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД
site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей
site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов

----------------------------

Потом сохранил в том формате, в котором OpenOffice, опять же, предложил. Вызвал пакет из СайтСпутника - пройдя по меню, описанному уважаемым Алексеем. Пакет отработал какое-то время по конкретному сайту. Принес некоторое количество результатов с релевантным, по его мнению, словосочетанием "двойные кавычки" на английском языке. И без привязки к сайту.

Я понимаю, что что-то не так, но, увы, не понимаю что именно - я, к сожалению, далек от "птичек" из которых пишутся пакеты.

---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru
Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь.
Искендер
Администратор

Всего сообщений: 5913
Рейтинг пользователя: 43


Ссылка


Дата регистрации на форуме:
7 июня 2009
Толковый и полезный пакет. Спасибо уважаемому Алексею и уважаемому Винни! :hi:

Требует, однако, некоторой доработки, что по силам каждому и даже напильник не понадобится. К примеру, есть смысл добавить в пакет строки:

site:<1> filetype:doc Конфиденциально || Google=<3> ^^ приватные данные...
site:<1> filetype:pdf Конфиденциально || Google=<3> ^^ приватные данные...

site:<1> filetype:doc "секретно" || Google=<3> ^^ приватные данные...
site:<1> filetype:pdf "секретно" || Google=<3> ^^ приватные данные...

Ну и с другими форматами файлов. После небольшого редактирования дело пошло куда как веселее! :cool:

---
I`m not a Spy! I can do much better!
Информационные войны "под ключ"
Алексей Мыльников
Долгожитель форума

Откуда: Волгоград
Всего сообщений: 877
Рейтинг пользователя: 6


Ссылка


Дата регистрации на форуме:
22 июня 2009
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку.

Алексей Мыльников
Долгожитель форума

Откуда: Волгоград
Всего сообщений: 877
Рейтинг пользователя: 6


Ссылка


Дата регистрации на форуме:
22 июня 2009

Искендер написал:
[q]
К примеру, есть смысл добавить в пакет строки: ...
[/q]

Да, добавить можно немало и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google.

Искендер
Администратор

Всего сообщений: 5913
Рейтинг пользователя: 43


Ссылка


Дата регистрации на форуме:
7 июня 2009

Алексей Мыльников написал:
[q]
и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google.
[/q]

Разумеется. Но даже простое расширение запросов в части типов документов в рамках одного только Гугла - уже дает значительный "прирост КПД".

---
I`m not a Spy! I can do much better!
Информационные войны "под ключ"
CI-KP
Администратор

Откуда: Екатеринбург
Всего сообщений: 5563
Рейтинг пользователя: 24


Ссылка


Дата регистрации на форуме:
15 мая 2009
Для: Алексей Мыльников
Алексей Мыльников написал:
[q]
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку.
[/q]

Спасибо! :hi: Так - получилось!

---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru
Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь.
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
кстати, жизнь подкинула еще один вариант прокси с помощью другого сервиса гугла - Google Docs в режиме viewer.
В этом режиме при обращении к этому сервису можно указать любой URL и нужный документ будет загружен через сервера гугла на компьютер.

Обнаружено это было при анализа одного из бразильских троянов - см. _ttp://www.h-online.com/security/news/item/Trojan-uses-Google-Docs-to-communicate-with-its-control-server-1752343.html

tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009
Кстати, сегодня робот попытался зайти на сайт GHDB за обновлениями и обнаружил автоматическую переадресацию на поисковик Google.
Google выкупил этот сайт у Jonny Long'а и закрыл?
Vinni
Администратор

Всего сообщений: 2126
Рейтинг пользователя: 22


Ссылка


Дата регистрации на форуме:
5 июня 2009
Да нет - видимо он сам закрыл проект и поставил переадресацию для корня сайта на гугл.
Если обращаться не в корень сайт
Но есть еще _ttp://www.exploit-db.com/google-dorks/
tungus1973
Модератор форума

Откуда: г. Санкт-Петербург
Всего сообщений: 795
Рейтинг пользователя: 11


Ссылка


Дата регистрации на форуме:
3 июля 2009

Vinni написал:
[q]
Но есть еще _ttp://www.exploit-db.com/google-dorks/
[/q]

Тоже выкачал. Периодически пополняю...
<<Назад  Вперед>>Страницы: 1 2 3 4
Печать
Форум Сообщества Практиков Конкурентной разведки (СПКР) »   Технологии работы и инструменты конкурентной разведки »   Google для КР (перечитывая книгу Дж. Лонга)
RSS

Последние RSS
Англоязычный интерфейс программы "Сайт Спутник"
Учебник по конкурентной разведке
Конкурентная разведка: маркетинг рисков и возможностей
Книга "История частной разведки США"
Книга "Нетворкинг для разведчиков"
Поиск и сбор информации в интернете в программе СайтСпутник
Новые видеоуроки по программе СайтСпутник для начинающих
Технологическая разведка
SiteSputnik. Мониторинг Телеграм
СайтСпутник: возврат к ранее установленной версии
SiteSputnik. Доступ к результатам работы из браузера
Анализ URL
Топливно-энергетический комплекс
Профессиональные сообщества СБ
Несколько Проектов в одном, выполнение Проектов по частям
SiteSputnik-Bot: Боты в программе СайтСпутник
К вопросу о телеграм
SiteSputnik: Автозамены до и после Рубрикации или Перевода
Лог-файл в программе СайтСпутник
шантаж, угрозы по Интернету

Самые активные 20 тем RSS