Версия для печати

-   Форум Сообщества Практиков Конкурентной разведки (СПКР) http://forum.razved.info/
--  Технологии работы и инструменты конкурентной разведки http://forum.razved.info//index.php?f=6
--- Google для КР (перечитывая книгу Дж. Лонга) http://forum.razved.info//index.php?t=3365




-- Vinni написал 7 ноября 2012 22:47
Думаю, что многим на этом форуме известна книга "Google Hacking for Penetration Testers, Volume 2" (именно второе издание - Volume 2! )

Если перечитать ее с точки зрения советов, полезных для сбора информации об организациях, с помощью Гугла, то получается не так уж и много :wonder1:

Первые две ее главы являются просто введением в поисковый язык Google и его операторы.
Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.

[q]

Если страница, которую Вы хотите посмотреть, не требует перевода, Вы можете использовать сервис перевода как прокси, модифицировав переменную hl в URL, чтобы она соответствовала родному языку этой страницы. Только учтите, что с помощью прокси такого рода нельзя получить изображения.
[/q]


И только с третьей главы начинается интересное :wink:



-- Vinni написал 7 ноября 2012 22:57
Там рассматривается анонимный доступ к нужным сайтам с помощью кэша Гугла (ссылки cached или "Сохраненная копия" для результатов поисковой выдачи).
Автор даже запускает сниффер и смотрит, куда будут обращения при просмотре кэшированной страницы на его машине.
Увы, при этом обнаруживается, что к интересующему сайту таки будут обращения за графическими файлами, на которые есть ссылка на странице (я сам регулярно вижу такие обращения в логах своего корпоративного внешнего веб-сервера). :sad:
Но не все потеряно - оказывается на заголовке кэшированной страницы сверху есть ссылка "Текстовая версия" и при ее просмотре никаких обращений к сайту не происходит.
Чтобы напрямую получить ссылку на текстовую версию кэшированной страницы достаточно добавить в конце URL кэшированной страницы &strip=1 :wink:








-- Vinni написал 7 ноября 2012 23:05
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий веб-сервера (привет Андрею Масаловичу :preved: )
Для того чтобы обнаружить такие страницы в первом приближении, нужно добавить в запрос "intitle:index.of" (точка - это любой символ согласно поисковому языку гугла)
Так как этот запрос дает много информационного шума, предлагаются более точные запросы, в которых указываются служебные заголовки, часто встречающиеся на таких страницах
1) intitle:index.of “parent directory”
2) intitle:index.of name size

Так как часто интересует доступность оглавления конкретной директории на веб-сервере, то нужно добавить ее имя в запрос. Например, для поиска оглавлений директории admin рекомендуются запросы:
1)intitle:index.of.admin
2) intitle:index.of inurl:admin

Иногда интересует возможность доступа к конкретному файлу через оглавление. В таких случаях предлагаются добавить имя файла. Например, для поиска ws_ftp.log предлагается запрос intitle:index.of ws_ftp.log

Далее дается понятие о пересечении директорий (directory traversal) и описываются его виды.
В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible).


-- Vinni написал 7 ноября 2012 23:30
В четвертой главе описывается, как искать файлы тех или иных типов с помощью операторов filetype: и inurl:
Например, для поиска конфигурационных файлов предлагается запрос "inurl:conf OR inurl:config OR inurl:cfg"
Для уменьшения информационного шума предлагается все та же техника редукции результатов поиска с помощью уточнений и/или запретов выдачи страниц с определенными словами.
Для удобства приводятся большие таблицы с запросами для поиска распространенных конгфигурационных файлов и файлов журналов популярных программ.

Потом автор переходит к более интересному вопросу - поиску офисных документов (Word, Excel и т.д.)
Хотя примитивный запрос вроде "inurl:xls OR inurl:doc OR inurl:mdb" не сильно эффективен (можно использовать как альтернативу оператор filetype), его как всегда можно улучшить, добавив требования к наличию конкретных слов в тексте документа (например, password). Интересным примером запроса является "filetype:xls username password email" :crazy:

Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:

[q]

filetype:xls username password email - пароли
filetype:xls inurl:”password.xls” - пароли
filetype:xls private приватные данные (на русском видимо стоит добавить слова "Конфиденциально" или "Коммерческая тайна")(используйте как базовый поиск)
Inurl:admin filetype:xls административные данные
filetype:xls inurl:contact - контактная информация, адреса e-mail
filetype:xls inurl:”email.xls” адреса E-mail, имена
allinurl: admin mdb административные бд
filetype:mdb inurl:users.mdb списки пользователей, адреса e-mail
Inurl:email filetype:mdb списки пользователей, адреса e-mail
Data filetype:mdb различные данные (используйте как базовый поиск)
Inurl:backup filetype:mdb архивные копии бд
Inurl:profiles filetype:mdb профили пользователей
Inurl:*db filetype:mdb различные данные (используйте как базовый поиск)
[/q]






-- CI-KP написал 7 ноября 2012 23:36

Vinni написал:
[q]
Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.
[/q]

по-моему, уже нельзя


-- Vinni написал 7 ноября 2012 23:47
Далее в четвертой главе идет описание технологий поиска информации, интересной для тестирования на проникновение, но не для КР :wonder1:

Но затем начинается описание простых скриптов на Perl :preved: для автоматизации анализа информации.
Сначала описывается задача поиска всех адресов электронной почты в каком-то домене и для начала приводится скрипт для выделения из файла (полученного в резльтате поиска) адресов электронной почты с помощью регулярного выражения
[q]

[a-zA-Z0-9._-]+@(([a-zA-Z0-9_-]{2,99}\.)+[a-zA-Z]{2,4})|((25[0-5]|2[0-
4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-
4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9]))
[/q]


Другое регулярное выражение позволит найти URL в файле

[q]

[a-zA-Z]{3,4}[sS]?://((([\w\d\-]+\.)+[ a-zA-Z]{2,4})|((25[0-5]|2[0-4]\d|1\d\d|[1-
9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-
9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])))((\?|/)[\w/=+#_~&:;%\-\?\.]*)*
[/q]


и полезно для автоматизации выделения ссылок из результатов поисковой выдачи

Потом упоминается Google Desktop для поиска среди локальных файлов, найденных в результате поиска (привет Яндекс Десктопу :preved: )


-- Vinni написал 8 ноября 2012 0:13
Пятая глава развивает тему автоматизации поиска и анализа его результатов...
Сначала выдвигается тезис о том, что поиск, как правило, состоит из следующих шагов (далее мой вольный перевод :blush: ):
[q]

■ составить базовый поисковый запрос
■ уточнить его
■ получить страницы с данными с сайтов
■ произвести их синтаксический разбор и выделить нужные элементы
■ произвести их пост-обработку для получения интересующей информации
[/q]

и подробно описывается каждый шаг

Шаг уточнения поискового запроса рассматривается сначала на примере получения списка адресов e-mail какого-то домена.
При этом приводится список типовых модификаций e-mail для защиты от спама и способы проверки валидности выделенного адреса e-mail.
Потом рассматриваются случаи поиска телефонных номеров и людей по ФИО.
Для уменьшения числа результатов поиска предлагается оператор site:

Шаг получения страниц с данными с сайтов начинается с вдумчивого разбора структуры URL поискового запроса в Гугле и рассмотрения всевозможных простых вариантов утилит вместо веб-браузера для получения результатов поисковой выдачи - netcat, lynx, curl и wget.
Анализ тегов страницы с поисковой выдачей производится с помощью FireBug (плагина Firefox). С его помощью выявляются строки с тегами, обрамляющие сниппеты на странице с поисковой выдачей.
После этого описывается скрипт на perl, вызывающий curl для получения этой страницы и выделяющий с помощью найденных строк с тегами сниппеты :wink:

Потом скрипт усложняется и из сниппета выделяются заголовок страницы, ее URL и собственно цитата из текста, приведенная в сниппете



-- Vinni написал 8 ноября 2012 1:13
Затем рассматривается шаг парсинга результатов.
Сначала описывается выделение из текста возможных вариантов написания e-mail и приведение их к каноническому виду с помощью регулярных выражений.
Потом описываются возможные варианты написания телефонных номеров.

Далее описываются примитивные варианты пост-обработки сниппетов как таковых или целых страниц.
В частности, описывается сортировка страниц по релевантности. Приводится пример определения релевантности как нахождения на странице адресов e-mail, максимально похожих на ФИО человека, который ищется (для России надо будет использовать английский аналог ФИО ). Похожесть строк определяется как число совпадающих триграмм :crazy:

Далее кратко описывается предтеча Maltego :preved: система Evolution.

Для повышения интереса приводится пример (с обезличенными данными) о том, как вычислить сотрудников одной из спецслужб (т.н агентства с именами из трех букв).
Для начала ищутся телефонные номера на сайтах в домене xxx.gov. Потом берется строка с кодом города и АТС (исходя из предположения, что офисы агентства могут занимать почти всю номерную емкость АТС), которые упоминается в номерах и ищутся адреса e-mail, тел. номера и названия городов, находящиеся на тех же страницах, что и эта строка, в надежде на то, что кто-то из сотрудников указал свой личный email вместе со служебным номером телефона.
И такой человек находится :facepalm: Номер телефона указан как номер теннисного клуба, но он подозрительно похож на номера офиса агентства.

Другим примером является поиск Word-документов на сайтах какого-то агентства, выделение из их метаданных имени автора и поиск по этому имени профиля на LinkedIn.
Для автоматизации далее приводится скрипт на Perl для получения метаданных офисного документа по ссылке на него и еще один, который посылает в Гугл запрос на офисные документы на сайтах определенного домена, и вызывает первый скрипт для автоматического получения метаданных для каждой из найденных ссылок






-- Vinni написал 8 ноября 2012 1:24
Потом рассматривается вариант более сложного анализа (тоже с помощью EVOLUTION - все делается с его помощью) - установление связей между людьми (на примере их адресов e-mail)
Для этого предлагается сначала найти для каждого из этих адресов e-mail все страницы с их упоминанием и выделить из них адреса веб-сайтов, email и номера телефонов,а потом сравнить результаты, чтобы выявить общее в них. Если совпадений нет, то берется каждый элемент результатов, полученных на первом шаге (адрес email и т.д.) для первого и второго email и для него делается то же самое, а затем снова ищется сходство между результатами :crazy: :tuktuk: и так до победного конца ...

Шестая глава для нас неинтересна, поэтому опустим ее :wink:


-- CI-KP написал 8 ноября 2012 4:07
Уважаемый Vinni,
:good: :good: :good:



-- Николаич написал 8 ноября 2012 9:41
Присоединяюсь!
:good: :good: :good: :good:


-- Игорь Нежданов написал 8 ноября 2012 13:00
Спасибо!


-- fellix13 написал 8 ноября 2012 13:44
Эх, кто тут последний покурить за углом..) :cactus3:


-- Vinni написал 8 ноября 2012 16:57
Воодушевленный коллегами, попробую продолжить. :blush:
Седьмая глава называется интригующе - "десять простых поисковых запросов в области безопасности, которые работают" :wink:
Для КР интересны не все запросы, поэтому привожу ниже меньшее количество



Кроме этого, приводятся запросы, которые могут быть интересны для последующего сбора информации с помощью социальной инженерии
(рекомендую читать другую книгу Дж. Лонга - "NoTech hacking")

Восьмая глава также посвящена поиску вещей, интересных только хакерам. :wink:
Исключение составляет только информация о том, как искать сетевое оборудование, доступное через Интернет - прежде всего веб-камеры. В главе приведена большая таблица с запросами по поиску специфических моделей оборудования.




-- Vinni написал 8 ноября 2012 17:21
Девятая глава посвящена поиску имен пользователей, их паролей и другой конфиденциальной информации. :wink:

В ней приводятся большое число примеров запросов для поиска имен пользователей. Ниже приведены самые универсальные запросы
[q]

inurl:admin inurl:userlist
inurl:admin filetype:asp inurl:userlist
[/q]


В некоторых случаях списки имен пользователей можно соборать с помощью программ статистики посещения сайтов.
Например, следующий запрос требуется для нахождения страниц Webalizer-а - +intext:webalizer +intext:”Total Usernames” +intext:”Usage Statistics for”.

Для поиска паролей также предлагается большое число запросов, ориентированных на конкретные программы.
Ниже приведены самые универсальные из них

[q]

intext:(password | passcode | pass) intext:(username | userid | user)
intitle:”Index of” passwords modified
filetype:bak inurl:”htaccess|passwd|shadow|htusers”
inurl:passlist.txt
intitle:index.of passwd passwd.bak
allinurl: admin mdb
filetype:mdb inurl:users.mdb
filetype:xls username password email
filetype:dat inurl:pass.dat
index.of passlist
filetype:dat “password.dat”
filetype:log inurl:”password.log”
ext:passwd -intext:the -sample -example
“login: *” “password= *” filetype:xls
[/q]


При этом рекомендуется помнить, что вместо английских слов в файлах могут употребляться их национальные аналоги (пароль, пользователь ти т.д.), поэтому надо и искать и их :wink:




-- Игорь Нежданов написал 8 ноября 2012 17:49
Ждем с нетерпением.... :)


-- Vinni написал 9 ноября 2012 15:11
Кстати, для удобства приводится таблица с переводами слова пароль (password) на другие языки - французский, немецкий и т.д.

Дальше идет описание не очень интересных для КР (но интересных для хакеров) вещей - поиск номеров кредитных карт, SSN.

Говорится о том, что в последние годы все больше людей использует персональные финансовые программы (явно не в России :laugh: ) и что иногда их рабочие файлы доступны через Интернет (приводится таблица с расширениями файлов популярных персональных финансовых программ).

Наконец автор переходит к тому, как можно найти другую конфиденциальную информацию, которая может быть в весьма различных файлах. Приводится большая таблица с запросами по поиска таких файлов.
Ниже выжимка из нее с самыми интересными запросами:
[q]

intext:”Session Start * * * *:*:* *” filetype:log - журналы AIM IRC
“Index of” / “chat/logs” - логи чатов
intitle:”Index Of” cookies.txt “size” - файл cookies.txt может содержать информацию о пользователе
“phone * * *” “address *” “e-mail” intitle:”curriculum vitae” - в резюме тоже много интересной информации
intitle:index.of inbox - файлы с письмами
“:8080” “:3128” “:80” filetype:txt - файлы со спискамии HTTP Proxy
intitle:”Index of” dbconvert.exe chats -логи чатов ICQ
intitle:”Index Of” -inurl:maillog maillog size - почтовые журналы (тоже много интересной информации)
filetype:xls inurl:contact - excel-файл с контактной информацией
ext:log “Software: Microsoft Internet Information Services *.*” - журналы веб-сервера с IIS
filetype:pst inurl:”outlook.pst” - файл Microsoft Outlook (почта, календарь пользователя)
filetype:eml eml intext:”Subject” +From - файл c письмом в формет Outlook Express
inurl:/public/?Cmd=contents - публичные директории Outlook Web access

[/q]





-- Vinni написал 9 ноября 2012 15:48
Десятая глава посвящена детальному рассмотрению дополнительных сервисов Google и в-целом неинтересна для КР, за исключением отдельных моментов.

Сначала описывается Ajax API для поиска.

Потом рассказывается о Google Calendar (календаре, который может разделяться с другими) и о том, что иногда по ошибке календари делаются доступными всему интернету и их элементы (порой конфиденциальные) видны при поиске в публичных календарях.

Потом говорится о blogger.com и API для поиска в блогах и автоматического добавления в них постов. Говорится о спамерских блогах (splog-ах). Они интересны хакерам для того, чтобы без особых затрат создать привлекательную с точки зрения поисковиков страницу (и заманить туда таким образом много посетителей), а потом разместить на ней эксплойт и за счет популярности попытаться установить вредоносное ПО у большого числа ничего не подозревающих пользователей.
Сначала приводится простой пример на Python для добавления постов. Затем предлагается более интересный скрипт - чтение постов чужого блога (через RSS) и перепост их в своем блоге.

Заканчивается глава описанием Goole Alerts (уведомление по почте об изменениях в результатах поисковой выдачи по конкретному запросу) и Google Co-op (средством для создания собственных поисковых интерфейсов).


11ая глава напоминает выступления Андрея Масаловича и представляет из себя череду примеров того, какую конфиденциальную информацию можно обнаружить в Интернет с помощью Гугла (с большим количеством скриншотов):
-незащищенные веб-интерфейсы сетевых устройств и телекоммуникационного оборудования
-незащищенные административные интерфейсы форумов, баз данных и т.д.
-вебкамеры,показывающие порой очень интересные вещи
-разнообразная персональная конфиденциальная информация и пароли
-отчеты полиции, номера кредитных карт и SSN

Потом рассматривается случай сайта, у которого какое-то время была возможность просмотра оглавлений директории с информацией о сотрудниках, но потом эта директория была удалена. Увы, старая копия файла со списком сотрудников из этой директории :facepalm: осталась на сайте Веб-архива (archive.org) и была восстановлена с его помощью.


Глава 12 посвящена описанию приемов защиты своей конфиденциальной информации от Гугла.
Так как лучшая защита - это нападение, то в ней описывается Unix-программа Gooscan (находится на сайте _ttp://johnny.ihackstuff.com), написанная самим Дж. Лонгом, которая позволяет автоматизировать поиск в Гугле, но имеет только интерфейс командной строки. Также подробно рассматриваются Windows-программы - Athena (_ttp://snakeoillabs.com/) и Wikto(www.sensepost.com).

Далее описывается плагин для Firefox "Google Rower" (www.tankedgenius.com) для обхода ограничения в одну тысячу результатов поиска с помощью добавления букв в запрос (например, для запроса JeffBall5 идет поиск "Jeffball55 a", затем "Jeffball55 b", затем "Jeffball55 c" и т.д.) Еще одним средством с того же сайта является Google Site Indexer, который карту директорий и файлов сайта с помощью гугла.

Также для повышения удобства работы с операторами гугла предлагается плагин Advanced Dork (все тот же Firefox).


На этом книга заканчивается :goodbuy:



-- Николаич написал 9 ноября 2012 17:50

Vinni написал:
[q]
На этом книга заканчивается
[/q]

Тонкая книжонка, видимо, это все же брошюра :sad: :smile:
Уважаемый Vinni, спасибо! :good:
Я рискну задать вопрос - а можно ли каким-то образом осуществлять поиск в диапазоне IP-адресов?
Это к вопросу о поиске Web-камер, как-то пробовал по этой книжке, все хорошо, но далеко - Гонконг, Япония...
А как локализовать поиск так и не понял.

Еще раз спасибо!


-- Vinni написал 9 ноября 2012 18:59
Увы, наверное так не получится - в поисковом языке гугла нет операторов, позволяющих ограничить поиск диапазоном IP (site позволяет ограничить поиск только определенным доменом). :wonder1:
Я бы предложил использовать доработанные скрипты из книги, и фильтровать результаты в Perl по диапазонам адресов :wink:


-- Elena_Larina написал 9 ноября 2012 19:38
Уважаемый Vinni!

Полезней, чем Малаховец, увлекательнее чем Ле Карре.
Респект. :hi:


-- Алексей Мыльников написал 10 ноября 2012 11:10

Vinni написал:
[q]
В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible).
[/q]

Да, это есть. Причем выполняется генерация массы вариантов, например, если ссылка:
ret-4\exhc-1.xls, то можно прописать проверку множества URL:
ret-1\exhc-1.xls,
ret-1\exhc-2.xls,
ret-1\exhc-3.xls,
...
ret-2\exhc-1.xls
,...
Подробнее в Иструкции (http://sitesputnik.ru/Help/SSInvisible.htm) в разделе "Поиск невидимых ссылок в окрестности видимой ссылки".

Продолжу...


-- Алексей Мыльников написал 10 ноября 2012 11:20

Vinni написал:
[q]
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий
[/q]

Это тоже есть. Поиск папок открытых выполняется не только в Google, но и в Yahoo по пакету (ниже показан пакет, создаваемый автоматически по параметру "Имя сайта" (ресурса или веб-папки) для поиска открытых папок на сайте nalog.ru):

site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Yahoo=100 ^^Exit>0
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Yahoo=100 ^^Exit>0
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Yahoo=100

Сначала идет строгий поиск: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory"
Елси он ничего не нашел, то менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of"
Елси и он ничего не нашел, то ещё менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of"
Это как писал Винни в топике #4 - "редукция результата" "для уменьшения информационного шума".
Если найдутся открытые папки, то они будут открыты, выполнится проход по их вложенным папкам и найденные файлы попадут в Карту сайта. Это из варианта Invisible.

Продолжу...


-- Алексей Мыльников написал 10 ноября 2012 11:42

Vinni написал:
[q]
Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
[q]

filetype:xls username password email - пароли
filetype:xls inurl:”password.xls” - пароли
filetype:xls private приватные данные (на русском видимо стоит добавить слова "Конфиденциально" или "Коммерческая тайна")(используйте как базовый поиск)
Inurl:admin filetype:xls административные данные
filetype:xls inurl:contact - контактная информация, адреса e-mail
filetype:xls inurl:”email.xls” адреса E-mail, имена
allinurl: admin mdb административные бд
filetype:mdb inurl:users.mdb списки пользователей, адреса e-mail
Inurl:email filetype:mdb списки пользователей, адреса e-mail
Data filetype:mdb различные данные (используйте как базовый поиск)
Inurl:backup filetype:mdb архивные копии бд
Inurl:profiles filetype:mdb профили пользователей
Inurl:*db filetype:mdb различные данные (используйте как базовый поиск)
[/q]
[/q]

Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом".
Его можно разбить на отдельные целевые.
Можно добавить поиск интересных файлов и ссылок в других поисковиках или источниках.
Можно добавить свои запросы в пакет.
Например, сообщения #15 и #17 можно тоже "помеcтить" в пакет и выполнять одним махом и, немаловажно, без повтора ссылок, находимых по разным запросам, разными поисковиками, или по разным источникам. Запомнить все варианты запросов сложно, выполнять по-отдельности долго.




^^ТЕКСТ ПАКЕТА
^^Поиск ссылок и файлов, которые могут Быть интересны
^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365

^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы
^^<3>=3;7;20;100 //Глубина поиска

site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные
site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли
site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1
site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2
site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3
site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные
site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail
site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена
site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД
site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД
site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей
site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов




-- Vinni написал 10 ноября 2012 12:00
Спасибо, Алексей за предоставленные пакеты! :good:






-- Алексей Мыльников написал 10 ноября 2012 12:50
Чтобы воспользоваться пакетом из сообщения #24 следует:

- живьём скопировать его текст из сообщения в буфер обмена,
- открыть программу SiteSputnik, в подменю "Золотого ключика" выбрать "Пакеты+ с параметрами - Создать - С чистого листа".
- ввести имя создаваемого пакета, например, "Интересные ссылки",
- восстановить из буфера обмена скопированный тест, оставив только его, и сохранить файл.

Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз.

Затем:

- нажать на "Золотой ключик", потом на кнопку "Пакет+",
- выбрать в открывшемся диалоге "Интересные ссылки",
- ввести параметр - имя своего сайта и нажать на кнопку "Совместно".

Для полного выполнения пакета достаточно иметь SiteSputnik Pro.


-- Игорь Нежданов написал 11 ноября 2012 9:21

Алексей Мыльников написал:
[q]
Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". ...
[/q]

Очень разумное решение собрать в один пакет все запросы к Google для поиска дырок на сайте - спасибо! Экономия времени налицо. Да и гарантия, что не забыл какой то вариант. Уже использовал и получил результат.

Кстати, это уже к Vinni, возможно есть еще интересные варианты использования запросов в Google, которые можно "вшить" в пакет к СайтСпутнику.




-- Vinni написал 11 ноября 2012 12:20
Конечно есть - их много есть у меня на сайте Google Hacking Database (http://www.hackersforcharity.org/ghdb/)(GHDB), организованном автором книги для подобных запросов :wink:



-- Vinni написал 11 ноября 2012 13:37
Сорри - не ту ссылку дал. Надо смотреть запросы в _ttp://www.exploit-db.com/google-dorks/ он регулярно пополняется

Мне кажется, стоит добавить еще запросы

[q]

Microsoft-IIS/7.0 intitle:index.of name size - поиск оглавлений для IIS7
inurl:"passes" OR inurl:"passwords" OR inurl:"credentials" -search -download -techsupt -git -games -gz -bypass -exe filetype:txt @yahoo.com OR @gmail OR @hotmail OR @rediff - страницы с паролями на фишинговых сервера
inurl:ftp "password" filetype:xls
(username=* | username:* |) | ( ((password=* | password:*) | (passwd=* | passwd:*) | (credentials=* | credentials:*)) | ((hash=* | hash:*) | (md5:* | md5=*)) | (inurl:auth | inurl:passwd | inurl:pass) ) filetype:log - имена, пароли, хэши
"login: *" "password= *" filetype:xls

[/q]





-- Игорь Нежданов написал 11 ноября 2012 15:35
Та ссылка тоже ничего так :)


-- CI-KP написал 11 ноября 2012 20:33

Алексей Мыльников написал:
[q]
Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз.

Затем:

- нажать на "Золотой ключик", потом на кнопку "Пакет+",
- выбрать в открывшемся диалоге "Интересные ссылки",
- ввести параметр - имя своего сайта и нажать на кнопку "Совместно".

Для полного выполнения пакета достаточно иметь SiteSputnik Pro.
[/q]

А у меня не получилось. Открылся OpenOffice, предложил какие-то параметры таблицы сделать - я согласился. Он сделал таблицу у которой в первой ячейке было что-то типа <1> .

Я это оттуда стер, и вставил туда из буфера обмена вот этот массив:

----------------------------

^^ТЕКСТ ПАКЕТА
^^Поиск ссылок и файлов, которые могут Быть интересны
^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365

^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы
^^<3>=3;7;20;100 //Глубина поиска

site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные
site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли
site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1
site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2
site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3
site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные
site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail
site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена
site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД
site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД
site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей
site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов

----------------------------

Потом сохранил в том формате, в котором OpenOffice, опять же, предложил. Вызвал пакет из СайтСпутника - пройдя по меню, описанному уважаемым Алексеем. Пакет отработал какое-то время по конкретному сайту. Принес некоторое количество результатов с релевантным, по его мнению, словосочетанием "двойные кавычки" на английском языке. И без привязки к сайту.

Я понимаю, что что-то не так, но, увы, не понимаю что именно - я, к сожалению, далек от "птичек" из которых пишутся пакеты.


-- Искендер написал 11 ноября 2012 21:50
Толковый и полезный пакет. Спасибо уважаемому Алексею и уважаемому Винни! :hi:

Требует, однако, некоторой доработки, что по силам каждому и даже напильник не понадобится. К примеру, есть смысл добавить в пакет строки:

site:<1> filetype:doc Конфиденциально || Google=<3> ^^ приватные данные...
site:<1> filetype:pdf Конфиденциально || Google=<3> ^^ приватные данные...

site:<1> filetype:doc "секретно" || Google=<3> ^^ приватные данные...
site:<1> filetype:pdf "секретно" || Google=<3> ^^ приватные данные...

Ну и с другими форматами файлов. После небольшого редактирования дело пошло куда как веселее! :cool:


-- Алексей Мыльников написал 11 ноября 2012 22:04
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку.


-- Алексей Мыльников написал 11 ноября 2012 22:11

Искендер написал:
[q]
К примеру, есть смысл добавить в пакет строки: ...
[/q]

Да, добавить можно немало и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google.


-- Искендер написал 11 ноября 2012 22:15

Алексей Мыльников написал:
[q]
и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google.
[/q]

Разумеется. Но даже простое расширение запросов в части типов документов в рамках одного только Гугла - уже дает значительный "прирост КПД".


-- CI-KP написал 11 ноября 2012 22:21
Для: Алексей Мыльников
Алексей Мыльников написал:
[q]
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку.
[/q]

Спасибо! :hi: Так - получилось!


-- Vinni написал 21 ноября 2012 18:31
кстати, жизнь подкинула еще один вариант прокси с помощью другого сервиса гугла - Google Docs в режиме viewer.
В этом режиме при обращении к этому сервису можно указать любой URL и нужный документ будет загружен через сервера гугла на компьютер.

Обнаружено это было при анализа одного из бразильских троянов - см. _ttp://www.h-online.com/security/news/item/Trojan-uses-Google-Docs-to-communicate-with-its-control-server-1752343.html




-- tungus1973 написал 17 июля 2013 10:01
Кстати, сегодня робот попытался зайти на сайт GHDB за обновлениями и обнаружил автоматическую переадресацию на поисковик Google.
Google выкупил этот сайт у Jonny Long'а и закрыл?


-- Vinni написал 17 июля 2013 14:35
Да нет - видимо он сам закрыл проект и поставил переадресацию для корня сайта на гугл.
Если обращаться не в корень сайт
Но есть еще _ttp://www.exploit-db.com/google-dorks/



-- tungus1973 написал 17 июля 2013 14:58

Vinni написал:
[q]
Но есть еще _ttp://www.exploit-db.com/google-dorks/
[/q]

Тоже выкачал. Периодически пополняю...


Этот форум работает на скрипте Intellect Board
© 2004-2007, 4X_Pro, Объединенный Открытый Проект