Версия для печати
- Форум Сообщества Практиков Конкурентной разведки (СПКР) http://forum.razved.info/
-- Технологии работы и инструменты конкурентной разведки http://forum.razved.info//index.php?f=6
--- Google для КР (перечитывая книгу Дж. Лонга) http://forum.razved.info//index.php?t=3365
-- Vinni написал 7 ноября 2012 22:47
Думаю, что многим на этом форуме известна книга "Google Hacking for Penetration Testers, Volume 2" (именно второе издание - Volume 2! )
Если перечитать ее с точки зрения советов, полезных для сбора информации об организациях, с помощью Гугла, то получается не так уж и много
Первые две ее главы являются просто введением в поисковый язык Google и его операторы.
Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.
[q]
Если страница, которую Вы хотите посмотреть, не требует перевода, Вы можете использовать сервис перевода как прокси, модифицировав переменную hl в URL, чтобы она соответствовала родному языку этой страницы. Только учтите, что с помощью прокси такого рода нельзя получить изображения.
[/q]
И только с третьей главы начинается интересное
-- Vinni написал 7 ноября 2012 22:57
Там рассматривается анонимный доступ к нужным сайтам с помощью кэша Гугла (ссылки cached или "Сохраненная копия" для результатов поисковой выдачи).
Автор даже запускает сниффер и смотрит, куда будут обращения при просмотре кэшированной страницы на его машине.
Увы, при этом обнаруживается, что к интересующему сайту таки будут обращения за графическими файлами, на которые есть ссылка на странице (я сам регулярно вижу такие обращения в логах своего корпоративного внешнего веб-сервера).
Но не все потеряно - оказывается на заголовке кэшированной страницы сверху есть ссылка "Текстовая версия" и при ее просмотре никаких обращений к сайту не происходит.
Чтобы напрямую получить ссылку на текстовую версию кэшированной страницы достаточно добавить в конце URL кэшированной страницы &strip=1
-- Vinni написал 7 ноября 2012 23:05
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий веб-сервера (привет Андрею Масаловичу )
Для того чтобы обнаружить такие страницы в первом приближении, нужно добавить в запрос "intitle:index.of" (точка - это любой символ согласно поисковому языку гугла)
Так как этот запрос дает много информационного шума, предлагаются более точные запросы, в которых указываются служебные заголовки, часто встречающиеся на таких страницах
1) intitle:index.of “parent directory”
2) intitle:index.of name size
Так как часто интересует доступность оглавления конкретной директории на веб-сервере, то нужно добавить ее имя в запрос. Например, для поиска оглавлений директории admin рекомендуются запросы:
1)intitle:index.of.admin
2) intitle:index.of inurl:admin
Иногда интересует возможность доступа к конкретному файлу через оглавление. В таких случаях предлагаются добавить имя файла. Например, для поиска ws_ftp.log предлагается запрос intitle:index.of ws_ftp.log
Далее дается понятие о пересечении директорий (directory traversal) и описываются его виды.
В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible).
-- Vinni написал 7 ноября 2012 23:30
В четвертой главе описывается, как искать файлы тех или иных типов с помощью операторов filetype: и inurl:
Например, для поиска конфигурационных файлов предлагается запрос "inurl:conf OR inurl:config OR inurl:cfg"
Для уменьшения информационного шума предлагается все та же техника редукции результатов поиска с помощью уточнений и/или запретов выдачи страниц с определенными словами.
Для удобства приводятся большие таблицы с запросами для поиска распространенных конгфигурационных файлов и файлов журналов популярных программ.
Потом автор переходит к более интересному вопросу - поиску офисных документов (Word, Excel и т.д.)
Хотя примитивный запрос вроде "inurl:xls OR inurl:doc OR inurl:mdb" не сильно эффективен (можно использовать как альтернативу оператор filetype), его как всегда можно улучшить, добавив требования к наличию конкретных слов в тексте документа (например, password). Интересным примером запроса является "filetype:xls username password email"
Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
[q]
filetype:xls username password email - пароли
filetype:xls inurl:”password.xls” - пароли
filetype:xls private приватные данные (на русском видимо стоит добавить слова "Конфиденциально" или "Коммерческая тайна")(используйте как базовый поиск)
Inurl:admin filetype:xls административные данные
filetype:xls inurl:contact - контактная информация, адреса e-mail
filetype:xls inurl:”email.xls” адреса E-mail, имена
allinurl: admin mdb административные бд
filetype:mdb inurl:users.mdb списки пользователей, адреса e-mail
Inurl:email filetype:mdb списки пользователей, адреса e-mail
Data filetype:mdb различные данные (используйте как базовый поиск)
Inurl:backup filetype:mdb архивные копии бд
Inurl:profiles filetype:mdb профили пользователей
Inurl:*db filetype:mdb различные данные (используйте как базовый поиск)
[/q]
-- CI-KP написал 7 ноября 2012 23:36
Vinni написал:[q]
Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.[/q]
по-моему, уже нельзя
-- Vinni написал 7 ноября 2012 23:47
Далее в четвертой главе идет описание технологий поиска информации, интересной для тестирования на проникновение, но не для КР
Но затем начинается описание простых скриптов на Perl для автоматизации анализа информации.
Сначала описывается задача поиска всех адресов электронной почты в каком-то домене и для начала приводится скрипт для выделения из файла (полученного в резльтате поиска) адресов электронной почты с помощью регулярного выражения
[q]
[a-zA-Z0-9._-]+@(([a-zA-Z0-9_-]{2,99}\.)+[a-zA-Z]{2,4})|((25[0-5]|2[0-
4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-
4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9]))
[/q]
Другое регулярное выражение позволит найти URL в файле
[q]
[a-zA-Z]{3,4}[sS]?://((([\w\d\-]+\.)+[ a-zA-Z]{2,4})|((25[0-5]|2[0-4]\d|1\d\d|[1-
9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-
9]\d|[1-9])\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]\d|[1-9])))((\?|/)[\w/=+#_~&:;%\-\?\.]*)*
[/q]
и полезно для автоматизации выделения ссылок из результатов поисковой выдачи
Потом упоминается Google Desktop для поиска среди локальных файлов, найденных в результате поиска (привет Яндекс Десктопу )
-- Vinni написал 8 ноября 2012 0:13
Пятая глава развивает тему автоматизации поиска и анализа его результатов...
Сначала выдвигается тезис о том, что поиск, как правило, состоит из следующих шагов (далее мой вольный перевод ):
[q]
■ составить базовый поисковый запрос
■ уточнить его
■ получить страницы с данными с сайтов
■ произвести их синтаксический разбор и выделить нужные элементы
■ произвести их пост-обработку для получения интересующей информации
[/q]
и подробно описывается каждый шаг
Шаг уточнения поискового запроса рассматривается сначала на примере получения списка адресов e-mail какого-то домена.
При этом приводится список типовых модификаций e-mail для защиты от спама и способы проверки валидности выделенного адреса e-mail.
Потом рассматриваются случаи поиска телефонных номеров и людей по ФИО.
Для уменьшения числа результатов поиска предлагается оператор site:
Шаг получения страниц с данными с сайтов начинается с вдумчивого разбора структуры URL поискового запроса в Гугле и рассмотрения всевозможных простых вариантов утилит вместо веб-браузера для получения результатов поисковой выдачи - netcat, lynx, curl и wget.
Анализ тегов страницы с поисковой выдачей производится с помощью FireBug (плагина Firefox). С его помощью выявляются строки с тегами, обрамляющие сниппеты на странице с поисковой выдачей.
После этого описывается скрипт на perl, вызывающий curl для получения этой страницы и выделяющий с помощью найденных строк с тегами сниппеты
Потом скрипт усложняется и из сниппета выделяются заголовок страницы, ее URL и собственно цитата из текста, приведенная в сниппете
-- Vinni написал 8 ноября 2012 1:13
Затем рассматривается шаг парсинга результатов.
Сначала описывается выделение из текста возможных вариантов написания e-mail и приведение их к каноническому виду с помощью регулярных выражений.
Потом описываются возможные варианты написания телефонных номеров.
Далее описываются примитивные варианты пост-обработки сниппетов как таковых или целых страниц.
В частности, описывается сортировка страниц по релевантности. Приводится пример определения релевантности как нахождения на странице адресов e-mail, максимально похожих на ФИО человека, который ищется (для России надо будет использовать английский аналог ФИО ). Похожесть строк определяется как число совпадающих триграмм
Далее кратко описывается предтеча Maltego система Evolution.
Для повышения интереса приводится пример (с обезличенными данными) о том, как вычислить сотрудников одной из спецслужб (т.н агентства с именами из трех букв).
Для начала ищутся телефонные номера на сайтах в домене xxx.gov. Потом берется строка с кодом города и АТС (исходя из предположения, что офисы агентства могут занимать почти всю номерную емкость АТС), которые упоминается в номерах и ищутся адреса e-mail, тел. номера и названия городов, находящиеся на тех же страницах, что и эта строка, в надежде на то, что кто-то из сотрудников указал свой личный email вместе со служебным номером телефона.
И такой человек находится Номер телефона указан как номер теннисного клуба, но он подозрительно похож на номера офиса агентства.
Другим примером является поиск Word-документов на сайтах какого-то агентства, выделение из их метаданных имени автора и поиск по этому имени профиля на LinkedIn.
Для автоматизации далее приводится скрипт на Perl для получения метаданных офисного документа по ссылке на него и еще один, который посылает в Гугл запрос на офисные документы на сайтах определенного домена, и вызывает первый скрипт для автоматического получения метаданных для каждой из найденных ссылок
-- Vinni написал 8 ноября 2012 1:24
Потом рассматривается вариант более сложного анализа (тоже с помощью EVOLUTION - все делается с его помощью) - установление связей между людьми (на примере их адресов e-mail)
Для этого предлагается сначала найти для каждого из этих адресов e-mail все страницы с их упоминанием и выделить из них адреса веб-сайтов, email и номера телефонов,а потом сравнить результаты, чтобы выявить общее в них. Если совпадений нет, то берется каждый элемент результатов, полученных на первом шаге (адрес email и т.д.) для первого и второго email и для него делается то же самое, а затем снова ищется сходство между результатами и так до победного конца ...
Шестая глава для нас неинтересна, поэтому опустим ее
-- CI-KP написал 8 ноября 2012 4:07
Уважаемый Vinni,
-- Николаич написал 8 ноября 2012 9:41
Присоединяюсь!
-- Игорь Нежданов написал 8 ноября 2012 13:00
Спасибо!
-- fellix13 написал 8 ноября 2012 13:44
Эх, кто тут последний покурить за углом..)
-- Vinni написал 8 ноября 2012 16:57
Воодушевленный коллегами, попробую продолжить.
Седьмая глава называется интригующе - "десять простых поисковых запросов в области безопасности, которые работают"
Для КР интересны не все запросы, поэтому привожу ниже меньшее количество
- site:домен.ru -site:www.домен.ru - позволяет установить какие сайты, кроме www есть в этом домене и посмотреть их страницы
- intitle:index.of - уже описанный поиск оглавлений директорий
- -ext:html -ext:htm -ext:shtml -ext:asp -ext:php - в сочетании с оператором site получает списко всех потенциально интересных файлов на сайте,
кроме HTML-страниц (т.е. офисные документы и т.д.). Ее также стоит уточнять для уменьшения информационного шума. - inurl:temp | inurl:tmp | inurl:backup | inurl:bak - находит временные файлы и директории, а также архивные копии файлов
Кроме этого, приводятся запросы, которые могут быть интересны для последующего сбора информации с помощью социальной инженерии
(рекомендую читать другую книгу Дж. Лонга - "NoTech hacking")
Восьмая глава также посвящена поиску вещей, интересных только хакерам.
Исключение составляет только информация о том, как искать сетевое оборудование, доступное через Интернет - прежде всего веб-камеры. В главе приведена большая таблица с запросами по поиску специфических моделей оборудования.
-- Vinni написал 8 ноября 2012 17:21
Девятая глава посвящена поиску имен пользователей, их паролей и другой конфиденциальной информации.
В ней приводятся большое число примеров запросов для поиска имен пользователей. Ниже приведены самые универсальные запросы
[q]
inurl:admin inurl:userlist
inurl:admin filetype:asp inurl:userlist
[/q]
В некоторых случаях списки имен пользователей можно соборать с помощью программ статистики посещения сайтов.
Например, следующий запрос требуется для нахождения страниц Webalizer-а - +intext:webalizer +intext:”Total Usernames” +intext:”Usage Statistics for”.
Для поиска паролей также предлагается большое число запросов, ориентированных на конкретные программы.
Ниже приведены самые универсальные из них
[q]
intext:(password | passcode | pass) intext:(username | userid | user)
intitle:”Index of” passwords modified
filetype:bak inurl:”htaccess|passwd|shadow|htusers”
inurl:passlist.txt
intitle:index.of passwd passwd.bak
allinurl: admin mdb
filetype:mdb inurl:users.mdb
filetype:xls username password email
filetype:dat inurl:pass.dat
index.of passlist
filetype:dat “password.dat”
filetype:log inurl:”password.log”
ext:passwd -intext:the -sample -example
“login: *” “password= *” filetype:xls
[/q]
При этом рекомендуется помнить, что вместо английских слов в файлах могут употребляться их национальные аналоги (пароль, пользователь ти т.д.), поэтому надо и искать и их
-- Игорь Нежданов написал 8 ноября 2012 17:49
Ждем с нетерпением.... :)
-- Vinni написал 9 ноября 2012 15:11
Кстати, для удобства приводится таблица с переводами слова пароль (password) на другие языки - французский, немецкий и т.д.
Дальше идет описание не очень интересных для КР (но интересных для хакеров) вещей - поиск номеров кредитных карт, SSN.
Говорится о том, что в последние годы все больше людей использует персональные финансовые программы (явно не в России ) и что иногда их рабочие файлы доступны через Интернет (приводится таблица с расширениями файлов популярных персональных финансовых программ).
Наконец автор переходит к тому, как можно найти другую конфиденциальную информацию, которая может быть в весьма различных файлах. Приводится большая таблица с запросами по поиска таких файлов.
Ниже выжимка из нее с самыми интересными запросами:
[q]
intext:”Session Start * * * *:*:* *” filetype:log - журналы AIM IRC
“Index of” / “chat/logs” - логи чатов
intitle:”Index Of” cookies.txt “size” - файл cookies.txt может содержать информацию о пользователе
“phone * * *” “address *” “e-mail” intitle:”curriculum vitae” - в резюме тоже много интересной информации
intitle:index.of inbox - файлы с письмами
“:8080” “:3128” “:80” filetype:txt - файлы со спискамии HTTP Proxy
intitle:”Index of” dbconvert.exe chats -логи чатов ICQ
intitle:”Index Of” -inurl:maillog maillog size - почтовые журналы (тоже много интересной информации)
filetype:xls inurl:contact - excel-файл с контактной информацией
ext:log “Software: Microsoft Internet Information Services *.*” - журналы веб-сервера с IIS
filetype:pst inurl:”outlook.pst” - файл Microsoft Outlook (почта, календарь пользователя)
filetype:eml eml intext:”Subject” +From - файл c письмом в формет Outlook Express
inurl:/public/?Cmd=contents - публичные директории Outlook Web access
[/q]
-- Vinni написал 9 ноября 2012 15:48
Десятая глава посвящена детальному рассмотрению дополнительных сервисов Google и в-целом неинтересна для КР, за исключением отдельных моментов.
Сначала описывается Ajax API для поиска.
Потом рассказывается о Google Calendar (календаре, который может разделяться с другими) и о том, что иногда по ошибке календари делаются доступными всему интернету и их элементы (порой конфиденциальные) видны при поиске в публичных календарях.
Потом говорится о blogger.com и API для поиска в блогах и автоматического добавления в них постов. Говорится о спамерских блогах (splog-ах). Они интересны хакерам для того, чтобы без особых затрат создать привлекательную с точки зрения поисковиков страницу (и заманить туда таким образом много посетителей), а потом разместить на ней эксплойт и за счет популярности попытаться установить вредоносное ПО у большого числа ничего не подозревающих пользователей.
Сначала приводится простой пример на Python для добавления постов. Затем предлагается более интересный скрипт - чтение постов чужого блога (через RSS) и перепост их в своем блоге.
Заканчивается глава описанием Goole Alerts (уведомление по почте об изменениях в результатах поисковой выдачи по конкретному запросу) и Google Co-op (средством для создания собственных поисковых интерфейсов).
11ая глава напоминает выступления Андрея Масаловича и представляет из себя череду примеров того, какую конфиденциальную информацию можно обнаружить в Интернет с помощью Гугла (с большим количеством скриншотов):
-незащищенные веб-интерфейсы сетевых устройств и телекоммуникационного оборудования
-незащищенные административные интерфейсы форумов, баз данных и т.д.
-вебкамеры,показывающие порой очень интересные вещи
-разнообразная персональная конфиденциальная информация и пароли
-отчеты полиции, номера кредитных карт и SSN
Потом рассматривается случай сайта, у которого какое-то время была возможность просмотра оглавлений директории с информацией о сотрудниках, но потом эта директория была удалена. Увы, старая копия файла со списком сотрудников из этой директории осталась на сайте Веб-архива (archive.org) и была восстановлена с его помощью.
Глава 12 посвящена описанию приемов защиты своей конфиденциальной информации от Гугла.
Так как лучшая защита - это нападение, то в ней описывается Unix-программа Gooscan (находится на сайте _ttp://johnny.ihackstuff.com), написанная самим Дж. Лонгом, которая позволяет автоматизировать поиск в Гугле, но имеет только интерфейс командной строки. Также подробно рассматриваются Windows-программы - Athena (_ttp://snakeoillabs.com/) и Wikto(www.sensepost.com).
Далее описывается плагин для Firefox "Google Rower" (www.tankedgenius.com) для обхода ограничения в одну тысячу результатов поиска с помощью добавления букв в запрос (например, для запроса JeffBall5 идет поиск "Jeffball55 a", затем "Jeffball55 b", затем "Jeffball55 c" и т.д.) Еще одним средством с того же сайта является Google Site Indexer, который карту директорий и файлов сайта с помощью гугла.
Также для повышения удобства работы с операторами гугла предлагается плагин Advanced Dork (все тот же Firefox).
На этом книга заканчивается
-- Николаич написал 9 ноября 2012 17:50
Vinni написал:[q]
На этом книга заканчивается[/q]
Тонкая книжонка, видимо, это все же брошюра
Уважаемый Vinni, спасибо!
Я рискну задать вопрос - а можно ли каким-то образом осуществлять поиск в диапазоне IP-адресов?
Это к вопросу о поиске Web-камер, как-то пробовал по этой книжке, все хорошо, но далеко - Гонконг, Япония...
А как локализовать поиск так и не понял.
Еще раз спасибо!
-- Vinni написал 9 ноября 2012 18:59
Увы, наверное так не получится - в поисковом языке гугла нет операторов, позволяющих ограничить поиск диапазоном IP (site позволяет ограничить поиск только определенным доменом).
Я бы предложил использовать доработанные скрипты из книги, и фильтровать результаты в Perl по диапазонам адресов
-- Elena_Larina написал 9 ноября 2012 19:38
Уважаемый Vinni!
Полезней, чем Малаховец, увлекательнее чем Ле Карре.
Респект.
-- Алексей Мыльников написал 10 ноября 2012 11:10
Vinni написал:[q]
В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible).[/q]
Да, это есть. Причем выполняется генерация массы вариантов, например, если ссылка:
ret-4\exhc-1.xls, то можно прописать проверку множества URL:
ret-1\exhc-1.xls,
ret-1\exhc-2.xls,
ret-1\exhc-3.xls,
...
ret-2\exhc-1.xls
,...
Подробнее в Иструкции (http://sitesputnik.ru/Help/SSInvisible.htm) в разделе "Поиск невидимых ссылок в окрестности видимой ссылки".
Продолжу...
-- Алексей Мыльников написал 10 ноября 2012 11:20
Vinni написал:[q]
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий[/q]
Это тоже есть. Поиск папок открытых выполняется не только в Google, но и в Yahoo по пакету (ниже показан пакет, создаваемый автоматически по параметру "Имя сайта" (ресурса или веб-папки) для поиска открытых папок на сайте nalog.ru):
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Yahoo=100 ^^Exit>0
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Yahoo=100 ^^Exit>0
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Google=100
site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Yahoo=100
Сначала идет строгий поиск: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory"
Елси он ничего не нашел, то менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of"
Елси и он ничего не нашел, то ещё менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of"
Это как писал Винни в топике #4 - "редукция результата" "для уменьшения информационного шума".
Если найдутся открытые папки, то они будут открыты, выполнится проход по их вложенным папкам и найденные файлы попадут в Карту сайта. Это из варианта Invisible.
Продолжу...
-- Алексей Мыльников написал 10 ноября 2012 11:42
Vinni написал:[q]
Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
[q]
filetype:xls username password email - пароли
filetype:xls inurl:”password.xls” - пароли
filetype:xls private приватные данные (на русском видимо стоит добавить слова "Конфиденциально" или "Коммерческая тайна")(используйте как базовый поиск)
Inurl:admin filetype:xls административные данные
filetype:xls inurl:contact - контактная информация, адреса e-mail
filetype:xls inurl:”email.xls” адреса E-mail, имена
allinurl: admin mdb административные бд
filetype:mdb inurl:users.mdb списки пользователей, адреса e-mail
Inurl:email filetype:mdb списки пользователей, адреса e-mail
Data filetype:mdb различные данные (используйте как базовый поиск)
Inurl:backup filetype:mdb архивные копии бд
Inurl:profiles filetype:mdb профили пользователей
Inurl:*db filetype:mdb различные данные (используйте как базовый поиск)
[/q]
[/q]
Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом".
Его можно разбить на отдельные целевые.
Можно добавить поиск интересных файлов и ссылок в других поисковиках или источниках.
Можно добавить свои запросы в пакет.
Например, сообщения #15 и #17 можно тоже "помеcтить" в пакет и выполнять одним махом и, немаловажно, без повтора ссылок, находимых по разным запросам, разными поисковиками, или по разным источникам. Запомнить все варианты запросов сложно, выполнять по-отдельности долго.
^^ТЕКСТ ПАКЕТА
^^Поиск ссылок и файлов, которые могут Быть интересны
^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365
^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы
^^<3>=3;7;20;100 //Глубина поиска
site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные
site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли
site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1
site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2
site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3
site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные
site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail
site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена
site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД
site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД
site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей
site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов
-- Vinni написал 10 ноября 2012 12:00
Спасибо, Алексей за предоставленные пакеты!
-- Алексей Мыльников написал 10 ноября 2012 12:50
Чтобы воспользоваться пакетом из сообщения #24 следует:
- живьём скопировать его текст из сообщения в буфер обмена,
- открыть программу SiteSputnik, в подменю "Золотого ключика" выбрать "Пакеты+ с параметрами - Создать - С чистого листа".
- ввести имя создаваемого пакета, например, "Интересные ссылки",
- восстановить из буфера обмена скопированный тест, оставив только его, и сохранить файл.
Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз.
Затем:
- нажать на "Золотой ключик", потом на кнопку "Пакет+",
- выбрать в открывшемся диалоге "Интересные ссылки",
- ввести параметр - имя своего сайта и нажать на кнопку "Совместно".
Для полного выполнения пакета достаточно иметь SiteSputnik Pro.
-- Игорь Нежданов написал 11 ноября 2012 9:21
Алексей Мыльников написал:[q]
Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". ...[/q]
Очень разумное решение собрать в один пакет все запросы к Google для поиска дырок на сайте - спасибо! Экономия времени налицо. Да и гарантия, что не забыл какой то вариант. Уже использовал и получил результат.
Кстати, это уже к Vinni, возможно есть еще интересные варианты использования запросов в Google, которые можно "вшить" в пакет к СайтСпутнику.
-- Vinni написал 11 ноября 2012 12:20
Конечно есть - их много есть у меня на сайте Google Hacking Database (http://www.hackersforcharity.org/ghdb/)(GHDB), организованном автором книги для подобных запросов
-- Vinni написал 11 ноября 2012 13:37
Сорри - не ту ссылку дал. Надо смотреть запросы в _ttp://www.exploit-db.com/google-dorks/ он регулярно пополняется
Мне кажется, стоит добавить еще запросы
[q]
Microsoft-IIS/7.0 intitle:index.of name size - поиск оглавлений для IIS7
inurl:"passes" OR inurl:"passwords" OR inurl:"credentials" -search -download -techsupt -git -games -gz -bypass -exe filetype:txt @yahoo.com OR @gmail OR @hotmail OR @rediff - страницы с паролями на фишинговых сервера
inurl:ftp "password" filetype:xls
(username=* | username:* |) | ( ((password=* | password:*) | (passwd=* | passwd:*) | (credentials=* | credentials:*)) | ((hash=* | hash:*) | (md5:* | md5=*)) | (inurl:auth | inurl:passwd | inurl:pass) ) filetype:log - имена, пароли, хэши
"login: *" "password= *" filetype:xls
[/q]
-- Игорь Нежданов написал 11 ноября 2012 15:35
Та ссылка тоже ничего так :)
-- CI-KP написал 11 ноября 2012 20:33
Алексей Мыльников написал:[q]
Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз.
Затем:
- нажать на "Золотой ключик", потом на кнопку "Пакет+",
- выбрать в открывшемся диалоге "Интересные ссылки",
- ввести параметр - имя своего сайта и нажать на кнопку "Совместно".
Для полного выполнения пакета достаточно иметь SiteSputnik Pro. [/q]
А у меня не получилось. Открылся OpenOffice, предложил какие-то параметры таблицы сделать - я согласился. Он сделал таблицу у которой в первой ячейке было что-то типа <1> .
Я это оттуда стер, и вставил туда из буфера обмена вот этот массив:
----------------------------
^^ТЕКСТ ПАКЕТА
^^Поиск ссылок и файлов, которые могут Быть интересны
^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365
^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы
^^<3>=3;7;20;100 //Глубина поиска
site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные
site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли
site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1
site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2
site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3
site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные
site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail
site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена
site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД
site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail
site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД
site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей
site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск)
site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов
----------------------------
Потом сохранил в том формате, в котором OpenOffice, опять же, предложил. Вызвал пакет из СайтСпутника - пройдя по меню, описанному уважаемым Алексеем. Пакет отработал какое-то время по конкретному сайту. Принес некоторое количество результатов с релевантным, по его мнению, словосочетанием "двойные кавычки" на английском языке. И без привязки к сайту.
Я понимаю, что что-то не так, но, увы, не понимаю что именно - я, к сожалению, далек от "птичек" из которых пишутся пакеты.
-- Искендер написал 11 ноября 2012 21:50
Толковый и полезный пакет. Спасибо уважаемому Алексею и уважаемому Винни!
Требует, однако, некоторой доработки, что по силам каждому и даже напильник не понадобится. К примеру, есть смысл добавить в пакет строки:
site:<1> filetype:doc Конфиденциально || Google=<3> ^^ приватные данные...
site:<1> filetype:pdf Конфиденциально || Google=<3> ^^ приватные данные...
site:<1> filetype:doc "секретно" || Google=<3> ^^ приватные данные...
site:<1> filetype:pdf "секретно" || Google=<3> ^^ приватные данные...
Ну и с другими форматами файлов. После небольшого редактирования дело пошло куда как веселее!
-- Алексей Мыльников написал 11 ноября 2012 22:04
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку.
-- Алексей Мыльников написал 11 ноября 2012 22:11
Искендер написал:[q]
К примеру, есть смысл добавить в пакет строки: ...[/q]
Да, добавить можно немало и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google.
-- Искендер написал 11 ноября 2012 22:15
Алексей Мыльников написал:[q]
и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google. [/q]
Разумеется. Но даже простое расширение запросов в части типов документов в рамках одного только Гугла - уже дает значительный "прирост КПД".
-- CI-KP написал 11 ноября 2012 22:21
Для: Алексей Мыльников
Алексей Мыльников написал:[q]
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку. [/q]
Спасибо! Так - получилось!
-- Vinni написал 21 ноября 2012 18:31
кстати, жизнь подкинула еще один вариант прокси с помощью другого сервиса гугла - Google Docs в режиме viewer.
В этом режиме при обращении к этому сервису можно указать любой URL и нужный документ будет загружен через сервера гугла на компьютер.
Обнаружено это было при анализа одного из бразильских троянов - см. _ttp://www.h-online.com/security/news/item/Trojan-uses-Google-Docs-to-communicate-with-its-control-server-1752343.html
-- tungus1973 написал 17 июля 2013 10:01
Кстати, сегодня робот попытался зайти на сайт GHDB за обновлениями и обнаружил автоматическую переадресацию на поисковик Google.
Google выкупил этот сайт у Jonny Long'а и закрыл?
-- Vinni написал 17 июля 2013 14:35
Да нет - видимо он сам закрыл проект и поставил переадресацию для корня сайта на гугл.
Если обращаться не в корень сайт
Но есть еще _ttp://www.exploit-db.com/google-dorks/
-- tungus1973 написал 17 июля 2013 14:58
Vinni написал:[q]
Но есть еще _ttp://www.exploit-db.com/google-dorks/[/q]
Тоже выкачал. Периодически пополняю...
Этот форум работает на скрипте Intellect Board
© 2004-2007, 4X_Pro, Объединенный Открытый Проект