Форум Сообщества Практиков Конкурентной разведки (СПКР) » Технологии работы и инструменты конкурентной разведки » Google для КР (перечитывая книгу Дж. Лонга) |
![]() |
<<Назад Вперед>> | Страницы: 1 2 3 4 | Печать |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Думаю, что многим на этом форуме известна книга "Google Hacking for Penetration Testers, Volume 2" (именно второе издание - Volume 2! ) Если перечитать ее с точки зрения советов, полезных для сбора информации об организациях, с помощью Гугла, то получается не так уж и много ![]() Первые две ее главы являются просто введением в поисковый язык Google и его операторы. Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.
И только с третьей главы начинается интересное ![]() |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Там рассматривается анонимный доступ к нужным сайтам с помощью кэша Гугла (ссылки cached или "Сохраненная копия" для результатов поисковой выдачи). Автор даже запускает сниффер и смотрит, куда будут обращения при просмотре кэшированной страницы на его машине. Увы, при этом обнаруживается, что к интересующему сайту таки будут обращения за графическими файлами, на которые есть ссылка на странице (я сам регулярно вижу такие обращения в логах своего корпоративного внешнего веб-сервера). ![]() Но не все потеряно - оказывается на заголовке кэшированной страницы сверху есть ссылка "Текстовая версия" и при ее просмотре никаких обращений к сайту не происходит. Чтобы напрямую получить ссылку на текстовую версию кэшированной страницы достаточно добавить в конце URL кэшированной страницы &strip=1 ![]() |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:05 Сообщение отредактировано: 7 ноября 2012 23:14
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий веб-сервера (привет Андрею Масаловичу ![]() Для того чтобы обнаружить такие страницы в первом приближении, нужно добавить в запрос "intitle:index.of" (точка - это любой символ согласно поисковому языку гугла) Так как этот запрос дает много информационного шума, предлагаются более точные запросы, в которых указываются служебные заголовки, часто встречающиеся на таких страницах 1) intitle:index.of “parent directory” 2) intitle:index.of name size Так как часто интересует доступность оглавления конкретной директории на веб-сервере, то нужно добавить ее имя в запрос. Например, для поиска оглавлений директории admin рекомендуются запросы: 1)intitle:index.of.admin 2) intitle:index.of inurl:admin Иногда интересует возможность доступа к конкретному файлу через оглавление. В таких случаях предлагаются добавить имя файла. Например, для поиска ws_ftp.log предлагается запрос intitle:index.of ws_ftp.log Далее дается понятие о пересечении директорий (directory traversal) и описываются его виды. В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible). |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:30 Сообщение отредактировано: 7 ноября 2012 23:36
В четвертой главе описывается, как искать файлы тех или иных типов с помощью операторов filetype: и inurl: Например, для поиска конфигурационных файлов предлагается запрос "inurl:conf OR inurl:config OR inurl:cfg" Для уменьшения информационного шума предлагается все та же техника редукции результатов поиска с помощью уточнений и/или запретов выдачи страниц с определенными словами. Для удобства приводятся большие таблицы с запросами для поиска распространенных конгфигурационных файлов и файлов журналов популярных программ. Потом автор переходит к более интересному вопросу - поиску офисных документов (Word, Excel и т.д.) Хотя примитивный запрос вроде "inurl:xls OR inurl:doc OR inurl:mdb" не сильно эффективен (можно использовать как альтернативу оператор filetype), его как всегда можно улучшить, добавив требования к наличию конкретных слов в тексте документа (например, password). Интересным примером запроса является "filetype:xls username password email" ![]() Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
|
CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 5563 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Vinni написал: Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси. по-моему, уже нельзя ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:47 Сообщение отредактировано: 7 ноября 2012 23:49
Далее в четвертой главе идет описание технологий поиска информации, интересной для тестирования на проникновение, но не для КР ![]() Но затем начинается описание простых скриптов на Perl ![]() Сначала описывается задача поиска всех адресов электронной почты в каком-то домене и для начала приводится скрипт для выделения из файла (полученного в резльтате поиска) адресов электронной почты с помощью регулярного выражения
Другое регулярное выражение позволит найти URL в файле
и полезно для автоматизации выделения ссылок из результатов поисковой выдачи Потом упоминается Google Desktop для поиска среди локальных файлов, найденных в результате поиска (привет Яндекс Десктопу ![]() |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 8 ноября 2012 0:13 Сообщение отредактировано: 8 ноября 2012 0:37
Пятая глава развивает тему автоматизации поиска и анализа его результатов... Сначала выдвигается тезис о том, что поиск, как правило, состоит из следующих шагов (далее мой вольный перевод ![]()
и подробно описывается каждый шаг Шаг уточнения поискового запроса рассматривается сначала на примере получения списка адресов e-mail какого-то домена. При этом приводится список типовых модификаций e-mail для защиты от спама и способы проверки валидности выделенного адреса e-mail. Потом рассматриваются случаи поиска телефонных номеров и людей по ФИО. Для уменьшения числа результатов поиска предлагается оператор site: Шаг получения страниц с данными с сайтов начинается с вдумчивого разбора структуры URL поискового запроса в Гугле и рассмотрения всевозможных простых вариантов утилит вместо веб-браузера для получения результатов поисковой выдачи - netcat, lynx, curl и wget. Анализ тегов страницы с поисковой выдачей производится с помощью FireBug (плагина Firefox). С его помощью выявляются строки с тегами, обрамляющие сниппеты на странице с поисковой выдачей. После этого описывается скрипт на perl, вызывающий curl для получения этой страницы и выделяющий с помощью найденных строк с тегами сниппеты ![]() Потом скрипт усложняется и из сниппета выделяются заголовок страницы, ее URL и собственно цитата из текста, приведенная в сниппете |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Затем рассматривается шаг парсинга результатов. Сначала описывается выделение из текста возможных вариантов написания e-mail и приведение их к каноническому виду с помощью регулярных выражений. Потом описываются возможные варианты написания телефонных номеров. Далее описываются примитивные варианты пост-обработки сниппетов как таковых или целых страниц. В частности, описывается сортировка страниц по релевантности. Приводится пример определения релевантности как нахождения на странице адресов e-mail, максимально похожих на ФИО человека, который ищется (для России надо будет использовать английский аналог ФИО ). Похожесть строк определяется как число совпадающих триграмм ![]() Далее кратко описывается предтеча Maltego ![]() Для повышения интереса приводится пример (с обезличенными данными) о том, как вычислить сотрудников одной из спецслужб (т.н агентства с именами из трех букв). Для начала ищутся телефонные номера на сайтах в домене xxx.gov. Потом берется строка с кодом города и АТС (исходя из предположения, что офисы агентства могут занимать почти всю номерную емкость АТС), которые упоминается в номерах и ищутся адреса e-mail, тел. номера и названия городов, находящиеся на тех же страницах, что и эта строка, в надежде на то, что кто-то из сотрудников указал свой личный email вместе со служебным номером телефона. И такой человек находится ![]() Другим примером является поиск Word-документов на сайтах какого-то агентства, выделение из их метаданных имени автора и поиск по этому имени профиля на LinkedIn. Для автоматизации далее приводится скрипт на Perl для получения метаданных офисного документа по ссылке на него и еще один, который посылает в Гугл запрос на офисные документы на сайтах определенного домена, и вызывает первый скрипт для автоматического получения метаданных для каждой из найденных ссылок |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Потом рассматривается вариант более сложного анализа (тоже с помощью EVOLUTION - все делается с его помощью) - установление связей между людьми (на примере их адресов e-mail) Для этого предлагается сначала найти для каждого из этих адресов e-mail все страницы с их упоминанием и выделить из них адреса веб-сайтов, email и номера телефонов,а потом сравнить результаты, чтобы выявить общее в них. Если совпадений нет, то берется каждый элемент результатов, полученных на первом шаге (адрес email и т.д.) для первого и второго email и для него делается то же самое, а затем снова ищется сходство между результатами ![]() ![]() Шестая глава для нас неинтересна, поэтому опустим ее ![]() |
CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 5563 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Уважаемый Vinni, ![]() ![]() ![]() ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
Николаич
Модератор форума
Откуда: г. Ростов-на-Дону Всего сообщений: 752 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Присоединяюсь! ![]() ![]() ![]() ![]() |
Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1024 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Спасибо! ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
fellix13
Член СПКР
Откуда: Екатеринбург Всего сообщений: 527 Рейтинг пользователя: 10 Ссылка Дата регистрации на форуме: 24 дек. 2010 |
Эх, кто тут последний покурить за углом..) ![]() |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 8 ноября 2012 16:57 Сообщение отредактировано: 8 ноября 2012 17:02
Воодушевленный коллегами, попробую продолжить. ![]() Седьмая глава называется интригующе - "десять простых поисковых запросов в области безопасности, которые работают" ![]() Для КР интересны не все запросы, поэтому привожу ниже меньшее количество
Кроме этого, приводятся запросы, которые могут быть интересны для последующего сбора информации с помощью социальной инженерии (рекомендую читать другую книгу Дж. Лонга - "NoTech hacking") Восьмая глава также посвящена поиску вещей, интересных только хакерам. ![]() Исключение составляет только информация о том, как искать сетевое оборудование, доступное через Интернет - прежде всего веб-камеры. В главе приведена большая таблица с запросами по поиску специфических моделей оборудования. |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Девятая глава посвящена поиску имен пользователей, их паролей и другой конфиденциальной информации. ![]() В ней приводятся большое число примеров запросов для поиска имен пользователей. Ниже приведены самые универсальные запросы
В некоторых случаях списки имен пользователей можно соборать с помощью программ статистики посещения сайтов. Например, следующий запрос требуется для нахождения страниц Webalizer-а - +intext:webalizer +intext:”Total Usernames” +intext:”Usage Statistics for”. Для поиска паролей также предлагается большое число запросов, ориентированных на конкретные программы. Ниже приведены самые универсальные из них
При этом рекомендуется помнить, что вместо английских слов в файлах могут употребляться их национальные аналоги (пароль, пользователь ти т.д.), поэтому надо и искать и их ![]() |
Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1024 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Ждем с нетерпением.... :) ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 9 ноября 2012 15:11 Сообщение отредактировано: 9 ноября 2012 15:11
Кстати, для удобства приводится таблица с переводами слова пароль (password) на другие языки - французский, немецкий и т.д. Дальше идет описание не очень интересных для КР (но интересных для хакеров) вещей - поиск номеров кредитных карт, SSN. Говорится о том, что в последние годы все больше людей использует персональные финансовые программы (явно не в России ![]() Наконец автор переходит к тому, как можно найти другую конфиденциальную информацию, которая может быть в весьма различных файлах. Приводится большая таблица с запросами по поиска таких файлов. Ниже выжимка из нее с самыми интересными запросами:
|
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 9 ноября 2012 15:48 Сообщение отредактировано: 9 ноября 2012 15:49
Десятая глава посвящена детальному рассмотрению дополнительных сервисов Google и в-целом неинтересна для КР, за исключением отдельных моментов. Сначала описывается Ajax API для поиска. Потом рассказывается о Google Calendar (календаре, который может разделяться с другими) и о том, что иногда по ошибке календари делаются доступными всему интернету и их элементы (порой конфиденциальные) видны при поиске в публичных календарях. Потом говорится о blogger.com и API для поиска в блогах и автоматического добавления в них постов. Говорится о спамерских блогах (splog-ах). Они интересны хакерам для того, чтобы без особых затрат создать привлекательную с точки зрения поисковиков страницу (и заманить туда таким образом много посетителей), а потом разместить на ней эксплойт и за счет популярности попытаться установить вредоносное ПО у большого числа ничего не подозревающих пользователей. Сначала приводится простой пример на Python для добавления постов. Затем предлагается более интересный скрипт - чтение постов чужого блога (через RSS) и перепост их в своем блоге. Заканчивается глава описанием Goole Alerts (уведомление по почте об изменениях в результатах поисковой выдачи по конкретному запросу) и Google Co-op (средством для создания собственных поисковых интерфейсов). 11ая глава напоминает выступления Андрея Масаловича и представляет из себя череду примеров того, какую конфиденциальную информацию можно обнаружить в Интернет с помощью Гугла (с большим количеством скриншотов): -незащищенные веб-интерфейсы сетевых устройств и телекоммуникационного оборудования -незащищенные административные интерфейсы форумов, баз данных и т.д. -вебкамеры,показывающие порой очень интересные вещи -разнообразная персональная конфиденциальная информация и пароли -отчеты полиции, номера кредитных карт и SSN Потом рассматривается случай сайта, у которого какое-то время была возможность просмотра оглавлений директории с информацией о сотрудниках, но потом эта директория была удалена. Увы, старая копия файла со списком сотрудников из этой директории ![]() Глава 12 посвящена описанию приемов защиты своей конфиденциальной информации от Гугла. Так как лучшая защита - это нападение, то в ней описывается Unix-программа Gooscan (находится на сайте _ttp://johnny.ihackstuff.com), написанная самим Дж. Лонгом, которая позволяет автоматизировать поиск в Гугле, но имеет только интерфейс командной строки. Также подробно рассматриваются Windows-программы - Athena (_ttp://snakeoillabs.com/) и Wikto(www.sensepost.com). Далее описывается плагин для Firefox "Google Rower" (www.tankedgenius.com) для обхода ограничения в одну тысячу результатов поиска с помощью добавления букв в запрос (например, для запроса JeffBall5 идет поиск "Jeffball55 a", затем "Jeffball55 b", затем "Jeffball55 c" и т.д.) Еще одним средством с того же сайта является Google Site Indexer, который карту директорий и файлов сайта с помощью гугла. Также для повышения удобства работы с операторами гугла предлагается плагин Advanced Dork (все тот же Firefox). На этом книга заканчивается ![]() |
Николаич
Модератор форума
Откуда: г. Ростов-на-Дону Всего сообщений: 752 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Vinni написал: На этом книга заканчивается Тонкая книжонка, видимо, это все же брошюра ![]() ![]() Уважаемый Vinni, спасибо! ![]() Я рискну задать вопрос - а можно ли каким-то образом осуществлять поиск в диапазоне IP-адресов? Это к вопросу о поиске Web-камер, как-то пробовал по этой книжке, все хорошо, но далеко - Гонконг, Япония... А как локализовать поиск так и не понял. Еще раз спасибо! |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Увы, наверное так не получится - в поисковом языке гугла нет операторов, позволяющих ограничить поиск диапазоном IP (site позволяет ограничить поиск только определенным доменом). ![]() Я бы предложил использовать доработанные скрипты из книги, и фильтровать результаты в Perl по диапазонам адресов ![]() |
Elena_Larina
Модератор форума
Всего сообщений: 221 Рейтинг пользователя: 9 Ссылка Дата регистрации на форуме: 25 нояб. 2010 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 9 ноября 2012 19:38 Сообщение отредактировано: 9 ноября 2012 19:38
Уважаемый Vinni! Полезней, чем Малаховец, увлекательнее чем Ле Карре. Респект. ![]() ---
Вопрос к блондинке. Какова вероятность встретить на улице динозавра? Блондинка отвечает... Мы ищем правильных людей, а не правильные резюме |
Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 10 ноября 2012 11:10 Сообщение отредактировано: 10 ноября 2012 11:11 Vinni написал: В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible). Да, это есть. Причем выполняется генерация массы вариантов, например, если ссылка: ret-4\exhc-1.xls, то можно прописать проверку множества URL: ret-1\exhc-1.xls, ret-1\exhc-2.xls, ret-1\exhc-3.xls, ... ret-2\exhc-1.xls ,... Подробнее в Иструкции в разделе "Поиск невидимых ссылок в окрестности видимой ссылки". Продолжу... |
Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Vinni написал: Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий Это тоже есть. Поиск папок открытых выполняется не только в Google, но и в Yahoo по пакету (ниже показан пакет, создаваемый автоматически по параметру "Имя сайта" (ресурса или веб-папки) для поиска открытых папок на сайте nalog.ru): site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Google=100 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Yahoo=100 ^^Exit>0 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Google=100 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Yahoo=100 ^^Exit>0 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Google=100 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Yahoo=100 Сначала идет строгий поиск: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" Елси он ничего не нашел, то менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" Елси и он ничего не нашел, то ещё менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" Это как писал Винни в топике #4 - "редукция результата" "для уменьшения информационного шума". Если найдутся открытые папки, то они будут открыты, выполнится проход по их вложенным папкам и найденные файлы попадут в Карту сайта. Это из варианта Invisible. Продолжу... |
Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 10 ноября 2012 11:42 Сообщение отредактировано: 10 ноября 2012 12:04 Vinni написал: Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию: Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". Его можно разбить на отдельные целевые. Можно добавить поиск интересных файлов и ссылок в других поисковиках или источниках. Можно добавить свои запросы в пакет. Например, сообщения #15 и #17 можно тоже "помеcтить" в пакет и выполнять одним махом и, немаловажно, без повтора ссылок, находимых по разным запросам, разными поисковиками, или по разным источникам. Запомнить все варианты запросов сложно, выполнять по-отдельности долго. ^^ТЕКСТ ПАКЕТА ^^Поиск ссылок и файлов, которые могут Быть интересны ^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365 ^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы ^^<3>=3;7;20;100 //Глубина поиска site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1 site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2 site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3 site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Спасибо, Алексей за предоставленные пакеты! ![]() |
Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Чтобы воспользоваться пакетом из сообщения #24 следует: - живьём скопировать его текст из сообщения в буфер обмена, - открыть программу SiteSputnik, в подменю "Золотого ключика" выбрать "Пакеты+ с параметрами - Создать - С чистого листа". - ввести имя создаваемого пакета, например, "Интересные ссылки", - восстановить из буфера обмена скопированный тест, оставив только его, и сохранить файл. Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз. Затем: - нажать на "Золотой ключик", потом на кнопку "Пакет+", - выбрать в открывшемся диалоге "Интересные ссылки", - ввести параметр - имя своего сайта и нажать на кнопку "Совместно". Для полного выполнения пакета достаточно иметь SiteSputnik Pro. |
Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1024 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Алексей Мыльников написал: Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". ... Очень разумное решение собрать в один пакет все запросы к Google для поиска дырок на сайте - спасибо! Экономия времени налицо. Да и гарантия, что не забыл какой то вариант. Уже использовал и получил результат. Кстати, это уже к Vinni, возможно есть еще интересные варианты использования запросов в Google, которые можно "вшить" в пакет к СайтСпутнику. ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Конечно есть - ![]() |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Сорри - не ту ссылку дал. Надо смотреть запросы в _ttp://www.exploit-db.com/google-dorks/ он регулярно пополняется Мне кажется, стоит добавить еще запросы
|
Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1024 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Та ссылка тоже ничего так :) ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 5563 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 11 ноября 2012 20:33 Сообщение отредактировано: 11 ноября 2012 20:35 Алексей Мыльников написал: Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз. А у меня не получилось. Открылся OpenOffice, предложил какие-то параметры таблицы сделать - я согласился. Он сделал таблицу у которой в первой ячейке было что-то типа <1> . Я это оттуда стер, и вставил туда из буфера обмена вот этот массив: ---------------------------- ^^ТЕКСТ ПАКЕТА ^^Поиск ссылок и файлов, которые могут Быть интересны ^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365 ^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы ^^<3>=3;7;20;100 //Глубина поиска site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1 site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2 site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3 site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов ---------------------------- Потом сохранил в том формате, в котором OpenOffice, опять же, предложил. Вызвал пакет из СайтСпутника - пройдя по меню, описанному уважаемым Алексеем. Пакет отработал какое-то время по конкретному сайту. Принес некоторое количество результатов с релевантным, по его мнению, словосочетанием "двойные кавычки" на английском языке. И без привязки к сайту. Я понимаю, что что-то не так, но, увы, не понимаю что именно - я, к сожалению, далек от "птичек" из которых пишутся пакеты. ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
Искендер
Администратор
Всего сообщений: 5913 Рейтинг пользователя: 43 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Толковый и полезный пакет. Спасибо уважаемому Алексею и уважаемому Винни! ![]() Требует, однако, некоторой доработки, что по силам каждому и даже напильник не понадобится. К примеру, есть смысл добавить в пакет строки: site:<1> filetype:doc Конфиденциально || Google=<3> ^^ приватные данные... site:<1> filetype:pdf Конфиденциально || Google=<3> ^^ приватные данные... site:<1> filetype:doc "секретно" || Google=<3> ^^ приватные данные... site:<1> filetype:pdf "секретно" || Google=<3> ^^ приватные данные... Ну и с другими форматами файлов. После небольшого редактирования дело пошло куда как веселее! ![]() |
Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку. |
Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Искендер написал: К примеру, есть смысл добавить в пакет строки: ... Да, добавить можно немало и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google. |
Искендер
Администратор
Всего сообщений: 5913 Рейтинг пользователя: 43 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Алексей Мыльников написал: и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google. Разумеется. Но даже простое расширение запросов в части типов документов в рамках одного только Гугла - уже дает значительный "прирост КПД". |
CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 5563 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Для: Алексей Мыльников Алексей Мыльников написал: Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку. Спасибо! ![]() ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
кстати, жизнь подкинула еще один вариант прокси с помощью другого сервиса гугла - Google Docs в режиме viewer. В этом режиме при обращении к этому сервису можно указать любой URL и нужный документ будет загружен через сервера гугла на компьютер. Обнаружено это было при анализа одного из бразильских троянов - см. _ttp://www.h-online.com/security/news/item/Trojan-uses-Google-Docs-to-communicate-with-its-control-server-1752343.html |
tungus1973
Модератор форума
Откуда: г. Санкт-Петербург Всего сообщений: 795 Рейтинг пользователя: 11 Ссылка Дата регистрации на форуме: 3 июля 2009 |
Кстати, сегодня робот попытался зайти на сайт GHDB за обновлениями и обнаружил автоматическую переадресацию на поисковик Google. Google выкупил этот сайт у Jonny Long'а и закрыл? |
Vinni
Администратор
Всего сообщений: 2126 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Да нет - видимо он сам закрыл проект и поставил переадресацию для корня сайта на гугл. Если обращаться не в корень сайт Но есть еще _ttp://www.exploit-db.com/google-dorks/ |
tungus1973
Модератор форума
Откуда: г. Санкт-Петербург Всего сообщений: 795 Рейтинг пользователя: 11 Ссылка Дата регистрации на форуме: 3 июля 2009 |
Vinni написал: Но есть еще _ttp://www.exploit-db.com/google-dorks/ Тоже выкачал. Периодически пополняю... |
<<Назад Вперед>> | Страницы: 1 2 3 4 | Печать |
Форум Сообщества Практиков Конкурентной разведки (СПКР) » Технологии работы и инструменты конкурентной разведки » Google для КР (перечитывая книгу Дж. Лонга) |
![]() |
Самые активные 20 тем |
![]() |