Форум Сообщества Практиков Конкурентной разведки (СПКР) » Технологии работы и инструменты конкурентной разведки » Google для КР (перечитывая книгу Дж. Лонга) |
![]() |
| <<Назад Вперед>> | Страницы: 1 2 3 4 | Печать |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Думаю, что многим на этом форуме известна книга "Google Hacking for Penetration Testers, Volume 2" (именно второе издание - Volume 2! ) Если перечитать ее с точки зрения советов, полезных для сбора информации об организациях, с помощью Гугла, то получается не так уж и много Первые две ее главы являются просто введением в поисковый язык Google и его операторы. Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси.
И только с третьей главы начинается интересное |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Там рассматривается анонимный доступ к нужным сайтам с помощью кэша Гугла (ссылки cached или "Сохраненная копия" для результатов поисковой выдачи). Автор даже запускает сниффер и смотрит, куда будут обращения при просмотре кэшированной страницы на его машине. Увы, при этом обнаруживается, что к интересующему сайту таки будут обращения за графическими файлами, на которые есть ссылка на странице (я сам регулярно вижу такие обращения в логах своего корпоративного внешнего веб-сервера). Но не все потеряно - оказывается на заголовке кэшированной страницы сверху есть ссылка "Текстовая версия" и при ее просмотре никаких обращений к сайту не происходит. Чтобы напрямую получить ссылку на текстовую версию кэшированной страницы достаточно добавить в конце URL кэшированной страницы &strip=1 |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:05 Сообщение отредактировано: 7 ноября 2012 23:14
Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий веб-сервера (привет Андрею Масаловичу )Для того чтобы обнаружить такие страницы в первом приближении, нужно добавить в запрос "intitle:index.of" (точка - это любой символ согласно поисковому языку гугла) Так как этот запрос дает много информационного шума, предлагаются более точные запросы, в которых указываются служебные заголовки, часто встречающиеся на таких страницах 1) intitle:index.of “parent directory” 2) intitle:index.of name size Так как часто интересует доступность оглавления конкретной директории на веб-сервере, то нужно добавить ее имя в запрос. Например, для поиска оглавлений директории admin рекомендуются запросы: 1)intitle:index.of.admin 2) intitle:index.of inurl:admin Иногда интересует возможность доступа к конкретному файлу через оглавление. В таких случаях предлагаются добавить имя файла. Например, для поиска ws_ftp.log предлагается запрос intitle:index.of ws_ftp.log Далее дается понятие о пересечении директорий (directory traversal) и описываются его виды. В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible). |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:30 Сообщение отредактировано: 7 ноября 2012 23:36
В четвертой главе описывается, как искать файлы тех или иных типов с помощью операторов filetype: и inurl: Например, для поиска конфигурационных файлов предлагается запрос "inurl:conf OR inurl:config OR inurl:cfg" Для уменьшения информационного шума предлагается все та же техника редукции результатов поиска с помощью уточнений и/или запретов выдачи страниц с определенными словами. Для удобства приводятся большие таблицы с запросами для поиска распространенных конгфигурационных файлов и файлов журналов популярных программ. Потом автор переходит к более интересному вопросу - поиску офисных документов (Word, Excel и т.д.) Хотя примитивный запрос вроде "inurl:xls OR inurl:doc OR inurl:mdb" не сильно эффективен (можно использовать как альтернативу оператор filetype), его как всегда можно улучшить, добавив требования к наличию конкретных слов в тексте документа (например, password). Интересным примером запроса является "filetype:xls username password email" Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию:
|
| CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 6036 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Vinni написал: Из полезного там есть только совет о том, что можно использовать сервис перевода страниц как прокси. по-моему, уже нельзя ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 7 ноября 2012 23:47 Сообщение отредактировано: 7 ноября 2012 23:49
Далее в четвертой главе идет описание технологий поиска информации, интересной для тестирования на проникновение, но не для КР Но затем начинается описание простых скриптов на Perl для автоматизации анализа информации.Сначала описывается задача поиска всех адресов электронной почты в каком-то домене и для начала приводится скрипт для выделения из файла (полученного в резльтате поиска) адресов электронной почты с помощью регулярного выражения
Другое регулярное выражение позволит найти URL в файле
и полезно для автоматизации выделения ссылок из результатов поисковой выдачи Потом упоминается Google Desktop для поиска среди локальных файлов, найденных в результате поиска (привет Яндекс Десктопу ) |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 8 ноября 2012 0:13 Сообщение отредактировано: 8 ноября 2012 0:37
Пятая глава развивает тему автоматизации поиска и анализа его результатов... Сначала выдвигается тезис о том, что поиск, как правило, состоит из следующих шагов (далее мой вольный перевод ):
и подробно описывается каждый шаг Шаг уточнения поискового запроса рассматривается сначала на примере получения списка адресов e-mail какого-то домена. При этом приводится список типовых модификаций e-mail для защиты от спама и способы проверки валидности выделенного адреса e-mail. Потом рассматриваются случаи поиска телефонных номеров и людей по ФИО. Для уменьшения числа результатов поиска предлагается оператор site: Шаг получения страниц с данными с сайтов начинается с вдумчивого разбора структуры URL поискового запроса в Гугле и рассмотрения всевозможных простых вариантов утилит вместо веб-браузера для получения результатов поисковой выдачи - netcat, lynx, curl и wget. Анализ тегов страницы с поисковой выдачей производится с помощью FireBug (плагина Firefox). С его помощью выявляются строки с тегами, обрамляющие сниппеты на странице с поисковой выдачей. После этого описывается скрипт на perl, вызывающий curl для получения этой страницы и выделяющий с помощью найденных строк с тегами сниппеты Потом скрипт усложняется и из сниппета выделяются заголовок страницы, ее URL и собственно цитата из текста, приведенная в сниппете |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Затем рассматривается шаг парсинга результатов. Сначала описывается выделение из текста возможных вариантов написания e-mail и приведение их к каноническому виду с помощью регулярных выражений. Потом описываются возможные варианты написания телефонных номеров. Далее описываются примитивные варианты пост-обработки сниппетов как таковых или целых страниц. В частности, описывается сортировка страниц по релевантности. Приводится пример определения релевантности как нахождения на странице адресов e-mail, максимально похожих на ФИО человека, который ищется (для России надо будет использовать английский аналог ФИО ). Похожесть строк определяется как число совпадающих триграмм Далее кратко описывается предтеча Maltego система Evolution. Для повышения интереса приводится пример (с обезличенными данными) о том, как вычислить сотрудников одной из спецслужб (т.н агентства с именами из трех букв). Для начала ищутся телефонные номера на сайтах в домене xxx.gov. Потом берется строка с кодом города и АТС (исходя из предположения, что офисы агентства могут занимать почти всю номерную емкость АТС), которые упоминается в номерах и ищутся адреса e-mail, тел. номера и названия городов, находящиеся на тех же страницах, что и эта строка, в надежде на то, что кто-то из сотрудников указал свой личный email вместе со служебным номером телефона. И такой человек находится Номер телефона указан как номер теннисного клуба, но он подозрительно похож на номера офиса агентства.Другим примером является поиск Word-документов на сайтах какого-то агентства, выделение из их метаданных имени автора и поиск по этому имени профиля на LinkedIn. Для автоматизации далее приводится скрипт на Perl для получения метаданных офисного документа по ссылке на него и еще один, который посылает в Гугл запрос на офисные документы на сайтах определенного домена, и вызывает первый скрипт для автоматического получения метаданных для каждой из найденных ссылок |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Потом рассматривается вариант более сложного анализа (тоже с помощью EVOLUTION - все делается с его помощью) - установление связей между людьми (на примере их адресов e-mail) Для этого предлагается сначала найти для каждого из этих адресов e-mail все страницы с их упоминанием и выделить из них адреса веб-сайтов, email и номера телефонов,а потом сравнить результаты, чтобы выявить общее в них. Если совпадений нет, то берется каждый элемент результатов, полученных на первом шаге (адрес email и т.д.) для первого и второго email и для него делается то же самое, а затем снова ищется сходство между результатами и так до победного конца ...Шестая глава для нас неинтересна, поэтому опустим ее |
| CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 6036 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Уважаемый Vinni, ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
| Николаич
Модератор форума
Откуда: г. Ростов-на-Дону Всего сообщений: 1007 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Присоединяюсь! |
| Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1258 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Спасибо! ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
| fellix13
Член СПКР
Откуда: Екатеринбург Всего сообщений: 577 Рейтинг пользователя: 10 Ссылка Дата регистрации на форуме: 24 дек. 2010 |
Эх, кто тут последний покурить за углом..) |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 8 ноября 2012 16:57 Сообщение отредактировано: 8 ноября 2012 17:02
Воодушевленный коллегами, попробую продолжить. Седьмая глава называется интригующе - "десять простых поисковых запросов в области безопасности, которые работают" Для КР интересны не все запросы, поэтому привожу ниже меньшее количество
Кроме этого, приводятся запросы, которые могут быть интересны для последующего сбора информации с помощью социальной инженерии (рекомендую читать другую книгу Дж. Лонга - "NoTech hacking") Восьмая глава также посвящена поиску вещей, интересных только хакерам. Исключение составляет только информация о том, как искать сетевое оборудование, доступное через Интернет - прежде всего веб-камеры. В главе приведена большая таблица с запросами по поиску специфических моделей оборудования. |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Девятая глава посвящена поиску имен пользователей, их паролей и другой конфиденциальной информации. В ней приводятся большое число примеров запросов для поиска имен пользователей. Ниже приведены самые универсальные запросы
В некоторых случаях списки имен пользователей можно соборать с помощью программ статистики посещения сайтов. Например, следующий запрос требуется для нахождения страниц Webalizer-а - +intext:webalizer +intext:”Total Usernames” +intext:”Usage Statistics for”. Для поиска паролей также предлагается большое число запросов, ориентированных на конкретные программы. Ниже приведены самые универсальные из них
При этом рекомендуется помнить, что вместо английских слов в файлах могут употребляться их национальные аналоги (пароль, пользователь ти т.д.), поэтому надо и искать и их |
| Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1258 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Ждем с нетерпением.... :) ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 9 ноября 2012 15:11 Сообщение отредактировано: 9 ноября 2012 15:11
Кстати, для удобства приводится таблица с переводами слова пароль (password) на другие языки - французский, немецкий и т.д. Дальше идет описание не очень интересных для КР (но интересных для хакеров) вещей - поиск номеров кредитных карт, SSN. Говорится о том, что в последние годы все больше людей использует персональные финансовые программы (явно не в России ) и что иногда их рабочие файлы доступны через Интернет (приводится таблица с расширениями файлов популярных персональных финансовых программ).Наконец автор переходит к тому, как можно найти другую конфиденциальную информацию, которая может быть в весьма различных файлах. Приводится большая таблица с запросами по поиска таких файлов. Ниже выжимка из нее с самыми интересными запросами:
|
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 9 ноября 2012 15:48 Сообщение отредактировано: 9 ноября 2012 15:49
Десятая глава посвящена детальному рассмотрению дополнительных сервисов Google и в-целом неинтересна для КР, за исключением отдельных моментов. Сначала описывается Ajax API для поиска. Потом рассказывается о Google Calendar (календаре, который может разделяться с другими) и о том, что иногда по ошибке календари делаются доступными всему интернету и их элементы (порой конфиденциальные) видны при поиске в публичных календарях. Потом говорится о blogger.com и API для поиска в блогах и автоматического добавления в них постов. Говорится о спамерских блогах (splog-ах). Они интересны хакерам для того, чтобы без особых затрат создать привлекательную с точки зрения поисковиков страницу (и заманить туда таким образом много посетителей), а потом разместить на ней эксплойт и за счет популярности попытаться установить вредоносное ПО у большого числа ничего не подозревающих пользователей. Сначала приводится простой пример на Python для добавления постов. Затем предлагается более интересный скрипт - чтение постов чужого блога (через RSS) и перепост их в своем блоге. Заканчивается глава описанием Goole Alerts (уведомление по почте об изменениях в результатах поисковой выдачи по конкретному запросу) и Google Co-op (средством для создания собственных поисковых интерфейсов). 11ая глава напоминает выступления Андрея Масаловича и представляет из себя череду примеров того, какую конфиденциальную информацию можно обнаружить в Интернет с помощью Гугла (с большим количеством скриншотов): -незащищенные веб-интерфейсы сетевых устройств и телекоммуникационного оборудования -незащищенные административные интерфейсы форумов, баз данных и т.д. -вебкамеры,показывающие порой очень интересные вещи -разнообразная персональная конфиденциальная информация и пароли -отчеты полиции, номера кредитных карт и SSN Потом рассматривается случай сайта, у которого какое-то время была возможность просмотра оглавлений директории с информацией о сотрудниках, но потом эта директория была удалена. Увы, старая копия файла со списком сотрудников из этой директории осталась на сайте Веб-архива (archive.org) и была восстановлена с его помощью. Глава 12 посвящена описанию приемов защиты своей конфиденциальной информации от Гугла. Так как лучшая защита - это нападение, то в ней описывается Unix-программа Gooscan (находится на сайте _ttp://johnny.ihackstuff.com), написанная самим Дж. Лонгом, которая позволяет автоматизировать поиск в Гугле, но имеет только интерфейс командной строки. Также подробно рассматриваются Windows-программы - Athena (_ttp://snakeoillabs.com/) и Wikto(www.sensepost.com). Далее описывается плагин для Firefox "Google Rower" (www.tankedgenius.com) для обхода ограничения в одну тысячу результатов поиска с помощью добавления букв в запрос (например, для запроса JeffBall5 идет поиск "Jeffball55 a", затем "Jeffball55 b", затем "Jeffball55 c" и т.д.) Еще одним средством с того же сайта является Google Site Indexer, который карту директорий и файлов сайта с помощью гугла. Также для повышения удобства работы с операторами гугла предлагается плагин Advanced Dork (все тот же Firefox). На этом книга заканчивается |
| Николаич
Модератор форума
Откуда: г. Ростов-на-Дону Всего сообщений: 1007 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Vinni написал: На этом книга заканчивается Тонкая книжонка, видимо, это все же брошюра Уважаемый Vinni, спасибо! Я рискну задать вопрос - а можно ли каким-то образом осуществлять поиск в диапазоне IP-адресов? Это к вопросу о поиске Web-камер, как-то пробовал по этой книжке, все хорошо, но далеко - Гонконг, Япония... А как локализовать поиск так и не понял. Еще раз спасибо! |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Увы, наверное так не получится - в поисковом языке гугла нет операторов, позволяющих ограничить поиск диапазоном IP (site позволяет ограничить поиск только определенным доменом). Я бы предложил использовать доработанные скрипты из книги, и фильтровать результаты в Perl по диапазонам адресов |
| Elena_Larina
Модератор форума
Всего сообщений: 220 Рейтинг пользователя: 9 Ссылка Дата регистрации на форуме: 25 нояб. 2010 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 9 ноября 2012 19:38 Сообщение отредактировано: 9 ноября 2012 19:38
Уважаемый Vinni! Полезней, чем Малаховец, увлекательнее чем Ле Карре. Респект. ---
Вопрос к блондинке. Какова вероятность встретить на улице динозавра? Блондинка отвечает... Мы ищем правильных людей, а не правильные резюме |
| Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 10 ноября 2012 11:10 Сообщение отредактировано: 10 ноября 2012 11:11 Vinni написал: В частности описывается инкрементальная подстановка, когда обнаружив файл с именем exhc-1.xls, стоит попробовать нет ли файла exhc-2.xls и так далее (привет СайтСпутнику, в котором реализован такой режим в версии Invisible). Да, это есть. Причем выполняется генерация массы вариантов, например, если ссылка: ret-4\exhc-1.xls, то можно прописать проверку множества URL: ret-1\exhc-1.xls, ret-1\exhc-2.xls, ret-1\exhc-3.xls, ... ret-2\exhc-1.xls ,... Подробнее в Иструкции в разделе "Поиск невидимых ссылок в окрестности видимой ссылки". Продолжу... |
| Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Vinni написал: Вторая интересная вещь в третьей главе - рассказ про просмотр оглавлений директорий Это тоже есть. Поиск папок открытых выполняется не только в Google, но и в Yahoo по пакету (ниже показан пакет, создаваемый автоматически по параметру "Имя сайта" (ресурса или веб-папки) для поиска открытых папок на сайте nalog.ru): site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Google=100 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" || Yahoo=100 ^^Exit>0 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Google=100 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" || Yahoo=100 ^^Exit>0 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Google=100 site:nalog.ru -inurl:htm -inurl:html intitle:"index of" || Yahoo=100 Сначала идет строгий поиск: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "Parent Directory" Елси он ничего не нашел, то менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" "index of" Елси и он ничего не нашел, то ещё менее строгий: site:nalog.ru -inurl:htm -inurl:html intitle:"index of" Это как писал Винни в топике #4 - "редукция результата" "для уменьшения информационного шума". Если найдутся открытые папки, то они будут открыты, выполнится проход по их вложенным папкам и найденные файлы попадут в Карту сайта. Это из варианта Invisible. Продолжу... |
| Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 10 ноября 2012 11:42 Сообщение отредактировано: 10 ноября 2012 12:04 Vinni написал: Далее приводятся другие интересные запросы, позволяющие обнаружить документы, потенциально содержащие конфиденциальную информацию: Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". Его можно разбить на отдельные целевые. Можно добавить поиск интересных файлов и ссылок в других поисковиках или источниках. Можно добавить свои запросы в пакет. Например, сообщения #15 и #17 можно тоже "помеcтить" в пакет и выполнять одним махом и, немаловажно, без повтора ссылок, находимых по разным запросам, разными поисковиками, или по разным источникам. Запомнить все варианты запросов сложно, выполнять по-отдельности долго. ^^ТЕКСТ ПАКЕТА ^^Поиск ссылок и файлов, которые могут Быть интересны ^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365 ^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы ^^<3>=3;7;20;100 //Глубина поиска site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1 site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2 site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3 site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Спасибо, Алексей за предоставленные пакеты! |
| Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Чтобы воспользоваться пакетом из сообщения #24 следует: - живьём скопировать его текст из сообщения в буфер обмена, - открыть программу SiteSputnik, в подменю "Золотого ключика" выбрать "Пакеты+ с параметрами - Создать - С чистого листа". - ввести имя создаваемого пакета, например, "Интересные ссылки", - восстановить из буфера обмена скопированный тест, оставив только его, и сохранить файл. Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз. Затем: - нажать на "Золотой ключик", потом на кнопку "Пакет+", - выбрать в открывшемся диалоге "Интересные ссылки", - ввести параметр - имя своего сайта и нажать на кнопку "Совместно". Для полного выполнения пакета достаточно иметь SiteSputnik Pro. |
| Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1258 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Алексей Мыльников написал: Ниже в сообщении размещен текст пакета с параметрами для поиска всех интересных ссылок "одним махом". ... Очень разумное решение собрать в один пакет все запросы к Google для поиска дырок на сайте - спасибо! Экономия времени налицо. Да и гарантия, что не забыл какой то вариант. Уже использовал и получил результат. Кстати, это уже к Vinni, возможно есть еще интересные варианты использования запросов в Google, которые можно "вшить" в пакет к СайтСпутнику. ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Конечно есть - |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Сорри - не ту ссылку дал. Надо смотреть запросы в _ttp://www.exploit-db.com/google-dorks/ он регулярно пополняется Мне кажется, стоит добавить еще запросы
|
| Игорь Нежданов
Модератор форума
Прагматик Откуда: Советский Союз Всего сообщений: 1258 Рейтинг пользователя: 13 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Та ссылка тоже ничего так :) ---
Есть вопрос - спрашивайте. На прямой вопрос будет прямой ответ... Лаборатория Перспективных Разработок |
| CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 6036 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Профиль | Игнорировать
NEW! Сообщение отправлено: 11 ноября 2012 20:33 Сообщение отредактировано: 11 ноября 2012 20:35 Алексей Мыльников написал: Пакет с параметрами будет создан и доступен из SiteSputnik(a). Это делается один раз. А у меня не получилось. Открылся OpenOffice, предложил какие-то параметры таблицы сделать - я согласился. Он сделал таблицу у которой в первой ячейке было что-то типа <1> . Я это оттуда стер, и вставил туда из буфера обмена вот этот массив: ---------------------------- ^^ТЕКСТ ПАКЕТА ^^Поиск ссылок и файлов, которые могут Быть интересны ^^Составлено по "следам" темы, созданный Vinni: forum.razved.info/index.php?t=3365 ^^<1>=nalog.ru;forum.razvd.info //Имя ресурса, на котором ищут ссылки и файлы ^^<3>=3;7;20;100 //Глубина поиска site:<1> filetype:xls username password email || Google=<3> ^^ пароли самые разные site:<1> filetype:xls inurl:”password.xls” || Google=<3> ^^ пароли site:<1> filetype:xls private || Google=<3> ^^ приватные данные 1 site:<1> filetype:xls Конфиденциально || Google=<3> ^^ приватные данные 2 site:<1> filetype:xls "секретно" || Google=<3> ^^ приватные данные 3 site:<1> Inurl:admin filetype:xls || Google=<3> ^^ административные данные site:<1> filetype:xls inurl:contact || Google=<3> ^^ контактная информация, адреса e-mail site:<1> filetype:xls inurl:”email.xls” || Google=<3> ^^ адреса E-mail, имена site:<1> allinurl: admin mdb || Google=<3> ^^ административные БД site:<1> filetype:mdb inurl:users.mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Inurl:email filetype:mdb || Google=<3> ^^ списки пользователей, адреса e-mail site:<1> Data filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> Inurl:backup filetype:mdb || Google=<3> ^^ архивные копии БД site:<1> Inurl:profiles filetype:mdb || Google=<3> ^^ профили пользователей site:<1> Inurl:*db filetype:mdb || Google=<3> ^^ различные данные (используйте как базовый поиск) site:<1> inurl:temp | inurl:tmp | inurl:backup | inurl:bak || Google=<3> ^^ временные файлы и директории, а также архивные копии файлов ---------------------------- Потом сохранил в том формате, в котором OpenOffice, опять же, предложил. Вызвал пакет из СайтСпутника - пройдя по меню, описанному уважаемым Алексеем. Пакет отработал какое-то время по конкретному сайту. Принес некоторое количество результатов с релевантным, по его мнению, словосочетанием "двойные кавычки" на английском языке. И без привязки к сайту. Я понимаю, что что-то не так, но, увы, не понимаю что именно - я, к сожалению, далек от "птичек" из которых пишутся пакеты. ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
| Искендер
Администратор
Всего сообщений: 6347 Рейтинг пользователя: 43 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Толковый и полезный пакет. Спасибо уважаемому Алексею и уважаемому Винни! Требует, однако, некоторой доработки, что по силам каждому и даже напильник не понадобится. К примеру, есть смысл добавить в пакет строки: site:<1> filetype:doc Конфиденциально || Google=<3> ^^ приватные данные... site:<1> filetype:pdf Конфиденциально || Google=<3> ^^ приватные данные... site:<1> filetype:doc "секретно" || Google=<3> ^^ приватные данные... site:<1> filetype:pdf "секретно" || Google=<3> ^^ приватные данные... Ну и с другими форматами файлов. После небольшого редактирования дело пошло куда как веселее! |
| Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку. |
| Алексей Мыльников
Долгожитель форума
Откуда: Волгоград Всего сообщений: 877 Рейтинг пользователя: 6 Ссылка Дата регистрации на форуме: 22 июня 2009 |
Искендер написал: К примеру, есть смысл добавить в пакет строки: ... Да, добавить можно немало и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google. |
| Искендер
Администратор
Всего сообщений: 6347 Рейтинг пользователя: 43 Ссылка Дата регистрации на форуме: 7 июня 2009 |
Алексей Мыльников написал: и не только новые запросы, но и подобные поиски на Yahoo, на Яндексе, можно поручить кое-что Bing(у) , поиску по блогам Яндекса и Google. Разумеется. Но даже простое расширение запросов в части типов документов в рамках одного только Гугла - уже дает значительный "прирост КПД". |
| CI-KP
Администратор
Откуда: Екатеринбург Всего сообщений: 6036 Рейтинг пользователя: 24 Ссылка Дата регистрации на форуме: 15 мая 2009 |
Для: Алексей Мыльников Алексей Мыльников написал: Евгений (CI-КР), предложу другой способ: попробуйте на рабочем столе создать в Блокноте файл "Какое-то имя" (расширение txt), скопипастите в него текст пакета, сохраните и перекиньте в папку "Condition Forms", а потом обратитесь к нему через "Золотой ключик" - "Пакет+" - "Какое-то имя". В качестве параметра введите нужный сайт, ресурс или веб-папку. Спасибо! Так - получилось! ---
Ющук Евгений Леонидович, профессор УрГЭУ. www.razvedka-internet.ru; www.ci-razvedka.ru Не всегда нужно стремиться совершать кражу со взломом там, где можно войти через дверь. |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
кстати, жизнь подкинула еще один вариант прокси с помощью другого сервиса гугла - Google Docs в режиме viewer. В этом режиме при обращении к этому сервису можно указать любой URL и нужный документ будет загружен через сервера гугла на компьютер. Обнаружено это было при анализа одного из бразильских троянов - см. _ttp://www.h-online.com/security/news/item/Trojan-uses-Google-Docs-to-communicate-with-its-control-server-1752343.html |
| tungus1973
Модератор форума
Откуда: г. Санкт-Петербург Всего сообщений: 872 Рейтинг пользователя: 11 Ссылка Дата регистрации на форуме: 3 июля 2009 |
Кстати, сегодня робот попытался зайти на сайт GHDB за обновлениями и обнаружил автоматическую переадресацию на поисковик Google. Google выкупил этот сайт у Jonny Long'а и закрыл? |
| Vinni
Администратор
Всего сообщений: 2632 Рейтинг пользователя: 22 Ссылка Дата регистрации на форуме: 5 июня 2009 |
Да нет - видимо он сам закрыл проект и поставил переадресацию для корня сайта на гугл. Если обращаться не в корень сайт Но есть еще _ttp://www.exploit-db.com/google-dorks/ |
| tungus1973
Модератор форума
Откуда: г. Санкт-Петербург Всего сообщений: 872 Рейтинг пользователя: 11 Ссылка Дата регистрации на форуме: 3 июля 2009 |
Vinni написал: Но есть еще _ttp://www.exploit-db.com/google-dorks/ Тоже выкачал. Периодически пополняю... |
| <<Назад Вперед>> | Страницы: 1 2 3 4 | Печать |
Форум Сообщества Практиков Конкурентной разведки (СПКР) » Технологии работы и инструменты конкурентной разведки » Google для КР (перечитывая книгу Дж. Лонга) |
![]() |
| Самые активные 20 тем |
![]() |