ANDROID

[ANDROID][bsummary]

FACEBOOK

[FACEBOOK][twocolumns]

NOTÍCIAS

[NOTÍCIAS][bleft]

KALI LINUX

[KALI LINUX][grids]

Analise a segurança de qualquer domínio para encontrar toda a informação possível


analisador de domínio é uma ferramenta de análise de segurança que descobre e relata automaticamente informações sobre o domínio dado. O objetivo principal é analisar os domínios de forma desatada.


Como
analisador de domínio toma um nome de domínio e encontra informações sobre isso, como servidores DNS, servidores de correio, endereços IP, correios no Google, informações SPF, etc. Depois de todas as informações serem armazenadas e organizadas, varre as portas de cada IP encontrado usando nmap e executar várias outras verificações de segurança. Depois que as portas são encontradas, ele usa a ferramenta crawler.py de @verovaleros, para exibir a página completa de todas as portas da Web encontradas. Esta ferramenta tem a opção de baixar arquivos e encontrar pastas abertas.
A versão atual é 0.8 e as principais características são:
  • Ele cria um diretório com todas as informações, incluindo arquivos de saída do nmap.
  • Ele usa cores para observar informações importantes no console.
  • Ele detecta alguns problemas de segurança como problemas de nomes de host, números de portas incomuns e transferências de zona.
  • É fortemente testado e é muito robusto contra problemas de configuração de DNS.
  • Ele usa nmap para detecção de host ativo, varredura de portas e informações de versão (incluindo scripts nmap).
  • Ele busca informações de registros SPF para encontrar novos nomes de host ou endereços IP.
  • Ele busca nomes DNS reversos e compare-os com o nome do host.
  • Ele imprime o país de cada endereço IP.
  • Ele cria um arquivo PDF com resultados.
  • Ele detecta e analisa automaticamente os sub-domínios!
  • Ele procura emails de domínios.
  • Ele verifica os 192 nomes de host mais comuns nos servidores DNS.
  • Ele verifica a Transferência de Zona em cada servidor de DNS.
  • Encontra os nomes inversos da faixa de rede / 24 de cada endereço IP.
  • Ele encontra o host ativo usando o conjunto completo de técnicas do nmap.
  • Ele verifica as portas usando o nmap (lembre-se que, para a varredura SYN, você precisa precisar de root).
  • Ele procura informações de host e porta usando nmap.
  • Ele detecta automaticamente servidores web usados.
  • Ele rasteja cada página do servidor web usando nossa ferramenta crawler.py. Veja a descrição abaixo.
  • Ele filtra nomes de host com base em seu nome.
  • Ele busca pseudo-aleatoriamente N domínios no Google e analisa-os automaticamente!
  • Usa CTRL-C para parar o estágio de análise atual e continuar trabalhando.
  • Pode ler um arquivo externo com nomes de domínio e tentar encontrá-los no domínio.

Recursos de bônus
@verovaleros desenvolveu um rastreador de página de python separado chamado "crawler.py". Suas principais características são:

  • Rastrear sites http e https.
  • Rastrear sites http e https que não utilizem portas comuns.
  • Usa expressões regulares para encontrar 'href' e 'src' tag html. Também links de conteúdo.
  • Identifica links relativos.
  • Identifica e-mails relacionados ao domínio.
  • Identifica indexação de diretório.
  • Detecta referências a URLs como 'arquivo:', 'feed =', 'mailto:', 'javascript:' e outros.
  • Usa CTRL-C para parar os estágios de rastreador atuais e continuar trabalhando.
  • Identifica extensões de arquivo (zip, swf, sql, rar, etc.)
  • Baixe arquivos para um diretório:
    • Baixe todos os arquivos importantes (imagens, documentos, arquivos compactados).
    • Ou baixe tipos de arquivos especificados.
    • Ou baixe um conjunto predefinido de arquivos (como arquivos 'documento': .doc, .xls, .pdf, .odt, .gnumeric, etc.).
  • Quantidade máxima de links para rastrear. Um valor padrão de 5000 URLs está definido.
  • Siga os redirecionamentos usando a tag de localização HTML e JavaScript e os códigos de resposta HTTP.

Esta edição estendida tem mais recursos!

  • Dominação mundial: você pode analisar automaticamente o mundo inteiro! (Se você tem tempo)
  • Robin-Hood : Embora ainda esteja em desenvolvimento, ele permitirá que você envie automaticamente um e-mail para os e-mails encontrados durante a varredura com as informações de análise .
  • DNS Robtex: com esta função incrível, toda vez que você encontrou servidores DNS com Transferência de Zona, ele recuperará do site Robtex outros domínios usando esse servidor DNS! Ele também os analisará automaticamente! Este pode ser um teste sem fim! Todo servidor DNS vulnerável pode ser usado por centenas de domínios, que por sua vez podem estar usando outros servidores DNS vulneráveis. CUIDADO! Os domínios recuperados não podem ser relacionados ao primeiro.

Exemplos
  •  Encontre 10 domínios aleatórios no domínio .gov e analise-os completamente (incluindo rastreamento na web). Se encontrar alguma Transferência de Zona, recupera mais domínios usando Robtex !!
    domain_analyzer.py -d .gov -k 10 -b
  •  (Muito rápido e sujo) Encontre tudo relacionado ao domínio .edu.cn, armazene tudo em diretórios. Não procure por host ativo, não crie o nmap para digitá-los, não invente-dns o netblock, não procure por e-mails.
    domain_analyzer.py -d edu.cn -b -o -g -a -n
  •  Analise o domínio 386.edu.ru totalmente
    domain_analyzer.py -d 386.edu.ru -b -o
  •  (Modo testador de caneta). Analise um domínio completamente. Não encontre outros domínios. Imprima tudo em um arquivo pdf. Armazene tudo no disco. Quando terminar, abra o Zenmap e mostre-me a topologia de cada host encontrado ao mesmo tempo!
    domain_analyzer.py -d amigos.net -o -e
  •  (Rápido com o rastreamento da web apenas). Ignore tudo com 'google' nele.
    domain_analyzer.py -d mil.cn -b -o -g -a -n -v google -x '-O --reason --webxml --traceroute -sS -sV -sC -PN -n -v -p 80,4443'
  •  (Tudo) Rastreie até 100 URLs deste site, incluindo subdomínios. Armazene a saída em um arquivo e faça o download de cada arquivo INTERESSANTE encontrado no disco.
    crawler.py -u www.386.edu.ru -w -s -m 100 -f
  •  (Rápido e sujo) Rastreie o site muito rápido. Não faça download de arquivos. Armazene a saída para um arquivo.
    crawler.py -u www.386.edu.ru -w -m 20
  •  (Se quiser analisar metadados mais tarde com lafoca). Verbose imprime quais extensões estão sendo baixadas. Baixe apenas o conjunto de arquivos correspondente aos Documentos (.doc, .docx, .ppt, .xls, .odt etc.)
    crawler.py -u ieeeexplore.ieee.org/otherfiles/ -d -v
A maioria desses recursos pode ser desativada. 

Capturas de tela
  1. Exemplo domain_analyzer.py -d .gov -k 10 -b

Instalação
Basta descompactar o arquivo .tar.gz e copiar os arquivos python para o diretório / usr / bin /. Domain_analyzer precisa ser executado como root. O rastreador pode ser executado como um usuário não privilegiado. Se você quer todos os recursos (web crawler, pdf e cores), o que é bom, copie esses arquivos para / usr / bin ou / usr / local / bin

  • ansistrm.py
  • crawler.py
  • pyText2pdf.py
Se você tiver algum problema com o banco de dados GeoIP , baixe-o da sua fonte original aqui . E instale-o em onde seu sistema precisa, geralmente em /opt/local/share/GeoIP/GeoIP.dat


0 comentários via Blogger
comentários via Facebook

Nenhum comentário :