Alguém sabe como capturar todas URLs de um site?Consegui usando uma api do google, fazendo com que pesquise o termo site:nomedosite.com.br e pegue os links dos resultados, funciona perfeitamente, o google bloqueia rápido a consulta mas da para evitar isso usando proxys randomicos a cada consulta.O problema é que o termo site:nomedosite.com.br retorna apenas as urls indexadas pelo google, o que fazer no caso das urls que estão como noindex ou ainda não foram indexadas?Alguém tem uma ideia de capturar as URLs sem usar a api de busca do google?Tipo um crawler?--
Você recebeu esta mensagem porque está inscrito na Lista "GOPHP" em Grupos do Google.
Para Postar: go...@googlegroups.com
Para Sair do Grupo: gophp-un...@googlegroups.com
Link: http://groups.google.com/group/gophp?hl=pt-BR
---
Você está recebendo esta mensagem porque se inscreveu no grupo "GOPHP" dos Grupos do Google.
Para cancelar a inscrição neste grupo e parar de receber seus e-mails, envie um e-mail para gophp+un...@googlegroups.com.
Para obter mais opções, acesse https://groups.google.com/groups/opt_out.
Acunetix.
eu faria tudo a mao, brincando com expressoes regulares....
0le
Send via Android