Seat
Information Gathering pasivo.
Cuando empezamos a "olisquear" que hay detrás de un dominio,es recomendable no empezar por la parte mas agresiva, testeando servicios, exploit pre.configurados y demás, ya que el no disponer de una información precisa puede hacer que el sysadmin/idp/ids o similar nos banne de por vida en su firewall, o llame a su primo de zumu*sol, vestido de policía.
Lo más práctico es usar nuestros amigos los buscadores, para pedir toda la información posible, de manera legal y anónima, ya que no buscamos en el dominio.
Search Engine Assessment Tool, Seat, cumple a la perfección nuestro propósito, y no es la única !!! quizas ni la mejor, pero es muy buena, sencilla, y no tenemos por qué despreciarla.
He leido muchos manuales sobre ella, todos ellos en Backtrack 4, pero para empezar desde cero ( y porque mi Backtrack 5r2 recién actualizada no lo lleva).
El piano es sencillo, descargamos de la web el tar.bz2
http://midnightresearch.com/projects/search-engine-assessment-tool/#downloads
descomprimimos en un directorio (carpeta? ) y vamos a lo siguiente, librerías ( como me gusta linuz...).
cpan XML::Smart
cpan Glib
cpan Gtk2
como buen manual de linuz, no funciona a la primera, y tienes que recurrir al plan b:
aptitude install libgtk2-perl
no se si aptitude es algo bueno, malo, el modelo de mi portátil, pero de momento no sale humo del mismo xD elegimos objetivo
ejecutamos, use mined results, es interesante y peligroso. almacenar como futuros dominios Target, no hacer nada, o directamente enlazar otra ejecución puede ser casi infinito.
Cuando empezamos a "olisquear" que hay detrás de un dominio,es recomendable no empezar por la parte mas agresiva, testeando servicios, exploit pre.configurados y demás, ya que el no disponer de una información precisa puede hacer que el sysadmin/idp/ids o similar nos banne de por vida en su firewall, o llame a su primo de zumu*sol, vestido de policía.
Lo más práctico es usar nuestros amigos los buscadores, para pedir toda la información posible, de manera legal y anónima, ya que no buscamos en el dominio.
Search Engine Assessment Tool, Seat, cumple a la perfección nuestro propósito, y no es la única !!! quizas ni la mejor, pero es muy buena, sencilla, y no tenemos por qué despreciarla.
He leido muchos manuales sobre ella, todos ellos en Backtrack 4, pero para empezar desde cero ( y porque mi Backtrack 5r2 recién actualizada no lo lleva).
El piano es sencillo, descargamos de la web el tar.bz2
http://midnightresearch.com/projects/search-engine-assessment-tool/#downloads
descomprimimos en un directorio (carpeta? ) y vamos a lo siguiente, librerías ( como me gusta linuz...).
cpan XML::Smart
cpan Glib
cpan Gtk2
como buen manual de linuz, no funciona a la primera, y tienes que recurrir al plan b:
aptitude install libgtk2-perl
no se si aptitude es algo bueno, malo, el modelo de mi portátil, pero de momento no sale humo del mismo xD elegimos objetivo
consultas, no meter todas, de golpe, o nos aburriremos. con ejecutar las de ghdb tienes para ver algo interesante seguro,o bueno, no me hagas caso, clickealo todo y a esperar...
ejecutamos, use mined results, es interesante y peligroso. almacenar como futuros dominios Target, no hacer nada, o directamente enlazar otra ejecución puede ser casi infinito.
Me subscribo a la de guardar, para repasar humanamente los resultados ( ejecutar el análisis sobre un link encontrado de... facebook? o peor aun, hotmail?... )
del resto de parámetros, sencillos, pero cabe decir una cosa, se pueden modificar sobre la marcha. para que?imaginación al poder.
del resto de parámetros, sencillos, pero cabe decir una cosa, se pueden modificar sobre la marcha. para que?imaginación al poder.