Documente Academic
Documente Profesional
Documente Cultură
Como herramienta
de ataque.
Pedro Paixao “Las fuentes de información públicas, como los buscadores,
SE Manager (Security Expert Manager) permiten a quienes lo deseen, acceder al menos al 80%
Check Point de la información de nuestras redes, sin la necesidad
de exponer su identidad”
T
Tal vez un día se diga que si pasó en la vida real, de seguridad o mismo penetration testing, utilizan- ejecutadas por la gran mayoría de los usuarios,
está publicado en algún sitio de Internet. Puede do nada más que un web browser y Google. En 2004 tenemos la posibilidad de pedir a Google que nos
que todavía no estemos a ese nivel, pero es indis- se reportó el primer gusano de Internet que utilizó presente resultados más relevantes, o interesantes,
cutible que la cantidad de información, hoy publi- estas técnicas para identificar sus víctimas y así utilizando la página de búsqueda avanzada, o mas
cada en Internet, es de tal orden que el problema propagar su código malicioso. Muchas de ellas fácil todavía, utilizando los comandos avanzados
principal es encontrar lo que uno desea, de una pueden ser utilizadas con otros motores de búsque- en la página de búsqueda simples. [fig.1]
manera rápida y relevante. Con esta necesidad da, y su simplicidad y poder es sorprendente. Utilización básica:
nacen algunas de las mayores empresas del Debido a que algunos de los datos presentados son • El uso de comillas “ “ busca toda la string, por ejem-
mundo, como Yahoo y Google, y otras ya estable- reales, los hosts y otra información personal fueron plo “operadores avanzados” sólo devuelve resulta-
cidas, como Microsoft, e invierten billones de ocultados. También como nota me gustaría decir dos que contengan exactamente esta string
dólares para dominar esta importante tecnología: que ningún web site fue visitado directamente para • Utilizar ‘+’ para palabras esenciales, por ejemplo
la búsqueda de información. obtener los datos presentados, todos ellos fueron +password sólo retornan resultados que con-
Las grandes inversiones trajeron muchas mejorías conseguidos accediendo solamente a Google, su tengan la palabra “password”
en los resultados obtenidos, y nuevas tecnologías cache o su conversión de documentos a HTML. • Utilizar ‘-‘ para palabras no deseables, por ejem-
como Tagging y Web 2.0 prometen aumentar el plo "Bill Gates” –microsoft, retorna todos los doc-
contexto y la información semántica de la Web y Comandos Avanzados umentos que contengan la string “Bill Gates” pero
con ello llevar la búsqueda de información a un Mucho mas allá de las tradicionales búsquedas no Microsoft.
nuevo umbral de calidad.
Los motores de búsqueda se transformaron en las
puertas de entrada a Internet y la realidad de hoy
es que si un sitio no está publicado en un motor
de búsqueda, o no aparece en los primeros resul-
tados obtenidos por el usuario, la probabilidad de
que sea visitado es muy baja.
Mucho del trabajo que hacen los motores de
búsqueda es navegar por Internet en busca de
nuevos sites, o nueva información, que una vez
encontrada es almacenada e indexada.
Genéricamente se llama a la aplicación de
FOTO: (c) JUPITERIMAGES, and its Licensors. All Rights Reserved
El Proxy Transparente
Como vimos en los ejemplos anteriores es posible
ver el contenido de páginas web u otros docu-
mentos sin entrar a los sitios que los publican uti-
lizando las opciones “View HTML”, y “Cached” de
Google. Esta característica es muy útil para hack-
ers pues pueden investigar todo el sitio de sus vic-
timas, sin nunca tener que entrar a sus servidores!
Se podría llamar a estas funcionalidades el Proxy [fig.2]
Google, pues permite, sólo con el acceso al sitio de
Goolge, “entrar” al sitio de terceros. Otra forma
importante de Proxy vía Google se consigue cuan-
do uno utiliza sus servicios de traducción
automática. [fig.4]
Ejemplo: Yahoo.com vía Google Translation
Services, Yahoo.com ve un acceso de Google no
del cliente que la pidió. [fig.5]
Exploits
La costumbre era ver a los hackers como gente
muy inteligente con la capacidad, y conocimiento
suficiente para investigar problemas en protoco-
los, sistemas operativos o aplicaciones, y desarrol-
lar maneras de explotarlos para con ello tener
acceso a información o recursos informáticos. Ésta
era una comunidad restricta y de difícil acceso. La
información circulaba en un sub-mundo al cual,
para pertenecer, era necesario tener el merito sufi-
ciente. Hoy existen docenas de sitíos web donde
se listan todas las vulnerabilidades conocidas y
como explotarlas. O sea ya no es necesario cono-
cer a fondo la tecnología de ataque, es suficiente
saber como encontrar los programas que
explotan una vulnerabilidad, o exploits del inglés,
y utilizarlos contra aplicaciones vulnerables.
Podemos así separar la tarea de atacar una vícti-
ma en 3 fases: encontrar una vulnerabilidad,
encontrar un exploit y encontrar una victima. En [fig.6]
todas ellas Google puede ayudarnos.
Una simple búsqueda de “bugtraq” y “inurl” nos
revela todas las vulnerabilidades listadas en
Bugtraq, una lista de correo donde se publican
problemas de seguridad, que contengan la pal-
abra “inurl”.
Google Search: bugtraq inurl [fig.7]
Siguiendo el primer link podemos ver una vulner-
abilidad del Woltlab Buletin Borrad.
Ya tenemos la vulnerabilidad. Más abajo en el
texto, podemos ver como explotar la vulnerabili-
dad reportada; Ya tenemos el exploit. [fig.8]
[fig.7]
Como ya es práctica común, se listan también
ejemplos de cómo buscar en Google las aplica-
ciones afectadas, lo único que tenemos que hacer
es utilizarlos, y ya tenemos las víctimas. ¡Todo en
30 segundos o menos! [fig.9]
Bases de Datos
Para los que están acostumbrados con el desarrol-
lo, o configuración de aplicaciones web, sería [fig.8]
impensable publicar la base de datos directa-
mente en el servidor web, sin autenticación y
disponible a todo el mundo. Para evitar el acceso
directo a la información se instalan firewalls, colo-
cando los servidores involucrados en DMZs distin-
tas, se configuran sistemas de autenticación, se
programa la lógica necesaria para que sólo la
información deseada sea visible a los usuarios con
los privilegios correctos, y muchas veces se usan
[fig.9]
mecanismos de encriptación de todas las
FTP Access
No es tan común que webmasters dejen en sus
servidores web, los archivos de configuración
de sus clientes FTP pero, como ya vimos en los
párrafos anteriores, lo esperado y lo real es muy
distinto. Una simple búsqueda de archivos .ini
(filetype:ini) que contengan “ws_ftp” y “pwd”,
revela muchos sitios, y uno de ellos escogido al [fig.15]
azar del Cache contiene docenas de servidores
ftp, los nombres de usuario, y la contraseña.
Googel Search: filetype:ini ws_ftp pwd [fig.16]
Estas contraseñas pueden ser fácilmente
descifradas utilizando herramientas libres que
puedes buscar con… Google, claro!
Ahora lo único que el hacker tiene que hacer es
conectar al servidor ftp con estas credenciales
y quien sabe lo que va encontrar ahí.
Otras Posibilidades
El potencial de las técnicas presentadas es casi
ilimitado y con alguna imaginación se puede
pensar en muchas otras búsquedas que van a
revelar información importante.
[fig.16]
• Buscar servidores VNC
- Google Search: "VNC Desktop" inurl:5800 los webmasters decidir que partes de sus sitios <META NAME="ROBOTS" CONTENT="NOINDEX,
• Buscar libros electrónicos web no son indexadas. NOFOLLOW">
- Google Search: filetype:lit lit (books|ebooks) El archivo robots.txt debe existir en la raíz del sitio Atención que no todos los searchbots respectan
• Outlook files web (ejemplo http://misitio.com.ar/robots.txt) y este tag.
- Google Search: outlook filetype:pst su contenido se resume normalmente a un con- Si después de todos los cuidados, nuestro site
• Listado completo de carpetas junto de líneas de texto con el comando Disallow: todavía aparece en el índice de Google debemos
- Google Search: intitle:index.of “parent directory” seguido de la carpeta que deseamos que no sea pedirles que lo retiren. Este proceso puede ser
indexada. hecho en forma manual o automáticamente, si el
Evitando Problemas Ejemplo: servidor web retorna un error “404 Not Found”.
La mejor manera de evitar este tipo de proble- Todos los documentos con error 404 son removi-
mas es la prevención, no dejar archivos de User-agent: * dos del índice automáticamente. El problema con
backup en el servidor web, no dejar configura- Disallow: /cgi-bin/ este abordaje es que no tenemos control de cuan-
ciones default, configurar la autenticación cor- Disallow: /images/ do el documento va ser retirado del índice, si
rectamente, y es muy importante configurar el Disallow: /tmp/ deseamos tener este control hay recurrir al proce-
robots.txt. Los searchbots de los motores de Disallow: /private/ so manual vía http://www.google.com/webmas-
búsqueda respetan el Robots Exclusión ters/remove.html
Standard o robots.txt protocol (www.robot- Si en vez de carpetas completas se desea evitar Si no conoces lo que está publicado en nuestro
stxt.org), que no siendo un estándar formal, es que una página sea indexada se debe utilizar el sitio web otros lo conocerán, todo gracias a
una convención creada en 1994, que permite a Meta Tag ROBOTS Google y sus compañeros.