Hace escasos días hablábamos en el blog sobre la herramienta Dirhunt, un script en Python que permite escanear directorios web de forma rápida. De este modo, podemos conseguir la estructura de archivos y encontrar información sensible.
Dentro de las novedades de Dirhunt 0.4.0 destacamos la implementación del procesado de los archivos robots.txt. Recordemos que estos archivos están diseñados para dar instrucciones a los motores de búsqueda de cómo deben procesar una web.
Novedades de Dirhunt 0.4.0.
Con el procesamiento del archivo robots.txt
se pueden extraer rutas que en ocasiones permiten descubrir nuevos directorios o archivos. También han añadido la posibilidad de excluir el procesado de este archivo usando la opción --exclude-sources robots
.
Otras novedades y mejoras:
- Detección de los bucles infinitos de directorios. Estos suponían un problema, ya que la aplicación Dirhunt se colgaba procesando rutas sin límite.
- Mejorada la compatibilidad durante el proceso de instalación. Incluso se ha añadido la versión de Python 3.7 como compatible.
- Nueva opción
--not-allow-redirects
que impide que se sigan las redirecciones HTTP.
- Posibilidad de excluir el escaneo de los subdominios con la opción
--not-follow-subdomains
.
- Con la opción
--max-depth
podemos establecer la profundidad máxima de directorios que queremos escanear en la estructura.
Vemos que el programa ha implementado nuevas opciones muy interesantes, pero seguramente Nekmo seguirá mejorando el código.