¡Hola, amigos! Estoy realizando una prueba en un website y necesito ayuda con Cloudflare. Mi objetivo es enumerar todos los subdirectorios, y actualmente estoy utilizando la herramienta ffuf. El comando que estoy usando es el siguiente:

ffuf -w /home/kali/Desktop/directory-list-2.3-medium.txt -u [Enlace externo eliminado para invitados] -H \"User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36\" -H \"Referer: [Enlace externo eliminado para invitados]\" -t 10

Aunque este comando funciona y realiza las solicitudes, es extremadamente lento. Comienza con una buena velocidad pero luego reduce el número de solicitudes, llegando a hacer solo una por segundo. Me gustaría saber si existe algún comando o herramienta más eficiente. O si debería descubrir el límite específico del website que estoy probando y cómo hacerlo.
No soy partidario de hacer las pruebas de forma masiva porque lo encuentro un despropósito.
Cuando seteas un ratelimit para un webserver tenes que reflejarlo en el robots.txt para que los crawlers no lo disparen todo el tiempo.
Pero si lo hicieron mal no va a estar puesto así que pude que no lo encuentres seteado.

Código: Seleccionar todo

{******************************************************************************}
{** WARNING WARNING WARNING WARNING WARNING WARNING WARNING WARNING WARNING  **}
{******************************************************************************}
{**                                                                          **}
{** The prototypes, declarations and information in this file has been       **}
{** compiled from various sources as well as through reverse engineering     **}
{** techniques. We make no guarantee as to the correctness of the contents.  **}
{** Caution is recommended, USE AT YOUR OWN RISK.                            **}
{**                                                                          **}
{******************************************************************************}
DSR! escribió: 09 Jul 2024, 19:41 No soy partidario de hacer las pruebas de forma masiva porque lo encuentro un despropósito.
Cuando seteas un ratelimit para un webserver tenes que reflejarlo en el robots.txt para que los crawlers no lo disparen todo el tiempo.
Pero si lo hicieron mal no va a estar puesto así que pude que no lo encuentres seteado.
Muchas gracias 👍
puedes aumentar el tiempo de espera entre solicitudes eso podria ayudar a no ser detectado.

Código: Seleccionar todo

ffuf -w /home/kali/Desktop/directory-list-2.3-medium.txt -u https://mywebsite.com/FUZZ -H "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36" -H "Referer: https://mywebsite.com" -t 10 -p 0.1 -timeout 30 

 
 
Responder

Volver a “Auditoria Web”