اختبار شهادة Certified Ethical Hacker (CEH) V13
السؤال 437 من 448
تنبيه مهم
هذه الصفحة مخصصة للأرشفة وظهور السؤال في نتائج البحث فقط، وليست التجربة الفعلية للاختبار.
الانتقال إلى صفحة الاختبار الفعلية
During web footprinting, standard spiders cannot crawl a target site because of restrictions in the root directory (e.g., robots.txt). The tester instead browses manually while a tool records all requests and responses. What is this technique?
الخيارات
النقاشات
لا توجد نقاشات منشورة لهذا السؤال حالياً.