Nikto, nuclei и др.
Коммерческие:
- acunetix
- netsparker
- IBM AppScan
- WebInspect
Бесплатные:
- OWASP Zap
- W3af
- arachni
- Iron Wasp
- Nexpose (совместим с MSF)
- Nessus (совместим с MSF)
Nikto
nikto -host 172.16.10.11 -port 80
+ Server: Apache/2.4.58 (Ubuntu)
+ /: The anti-clickjacking X-Frame-Options header is not present. See: https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/X-Frame-Options
+ /: The X-Content-Type-Options header is not set. This could allow the user agent to render the content of the site in a different fashion to the MIME type. See: https://www.netsparker.com/web-vulnerability-scanner/vulnerabilities/missing-content-type-header/
+ No CGI Directories found (use '-C all' to force check all possible dirs)
+ /: Server may leak inodes via ETags, header found with file /, inode: 29af, size: 63d6cf46a153e, mtime: gzip. See: http://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2003-1418
+ OPTIONS: Allowed HTTP Methods: GET, POST, OPTIONS, HEAD .
+ /backup/: Directory indexing found.
+ /backup/: This might be interesting.
+ 8102 requests: 0 error(s) and 6 item(s) reported on remote host
+ End Time: 2025-08-30 20:12:35 (GMT8) (40 seconds)
Nuclei
Отправляет DNS, HTTP, сокеты. Общая база с возможностью расширения. Можно использовать для поиска данных авторизации в локальных файлах.
Основан на YAML шаблонах. Структура шаблона:
ID | Уникальный идентификатор шаблона |
Metadata | Описание шаблона (автор, ... |
Protocol | Протокол |
Operators | Паттерны и получаемые данные |
Простой шаблон:
id: detect-apache-welcome-page
info:
name: Apache2 Ubuntu Default Page
author: Dolev Farhi and Nick Aleks
severity: info
tags: apache
http:
- method: GET
path:
- '{{BaseURL}}'
matchers:
- type: word
words:
- "Apache2 Ubuntu Default Page: It works"
part: body
wmap
Сканер web уязвимостей, встроенный в MSF. Почему-то предлагается сначала создать новую базу для хранения результатов.
msf > workspace -a for_wmap
msf > workspace
default
* for_wmap
Загружаем в MSF модуль
msf > load wmap
После этого появятся команды сканера. Команда wmap_sites управляет списком сайтов.
wmap_sites -a http://172.16.194.172 | Добавить сайт для сканирования |
wmap_sites -l | Список сайтов |
wmap_sites -d [id] | Удаляет цели из списка по id |
wmap_targets управляет endpoint сайта
Добавляем сайт для сканирования
wmap_targets -t https://172.16.194.172 | Добавить endpoint для сканирования |
wmap_targets -l | Список endpoint |
wmap_sites -d [id] | Удаляет endpoint из списка по id |
wmap_run управляет запуском сканирования
wmap_run -t | Список модулей, используемых для сканирования |
wmap_run -e | Выполнить модули |
wmap_vulns выводит информацию об уязвимостях.
wmap_vulns -l | Список уязвимостей |
Однако в выводе сканера можно увидеть дополнительную информацию, которая не попала в данный список, например предположительную версию web сервера или сертификаты.
В таблице vulns также уязвимости.
Cariddi
Сканер endpoint. Git проекта. Сначала установить go.
Если не ограничить - сначала просматривает все страницы.
Опции | |
-e |
Поиск уязвимостей в endpoint -ef string Use an external file (txt, one per line) to use custom parameters for endpoints hunting. |
-info | Hunt for useful information in websites. |
Настройки формата запроса | |
-proxy string | Set a Proxy to be used (http and socks5 supported). |
-headers string | Use custom headers for each request E.g. -headers "Cookie: auth=yes;;Client: type=2". |
-headersfile string | Read from an external file custom headers (same format of headers flag). |
-rua | Use a random browser user agent on every request. |
-ua | Use a custom User Agent. |
Настройки поиска | |
-i string | Ignore the URL containing at least one of the elements of this array. |
-ie value | Comma-separated list of extensions to ignore while scanning. |
-it string | Ignore the URL containing at least one of the lines of this file. |
-md int | Maximum level the crawler will follow from the initial target URL. |
Скорость работы | |
-c int | Concurrency level. (default 20) |
-d int | Delay between a page crawled and another. |
-t int | Set timeout for the requests. (default 10) |
Выходной формат | |
-json | Print the output as JSON in stdout. |
-oh string | Write the output into an HTML file. |
-ot string | Write the output into a TXT file. |
-plain | Print only the results. |
Дополнительно | |
-debug | Print debug information while crawling. |
-examples | Print the examples. |
-sr | Store HTTP responses. |
-cache | Use the .cariddi_cache folder as cache. |
-err
Hunt for errors in websites.
-ext int
Hunt for juicy file extensions. Integer from 1(juicy) to 7(not juicy).
-intensive
Crawl searching for resources matching 2nd level domain.
-s Hunt for secrets.
-sf string
Use an external file (txt, one per line) to use custom regexes for secrets hunting.