Skip to main content

Nikto, nuclei и др.

Коммерческие:

  • acunetix
  • netsparker
  • IBM AppScan
  • WebInspect

Бесплатные:

  • OWASP Zap
  • W3af
  • arachni
  • Iron Wasp
  • Nexpose (совместим с MSF)
  • Nessus (совместим с MSF)

Nikto 

nikto -host 172.16.10.11 -port 80

+ Server: Apache/2.4.58 (Ubuntu)
+ /: The anti-clickjacking X-Frame-Options header is not present. See: https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/X-Frame-Options
+ /: The X-Content-Type-Options header is not set. This could allow the user agent to render the content of the site in a different fashion to the MIME type. See: https://www.netsparker.com/web-vulnerability-scanner/vulnerabilities/missing-content-type-header/
+ No CGI Directories found (use '-C all' to force check all possible dirs)
+ /: Server may leak inodes via ETags, header found with file /, inode: 29af, size: 63d6cf46a153e, mtime: gzip. See: http://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2003-1418
+ OPTIONS: Allowed HTTP Methods: GET, POST, OPTIONS, HEAD .
+ /backup/: Directory indexing found.
+ /backup/: This might be interesting.
+ 8102 requests: 0 error(s) and 6 item(s) reported on remote host
+ End Time:           2025-08-30 20:12:35 (GMT8) (40 seconds)

Nuclei

Адрес проекта

Отправляет DNS, HTTP, сокеты. Общая база с возможностью расширения. Можно использовать для поиска данных авторизации в локальных файлах.

Основан на YAML шаблонах. Структура шаблона:

ID Уникальный идентификатор шаблона
Metadata Описание шаблона (автор, ...
Protocol Протокол
Operators Паттерны и получаемые данные

Простой шаблон: 

id: detect-apache-welcome-page
info:
  name: Apache2 Ubuntu Default Page
  author: Dolev Farhi and Nick Aleks
  severity: info
  tags: apache
http:
  - method: GET
    path:
      - '{{BaseURL}}'
    matchers:
      - type: word
        words:
          - "Apache2 Ubuntu Default Page: It works"
        part: body

wmap

Сканер web уязвимостей, встроенный в MSF. Почему-то предлагается сначала создать новую базу для хранения результатов.

msf > workspace -a for_wmap
msf > workspace
  default
* for_wmap

Загружаем в MSF модуль

msf > load wmap

После этого появятся команды сканера. Команда wmap_sites управляет списком сайтов. 

wmap_sites -a http://172.16.194.172 Добавить сайт для сканирования
wmap_sites -l Список сайтов
wmap_sites -d [id] Удаляет цели из списка по id

wmap_targets управляет endpoint сайта

Добавляем сайт для сканирования

wmap_targets -t https://172.16.194.172 Добавить endpoint для сканирования
wmap_targets -l Список endpoint
wmap_sites -d [id] Удаляет endpoint из списка по id

wmap_run управляет запуском сканирования

wmap_run -t Список модулей, используемых для сканирования
wmap_run -e Выполнить модули

wmap_vulns выводит информацию об уязвимостях.

wmap_vulns -l Список уязвимостей

Однако в выводе сканера можно увидеть дополнительную информацию, которая не попала в данный список, например предположительную версию web сервера или сертификаты.

В таблице vulns также уязвимости.

Cariddi

Сканер endpoint. Git проекта. Сначала установить go. 

Если не ограничить - сначала просматривает все страницы. 

Опции
-e

Поиск уязвимостей в endpoint

-ef string Use an external file (txt, one per line) to use custom parameters for endpoints hunting.

 
  
Настройки формата запроса
-proxy stringSet a Proxy to be used (http and socks5 supported).
-headers stringUse custom headers for each request E.g. -headers "Cookie: auth=yes;;Client: type=2".
-headersfile stringRead from an external file custom headers (same format of headers flag).
-ruaUse a random browser user agent on every request.
-uaUse a custom User Agent.
Настройки поиска
-i stringIgnore the URL containing at least one of the elements of this array.
-ie valueComma-separated list of extensions to ignore while scanning.
-it stringIgnore the URL containing at least one of the lines of this file.
Скорость работы
-c intConcurrency level. (default 20)
-d intDelay between a page crawled and another.
-t intSet timeout for the requests. (default 10)
Выходной формат
-jsonPrint the output as JSON in stdout.
-oh stringWrite the output into an HTML file.
-ot stringWrite the output into a TXT file.
-plainPrint only the results.
Дополнительно
-debugPrint debug information while crawling.
-examplesPrint the examples.
-srStore HTTP responses.
-cacheUse the .cariddi_cache folder as cache.

   
              
        
                
        -err
                Hunt for errors in websites.
        -ext int
                Hunt for juicy file extensions. Integer from 1(juicy) to 7(not juicy).

        -md int
                Maximum level the crawler will follow from the initial target URL.
        -info
                Hunt for useful information in websites.
        -intensive
                Crawl searching for resources matching 2nd level domain.

        -s      Hunt for secrets.
        -sf string
                Use an external file (txt, one per line) to use custom regexes for secrets hunting.