Содержание

Мониторинг виртуальных сред

Мониторинг виртуальных сред

Виртуальные среды занимают важное место в ИТ-архитектурах всех компаний, поэтому их мониторинг крайне важен. С помощью Pandora FMS Enterprise вы сможете получить доступ к Amazon EC2, VMware, RHEV, Nutanix, XenServer, OpenNebula, IBM HMC, HPVM.

Amazon EC2

Для мониторинга EC2 в корпоративных средах, пожалуйста, перейдите на Discovery

Это руководство соответствует компоненту OpenSource для мониторинга EC2.

Этот специфический мониторинг использует CloudWatch API для мониторинга ваших экземпляров на службе Amazon EC2. На вашем экземпляре должна быть включена функция Cloudwatch. Вы можете получить бесплатный плагин в разделе библиотека модулей.

Основная цель этого удаленного плагина сервера заключается в получении информации от ваших экземпляров с помощью плагина сервера Pandora FMS. Это означает, что вам нужно будет зарегистрировать плагин на сервере и настроить различные модули для получения информации с ваших серверов EC2.

Пример выполнения с использованием коннектора \>

 /home/slerena/ec2_plugin.sh \
          -A AKIAILTVCAS26GTKLD4A \
          -S CgmQ6DxUWES05txju alJLoM57acDudHogkLotWk \
          -i i_9d0b4af1 \
          -n AWS/EC2 \
          -m CPUUtilization

Возвращает числовое значение (процент) метрики CPUUtilization в экземпляре i_9d0b4af1.

Для установки вам понадобятся:

1. На вашем сервере Pandora FMS должна быть доступна JAVA с соответствующим каталогом JAVAHOME.

2. Скопировать этот плагин на путь и установить разрешения в 755, настроить базовый путь в переменной AWS_CLOUDWATCH_HOME, которая присутствует в первых строках плагина. Вы должны отредактировать первые несколько строк плагина .

Plugin состоит из нескольких файлов:

/ec2_plugin.sh - Это сам плагин. /bin/* - Компоненты Amazon CloudWatch (Monitoring) Command Line Tools, включенные в этот пакет. Эти скрипты распространяются по лицензии Apache.

Поместите весь пакет в каталог, доступный серверу, например:

/usr/share/pandora_server/plugin/ec2

И установите AWS_CLOUDWATCH_HOME в /usr/share/pandora_server/plugin/ec2.

Чтобы подтвердить установку, выполните:

/usr/share/pandora_server/plugin/ec2/mon-cmd --version

В результате должно вернуться что-то похожее на:

Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01)

Если вы получите ту же строку, значит, все готово к использованию плагина.

Если нет, вам, вероятно, потребуется установить и правильно настроить инструменты командной строки Amazon CloudWatch (мониторинг).

Установка

Требования:

  • Убедитесь, что в вашей системе установлена Java версии 1.5 или выше, для этого выполните:
java -version
  • Распакуйте файл .zip развертывания .
  • Установите следующие переменные среды:
    • AWS_CLOUDWATCH_HOME - Каталог, в который были скопированы файлы развертывания для их проверки с помощью:
 Unix: ls ${AWS_CLOUDWATCH_HOME}/bin (should list mon-list-metrics ...)
 Windows: dir %AWS_CLOUDWATCH_HOME%\bin (should list mon-list-metrics ...)
  • JAVA_HOME - Каталог Home установки Java.
  • Добавьте к пути по умолчанию (path) следующее:
${AWS_CLOUDWATCH_HOME}/bin
  • В Windows:
%AWS_CLOUDWATCH_HOME%\bin

Конфигурация

Установите учетные данные пользователя AWS в инструменте командной строки. Существует два способа предоставления учетных данных:

  1. Пароли AWS.
  2. Использование сертификатов X.509.

Использование паролей AWS

Вы можете явно указать учетные данные в командной строке:

  1. -I ACCESS_KEY –S SECRET_KEY

Вы также можете создать файл учетных данных. Развертывание включает файл шаблона:

${AWS_CLOUDWATCH_HOME}/credential-file-path.template.

Вы должны отредактировать копию этого файла, чтобы добавить свою информацию. В UNIX это также происходит путем ограничения разрешений для владельца файла учетных данных ( credential-file ):

$ chmod 600 <credential-file>.

Когда файл будет создан, обратитесь к нему следующим образом:

  • Установите следующую переменную среды:
export AWS_CREDENTIAL_FILE=<credential-file>
  • Вы также можете указать следующую опцию для каждой команды:
  1. -aws-credential-file <credential-file>

Использование сертификатов X.509

Сохраните личный сертификат и пароль в файлах: my_cert.pem и my-pk.pem.

Существует два способа предоставления сертифицированной информации в командную строку:

  • Установите следующие переменные среды:
 EC2_CERT=/path/to/cert/file
 EC2_PRIVATE_KEY=/path/to/key/file
  • Укажите файлы непосредственно в командной строке для всех команд:
 <command> \
      --ec2-cert-file-path=/path/to/cert/file \
      --ec2-private-key-file-path=/path/to/key/file

Установка свойств JVM

Установив переменную среды SERVICE_JVM_ARGS, вы можете произвольно передавать свойства JVM в командную строку.

Например, следующая строка устанавливает свойства в Linux/UNIX

export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"

Ввод в эксплуатацию

Убедитесь, что ваша установка работает правильно, выполнив следующую команду:

 $ mon-cmd --help

Вы должны увидеть страницу использования для всех команд мониторинга.

 $ mon-list-metrics --headers

Вы также должны увидеть строку заголовка. Если у вас есть еще какие-либо определенные метрики, они также должны появиться.

VMware

Версия Enterprise.

С Pandora FMS Enterprise вы можете получить доступ к VMware Monitoring Plugin, плагину, который позволяет вам контролировать виртуальную архитектуру VMware простым способом.

Архитектура VMware для мониторинга

С помощью этой системы можно контролировать архитектуры, подобные той, что показана на следующей схеме:

Pandora FMS может контролировать VCenter, серверы ESXi и компоненты виртуализации: Datastores и виртуальных машин. Pandora FMS полагается на API, который предоставляет SDK от VMware® для Perl для сбора данных.

Мониторинг с Discovery Application VMware

Выполните действия, описанные в разделе Discovery для мониторинга инфраструктуры VMware®.

Требования для плагина VMware

Требования для осуществления задачи мониторинга VMware® следующие:

  • Pandora FMS v7.0NG.732 или выше.
  • VMware vSphere® SDK для языка Perl.

В ISO Pandora FMS доступны все необходимые компоненты для мониторинга VMware®.

Конфигурация vCenter для мониторинга

Discovery Applications VMware использует метрики, предоставляемые API vCenter® и ESXi VMware®. Доступность этих метрик зависит от уровней, настроенных для сбора статистики.

Эти уровни можно изменить в меню vCenter Server Settings и в опции Statistics. Для каждого варианта времени и каждого уровня вы получите описание счетчиков, которые собирает vCenter. Минимальный уровень для мониторинга с помощью плагина Pandora FMS - Уровень 2.

В зависимости от конфигурации vCenter, возможно, что некоторые модули не будут сообщать данные в Pandora FMS.. Это может быть связано с тем, что:

  • Отсутствует установка какого-нибудь плагина в vCenter.
  • Необходимо установить Агент VMware® (vmware-tools) в структуру.
  • Просто потому, что структура выключена (виртуальная машина или ESXi).

Для устранения этих проблем следует обратиться к документации VMware..

Некоторые решения, такие как мониторинг состояния оборудования (Hardware Status), могут потребовать расширенной настройки как vCenter, так и хостов, поддерживающих ESX.

Развертывание системы мониторинга VMware

Начиная с версии 732 Pandora FMS, мониторинг VMware осуществляется с помощью системы Discovery Applications (дополнительная информация в разделе Discovery VMware).

Если по какой-то причине вы хотите вручную настроить плагин вне этой функции, вы можете использовать классический режим, описанный ниже.

В ISO-образе Pandora FMS предустановлен плагин VMware вместе с расширениями. Если вам необходимо развернуть или обновить вашу версию плагина VMware до более новой, выполните действия, описанные в следующих пунктах:

Ручное развертывание плагинов

1.- Перейдите в каталог, в который были извлечены файлы плагина VMWare®.

2.- Скопируйте vmware-plugin.{pl,conf} в соответствующий каталог.

 sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/
 sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf}
 sudo chmod g w /usr/share/pandora_server/util/plugin/vmware-plugin.conf

3.- Проверьте данные, необходимые для настройки плагина.

В меню "Конфигурация" консоли Pandora FMS назначьте пароль для API, а также разрешенные источники.

vmware_api_settings.jpg

4.- Отредактируйте файл конфигурации vmware-plugin.conf.

5.- Проверьте доступность VMware® SDK для Perl.

Для проверки установки VMware® SDK Perl можно запустить скрипт со следующим содержанием:

 #!/usr/bin/perl

 use strict;
 use warnings;

 use VMware::VIRuntime;

 print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Выполните скрипт:

perl check_vmware.pl

Вывод должен быть похож на следующий:

VMware SDK Version: 6.5.0

Убедитесь, что версия SDK выше или равна версии ваших продуктов VMware®.

Начиная с версии 717 плагина для VMware® вам также необходимо установить библиотеку Perl PluginTools.pm, (доступна вместе с сервером в /usr/lib/perl5/PandoraFMS) на устройстве, где вы хотите его развернуть (скопируйте в /usr/lib/perl5/PandoraFMS на устройстве, на котором будет запущен плагин).

Установка VMware vSphere SDK для Perl

URL-адрес центра загрузки необходимого программного обеспечения VMware®:

https://my.vmware.com/web/vmware/details?downloadGroup=VS-PERL-SDK65&productId=614

Если вы установили Pandora FMS с помощью appliance (ISO Centos), то нет необходимости устанавливать дополнительное программное обеспечение, при условии, что версия для мониторинга VMware® ниже 6.5.

Установка SDK для Linux

Версии SDK, протестированные с помощью этого процесса установки, были 4.1, 5.1, 6.0 и 6.5

Всегда рекомендуется использовать версию SDK с соответствующей ей версией программного обеспечения. VMware®. Например, рекомендуется использовать программное обеспечение 4.1 VMware® с версией SDK 4.1.

Сначала распакуйте SDK с помощью следующей команды:

# tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz

Теперь скомпилируйте и установите SDK с помощью следующих команд:

 # perl Makefile.PL
 # make
 # make install

Если установка прошла успешно и ошибок не возникло, вы можете подключиться к vCenter® с помощью следующей команды, используя такой коннектор строк :

 # /usr/lib/vmware-viperl/apps/general/connect.pl \
      --server <vcenter_ip> \
      --username <vcenter_user> \
      --password <vcenter_pass>

Ответ должен быть похож на приведенный ниже:

 Connection Successful
 Server Time : 2013-02-21T16:24:05.213672Z

Обновление SDK до версии 6.5 с других версий

Если вы выполняете обновление VMware SDK, выполните следующие действия:

  • Установите инструменты для разработчиков:
yum groupinstall "Developer Tools"
  • Установите CPAN:
yum install perl-CPAN
  • Установите некоторые зависимости:
 yum install openssl-devel perl-Class-MethodMaker
 yum install epel-release
  • Распакуйте установочные файлы VMware® SDK Perl:
tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz
  • Получите доступ к каталогу:
cd vmware-vsphere-cli-distrib
  • Запустите программу установки:
./vmware-install.pl

Для CentOS 8 вам также следует выполнить следующие шаги:

# Enable epel repo:
yum install epel-release
# Enable powertools:
yum install dnf-utils
yum config-manager --set-enabled PowerTools
# Note: For centos 8 install custom made RPMs from Artica repo:
`yum install http://firefly.artica.es/centos8/perl-Crypt-SSLeay-0.73_07-1.gf.el8.x86_64.rpm` before install SDK
# Install the vmware SDK -- Custom RPM 6.5:
`yum install http://firefly.artica.es/centos8/VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.rpm`

Во время установки:

  • Согласитесь с условиями лицензии.
  • Укажите не использовать предварительно созданные модули для VMware® SDK.
  • Согласитесь с автоматической установкой модулей через автоматизированную систему CPAN.
  • Убедитесь, что все требования были установлены правильно.
  • Укажите каталог, в котором нужно будет установить модули VMware® SDK Perl

Nota: Иногда пакет Perl UUID может выдавать ошибки при установке на CentOS 7. Выполните следующие действия, чтобы добавить компонент:

  • Установите необходимые зависимости для UUID-0.03:
yum install libuuid-devel perl-JSON-PP
  • Загрузите пакет с кодом:
wget https://cpan.metacpan.org/authors/id/C/CF/CFABER/UUID-0.03.tar.gz
  • Распакуйте файл и откройте каталог:
 tar xvzf UUID-0.03.tar.gz
 cd UUID-0.03
  • Сгенерируйте файлы, необходимые для компиляции модуля Perl:
perl Makefile.PL
  • Скомпилируйте модуль Perl:
make
  • Вы должны получить ответ, аналогичный следующему:
Manifying blib/man3/UUID.3pm
  • Установите новый скомпилированный модуль:
make install

После установки ожидающих модулей снова запустите процесс установки VMware® SDK Perl:

./vmware-install.pl

Примечание: деинсталлятор VMware® не полностью удаляет предыдущие библиотеки модулей VMware.

Убедитесь, что библиотеки установлены правильно в /usr/lib/vmware-vcli/VMware/share/ прежде чем продолжить

Вы должны выполнить следующие действия вручную:

  • Очистить старые библиотеки.
 rm -rf /usr/share/perl5/vendor_perl/VMware
 rm -rf /usr/share/perl5/VMware
  • Добавить новые библиотеки VMware®
cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/

После этого можно запустить скрипт со следующим содержанием для проверки установки VMware® SDK Perl.

 #!/usr/bin/perl

 use strict;
 use warnings;

 use VMware::VIRuntime;

 print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Выполните этот script:

perl check_vmware.pl

Вывод должен быть следующим:

VMware SDK Version: 6.5.0

Если выход отличается, проверьте, правильно ли вы выполнили все шаги, или обратитесь в службу поддержки по адресу https://support.pandorafms.com/integria/

Зависимости SDK для CentOS 7 и CentOS 8 следующие:

 gdbm-devel
 glibc-devel
 glibc-headers
 kernel-headers
 libdb-devel
 libuuid-devel
 make
 openssl
 perl-Business-ISBN
 perl-Business-ISBN-Data
 perl-Class-Inspector
 perl-Class-MethodMaker
 perl-Convert-BinHex
 perl-Crypt-SSLeay
 perl-Digest
 perl-Digest-MD5
 perl-Email-Date-Format
 perl-Encode-Locale
 perl-ExtUtils-Install
 perl-ExtUtils-MakeMaker
 perl-ExtUtils-Manifest
 perl-ExtUtils-ParseXS
 perl-File-Listing
 perl-HTML-Parser
 perl-HTML-Tagset
 perl-HTTP-Cookies
 perl-HTTP-Daemon
 perl-HTTP-Date
 perl-HTTP-Message
 perl-HTTP-Negotiate
 perl-IO-HTML
 perl-IO-SessionData
 perl-IO-Socket-IP
 perl-IO-Socket-SSL
 perl-JSON-PP
 perl-LWP-MediaTypes
 perl-LWP-Protocol-https
 perl-MIME-Lite
 perl-MIME-Types
 perl-MIME-tools
 perl-MailTools
 perl-Mozilla-CA
 perl-Net-HTTP
 perl-Net-LibIDN
 perl-Net-SMTP-SSL
 perl-Net-SSLeay
 perl-SOAP-Lite
 perl-Test-Harness
 perl-TimeDate
 perl-URI
 perl-WWW-RobotRules
 perl-XML-LibXML
 perl-XML-NamespaceSupport
 perl-XML-Parser
 perl-XML-SAX
 perl-XML-SAX-Base
 perl-devel
 perl-libwww-perl
 pyparsing
 systemtap-sdt-devel
 glibc
 glibc-common
 libblkid
 libmount
 libsmartcols
 libuuid
 util-linux

Для CentOS 8 установите RPMs perl-Crypt-SSLeay из репозитория Artica:

yum install `http://firefly.artica.es/centos8/perl-Crypt-SSLeay-0.73_07-1.gf.el8.x86_64.rpm`

Вы можете установить дополнительные зависимости плагина с помощью следующей команды:

`yum install perl-Archive-Zip perl-JSON`

Вы можете установить зависимости шифрования пароля с помощью следующей команды:

`yum install openssl-devel perl-Crypt-CBC perl-Digest-SHA`

Вы можете загрузить пользовательские RMP perl-Crypt-OpenSSL-AES из репозитория Artica:

  • Для CentOS 7.
`yum install https://sourceforge.net/projects/pandora/files/Tools and dependencies (All versions)/RPM CentOS, RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el7.x86_64.rpm`
  • Для CentOS 8.
`yum install https://sourceforge.net/projects/pandora/files/Tools and dependencies (All versions)/RPM CentOS, RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el8.x86_64.rpm`
Установка SDK на Windows

Версия PERL, распространяемая вместе с vSphere® SDK, не работает с библиотеками VMware® для PERL. Чтобы решить эту проблему, выполните следующие действия:

%ProgramFiles%\VMware\VMware vSphere CLI\Perl\lib\VMware

a

C:\strawberry\perl\lib
  • Удалите VMware vSphere® SDK.

Конфигурация плагина VMware

Вы можете настроить VMware плагин вручную или с помощью расширения консоли, доступного вместе с загружаемыми файлами плагина VMware®.

Настройка плагина вручную

Для управления несколькими конфигурациями плагина de VMware® рекомендуется использовать расширение, доступное в консоли Pandora FMS.

Вы можете вручную отредактировать файл конфигурации; помните, что строки, начинающиеся с #, будут интерпретироваться как комментарии.

Конфигурационный файл плагина мониторинга среды VMware содержит следующие общие элементы:

server

FQDN или IP сервера VMware® для мониторинга.

user

Пользователь с правами в vCenter®.

pass

Пароль пользователя.

datacenter

Имя центра данных (по умолчанию: ha-datacenter).

temporal

Временный рабочий каталог, по умолчанию: /tmp

logfile

Файл журнала, по умолчанию /tmp/vmware_plugin.log

entities_list

Файл объектов для мониторинга, по умолчанию /tmp/vmware_entitites_list.txt

transfer_mode

Режим передачи XML в Pandora, по умолчанию локальный.

tentacle_ip

Адрес сервера Pandora FMS, по умолчанию 127.0.0.1

tentacle_port

Порт для связи с Tentacle, по умолчанию 41121.

tentacle_opts

Дополнительные опции для удаленного Tentacle

local_folder

При локальной передаче папка назначения для XML-файлов отчета /var/spool/pandora/data_in

pandora_url

Веб-адрес консоли Pandora FMS, по умолчанию http://127.0.0.1/pandora_console .

api_pass

Пароль API консоли Pandora FMS.

api_user

Пользователь с доступом к API Pandora FMS.

api_user_pass

Пароль пользователя с доступом к API.

retry_send

Повторить( 1 ) или нет ( 0 ) отправку XML в случае ошибки (аналогичный buffer_xml).

event_mode

Восстановить информацию ( 1 ) событий VMware или нет ( 0 ).

event_pointer_file

Вспомогательный индексный файл для событий VMware, по умолчанию /tmp/vmware_events_pointer.txt

Virtual network monitoring

Включить мониторинг виртуальных коммутаторов.

Encrypt passwords

Используйте зашифрованные пароли в файле конфигурации.

verbosity

Уровень отладки (рекомендуется 1 ).

threads

Максимальное количество используемых потоков (рекомендуется 4 ).

interval

Интервал в секундах генерируемых агентов и модулей (настраивается в зависимости от частоты выполнения плагина).

Recon Interval

Интервал в секундах, после которого временный файл кэша объектов автоматически удаляется для повторного сканирования инфраструктуры VMware®.

group

Серверы Целевая группа агентов, создаваемых плагином..

virtual_network_monitoring

Включает ( 1 ) или выключает ( 0 ) мониторинг виртуальных коммутаторов (стандарт).

use_ds_alias_as_name

Включает ( 1 ) или выключает ( 0 ) использование алиас в качестве имени Агента в агентах хранения данных.

Сервер, центр данных, пользователь, пароль и интервал можно настроить через консоль Pandora.

Если вы используете Pandora FMS 5.0 или более позднюю версию и хотите использовать расширения плагина или применить мониторинг событий, вам необходимо правильно настроить Pandora FMS API. Для этого вы должны добавить пароль API и предоставить доступ к соответствующим адресам в списке доступа API. Эти поля определены в общей конфигурации Консоли Pandora FMS.

Пользователь, которого вы используете вместе с паролем API, должен иметь права на чтение и запись для записи событий. Также не забудьте включить агентов Datacenter в план мониторинга, поскольку события для консоли происходят от этих агентов.

Раздел «Reject» плагина мониторинга среды VMware® содержит следующий параметр:

  • all_ipaddresses

Если эта инструкция присутствует, IP-адрес в XML не будет обновляться. Эта инструкция действительна и для заданий.

Настройка мониторинга VMware

Выполните действия, описанные в VMware Discovery для настройки мониторинга инфраструктуры VMware с помощью Discovery.

Выполнение плагина VMware

Для проверки работы вашей конфигурации вы можете выполнить:

 perl \
    /usr/share/pandora_server/util/plugin/vmware-plugin.pl \
    /usr/share/pandora_server/util/plugin/vmware-plugin.conf

Примечание:

  • Для VMware SDK 6.5.0, если во время выполнения плагина вы получили следующий вывод:
Server version unavailable at 'https://your_vmwre_fqdn:443/sdk/vimService.wsdl' at /usr/local/lib64/perl5/VMware/VICommon.pm line 734.

Рекомендуемое решение - настроить версии библиотек Perl LWP:

cpan install GAAS/libwww-perl-5.837.tar.gz

Настоятельно рекомендуется использовать Discovery Applications VMware для мониторинга вашей инфраструктуры.

Планирование выполнения из Агента Pandora FMS

Для использования Агента Pandora FMS необходимо скопировать vmware-plugin.{pl,conf} в место, доступное для Агента Pandora FMS:

  sudo cp \
    /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} \
    /etc/pandora/plugins/

Чтобы создать файл конфигурации

vmware-plugin-events.conf

скопируйте vmware-plugin.conf и измените вручную event_mode a 1.

Теперь вы должны добавить новый модуль типа plugin в конфигурационный файл агента следующей строкой:

 module_plugin perl \
     /etc/pandora/plugins/vmware-plugin.pl \
     /etc/pandora/plugins/vmware-plugin.conf

Если вы также хотите сделать копию событий, вы должны создать другой Модуль плагин с другим конфигурационным файлом, который позволит копировать события. Синтаксис выглядит следующим образом:

 module_plugin perl \
    /etc/pandora/plugins/vmware-plugin.pl \
    /etc/pandora/plugins/vmware-plugin-events.conf

В системах Windows® необходимо указать используемый интерпретатор:

module_plugin perl "%ProgramFiles%\pandora_agent\util\vmware-plugin.pl" "%ProgramFiles%\pandora_agent\util\vmware-plugin.conf"

В следующих разделах подробно описаны параметры конфигурационного файла плагина.

Запуск плагина VMware может занять много времени из-за большого количества зарегистрированных объектов.

Мы рекомендуем проводить мониторинг через Discovery, чтобы DiscoveryServer сам позаботился об этих задачах.

Если вы решите проводить мониторинг другим способом, может потребоваться распределить нагрузку между несколькими программными агентами Pandora FMS или выбрать другой режим программирования. Всю информацию об этом можно найти в следующих разделах

Планирование выполнения из cron системы

Вы можете запланировать выполнение плагина из самого cron системы. Помните, что интервальное значение созданных элементов ( interval в конфигурации) и периодичность выполнения должны быть согласованы:

# Input to add to crontab, set a range of 600 to use this setting/10 * * * * root perl
 /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf

В приведенном выше примере показана строка, которую нужно добавить в crontab. Установите интервал 600 для использования этой конфигурации

Мониторинг виртуальной архитектуры VMware

Чтобы увидеть результат выполнения плагина, откройте подменю Agent Detail в меню Views.

В этом виде появятся Агенты, созданные плагином, вместе с другими Агентами Pandora FMS.

vmware_agent_detail.jpg

Если вы щелкните на имени агента, вы откроете просмотр агента Pandora FMS, где будут отображаться модули, контролируемые плагином VMware.

agent_detail_screen.jpg

По умолчанию плагин развертывает базовый мониторинг для каждого из элементов VMware®.

Мониторинг центра данных по умолчанию
  • Ping
  • Check 443 port
Мониторинг центра данных по умолчанию
  • Capacity
  • Free Space
  • Disk Overallocation
  • Free Space Bytes
Мониторинг ESXi по умолчанию
  • CPU Usage
  • Memory Usage
  • Data received
  • Data transmitted
  • Disk Read Latency
  • Disk Write Latency
  • Host Alive
  • Disk Rate
  • Net Usage
Мониторинг по умолчанию для виртуальных машин
  • CPU Usage
  • Memory Usage
  • Tools Running Status
  • Host Alive
  • Disk Free
  • Disk Read Latency
  • Disk Write Latency
  • Data received
  • Data transmitted
  • Net Usage

В следующем разделе подробно описаны все доступные модули и информация, сообщаемая каждым из них.

Модули агентов виртуальной архитектуры VMware

Некоторые модули могут быть недоступны в зависимости от версии VMware и от конфигурации среды. В следующих таблицах описаны различные доступные модули характеристики их доступности.

Плагин позволяет настраивать пользовательские Performance Counters для хостов ESX и виртуальных машин. Вы можете посмотреть, как это делается, в разделе, который подробно описывает содержимое конфигурационного файла.

Модули для агентов типа Datacenter
Модуль Описание Версия API Доступность
Ping Проверка Ping на устройстве с поддержкой vCenter Все Всегда
Check 443 port Проверка порта 443 устройства, которое поддерживает vCenter Все Всегда
Модули для агентов типа Datastore
Модуль Описание Версия API Доступность
Capacity Максимальная емкость хранилища данных Datastore в байтах Все Всегда
Free Space Процент свободного пространства в Datastore Все Всегда
Disk Overallocation Процент избыточного распределения дисков ≥v4.0 Всегда
Free Space Bytes Объем свободного пространства в байтах Все Всегда
Модули для агентов типа host ESXi
Модуль Описание Версия API Доступность
Boot Time Последняя дата включения хоста Все Всегда
CPU Info [x] Общая информация о процессоре (один модуль создается для каждого процессора ESXi) Все Если подключено
Memory Size Общий объем физической памяти хоста в байтах Все Если подключено
Overall CPU Usage Сумма использования всех процессоров в МГц Все Если подключено
Overall Memory Usage Общее использование памяти хостами VMware Все Если подключено
Power State Состояние питания хоста ≥v2.5 Всегда
SSL Thumbprint Отпечаток SSL хоста ≥v4.0 Если настроено
Uptime Время работы хоста в секундах ≥v4.1 Если подключено
VNIC Info [x] Информация о виртуальных сетевых интерфейсах хоста Все Если подключено и настроено
Host Alive Модуль равен 1, если ESX подключен, и равен 0 в противном случае. Все Всегда
Connection State Состояние соединения с хостом Все Всегда
Disk Read Скорость чтения с диска в Кбит/с Все Уровень статистики ≥2
Disk Write Скорость записи на диск Кбит/с Все Уровень статистики ≥2
Disk Read Latency Задержка чтения с диска в миллисекундах Все Уровень статистики ≥2
Disk Write Latency Задержка записи на диск в миллисекундах Все Уровень статистики ≥2
Data received Скорость Кбит/с, полученная от хоста Все Уровень статистики ≥2
Data transmitted Скорость Кбит/с, отправляемая с хоста Все Уровень статистики ≥2
Packages Received Количество пакетов, полученных в интервале Все Уровень статистики ≥2
Packages Transmitted Количество пакетов, отправленных в интервале Все Уровень статистики ≥2
CPU Usage Процент использования процессора Все Уровень статистики ≥2
Memory Usage Процент использования оперативной памяти Все Уровень статистики ≥2
Net Usage Сетевые данные, полученные и отправленные со всех NIC Все Уровень статистики ≥2
Disk Rate Скорость ввода/вывода в КБ/сек Все Уровень статистики ≥2
Max. Disk Latency Максимальная задержка всех дисков Все Уровень статистики ≥2
HA Status Статус хоста HA ≥v5.0 Если настроено
Sensor* Состояние аппаратных датчиков (один модуль на датчик) Все ESXi >= 3.5
Модули для Агентов типа виртуальной машины

Эти модули предлагают информацию с точки зрения архитектуры VMware®. Если вы хотите отслеживать другие параметры, связанные с виртуальной машиной, вам следует рассмотреть другие варианты, такие как Мониторинг с программными Агентами или Удаленный мониторинг

Модуль Описание Версия API Доступность
Boot Time Последняя дата включения виртуальной машины Все Если подключено
Connection State Состояние соединения Все Всегда
Consumed Overhead Memory Объем памяти, потребляемой виртуальной машиной в МБ ≥v4.0 Если настроено
CPU Allocation Информация о ресурсах, выделенных центральному процессору виртуальной машины Все Если настроено
Disk Free [x] Процент свободного дискового пространства на виртуальной машине. (Для каждого диска, на котором находится виртуальная машина, будет один модуль.) Все Если настроено
Guest State Режим работы операционной системы guest Все Если настроено
Host Info Информация о хосте VMware Все Если настроено
Host Alive Модуль, который равен 1, если виртуальная машина запущена, и 0 в противном случае. Все Всегда
Host Memory Usage Память, потребляемая виртуальной машиной в МБ Все Если подключено
Host Name Связанное имя хоста Все Если настроено
IP Address [x] IP-адрес машины. (Будет отображаться по одному доступному сетевому интерфейсу.) ≥v4.1 Если настроено
MAC Address [x] MAC-адрес машины. (Будет отображаться по одному доступному сетевому интерфейсу.) Все Если настроено
Max CPU Usage Верхний предел использования ЦП виртуальной машины Все Если подключено
Max Memory Usage Верхний предел использования оперативной памяти виртуальной машины Все Если подключено
Memory Allocation Предел ресурсов памяти Все Если настроено
Memory Overhead Объем памяти, используемой виртуальной машиной сверх требований операционной системы guest, в байтах. Все Если настроено
Overall CPU Demand Основные статистические данные о производительности процессора в МГц ≥v4.0 Если подключено
Overall CPU Usage Основная статистика использования процессора в МГц Все Если подключено
Power State Текущее состояние виртуальной машины Все Всегда
Private Memory Объем памяти в МБ, предоставленный виртуальной машине из собственной памяти ≥v4.0 Если подключено
Shared Memory Объем памяти в МБ, предоставляемый виртуальной машине в общей памяти ≥v4.0 Если подключено
Tools Running Status Текущее состояние запущенных инструментов VMware Tools, установленных в операционной системе guest ≥v4.0 Если настроено
Trigger Alarm State Состояние сигналов предупреждения VMware Все Если настроено
Uptime Seconds Время работы виртуальной машины в секундах ≥v4.1 Если подключено
Virtual Image Path Путь к файлу конфигурации виртуальной машины (.vmx) Все Всегда
Disk Read Скорость чтения с диска в Кбит/с Все Уровень статистики ≥2
Disk Write Скорость записи на диск Кбит/с Все Уровень статистики ≥2
Disk Read Latency Задержка чтения с диска в миллисекундах Все Уровень статистики ≥2
Disk Write Latency Задержка записи на диск в миллисекундах Все Уровень статистики ≥2
Data received Скорость Кбит/с, полученная от хоста Все Уровень статистики ≥2
Data transmitted Скорость Кбит/с, отправляемая с хоста Все Уровень статистики ≥2
Packages Received Количество пакетов, полученных в интервале Все Уровень статистики ≥2
Packages Transmitted Количество пакетов, отправленных в интервале Все Уровень статистики ≥2
CPU Usage Процент использования процессора Все Уровень статистики ≥2
Memory Usage Процент использования оперативной памяти Все Уровень статистики ≥2
Net Usage Сетевые данные, полученные и отправленные со всех NIC Все Уровень статистики ≥2
Disk Rate Скорость ввода/вывода в КБ/сек Все Уровень статистики ≥2
Max. Disk Latency Максимальная задержка всех дисков Все Уровень статистики ≥2
HeartBeat Количество Heartbeat-сообщений виртуальной машины Все Уровень статистики ≥2
CPU Ready Процент времени, в течение которого машина находится в списке, но не поставлена в очередь на выполнение на физическом процессоре Все Уровень статистики ≥2
Number Snapshots Количество снапшотов для виртуальной машины (этот модуль может влиять на производительность мониторинга, поэтому рекомендуется запускать его с большим значением интервала, например, каждый час). Все Если настроено
HA Status Статус HA для виртуальной машины ≥v5.0 Если настроено

Некоторые модули требуют установки VMware tools®.

Мониторинг событий VMware

Эта функция делает копию событий, присутствующих в vCenter VMware® в список событий Pandora FMS.

Эти события становятся частью обычного потока событий Pandora FMS и автоматически ассоциируются с агентом, представляющим vCenter, из которого они исходят (если агент существует на момент создания события).

В процессе создания дампа событий учитывается информация и степень серьезности, которые VMware® указывает при создании события, поэтому события с критическим, предупреждающим или информативным уровнем серьезности сохранят эти уровни в Pandora FMS. На следующем изображении показан пример подробной информации о дампе событий из VMware в Pandora FMS.

Со всеми событиями, присутствующими в Pandora FMS, можно выполнять все доступные действия по управлению событиями, такие как: создание предупреждений, настройка фильтров, открытие инцидентов и т.д.

Управление и визуализация виртуальной архитектуры VMware

Вместе с плагином VMware® распространяются два расширения: VMware Manager® и VMware View®. VMware View® позволяет визуализировать все компоненты архитектуры VMware® в удобном виде. Кроме того, с помощью VMware Manager® вы можете управлять большим количеством виртуальных машин, останавливая, запуская, сбрасывая или приостанавливая их активность из консоли Pandora FMS.

Использование VMware View

Чтобы начать использовать средство просмотра архитектуры VMware®, перейдите в раздел MonitoringVMware view.

Если у вас нет устройства для мониторинга или вы не настроили API vCenter® и ESXi VMware® вы получите нечто похожее на следующее изображение:

Если плагин находится в рабочем состоянии, вы получите это сообщение (нажмите на Show):

Расширение VMware View® покажет вам карту, подобную приведенной ниже, со всей архитектурой VMware®.

Карта содержит элементы архитектуры VMware® (виртуальные машины, ESX, DataStores и DataCenters) с различными иконками, которые их идентифицируют, а также состояние агентов Pandora FMS, которые представляют каждый элемент. Кроме того, показана взаимосвязь между виртуальными машинами, ESX и DataCenter. Таким образом можно быстро и просто посмотреть состояние архитектуры VMware®.

Это расширение имеет некоторые опции, которые помогают улучшить визуализацию архитектуры, скрывая элементы, увеличивая размер шрифта и позволяя увеличить масштаб, чтобы увидеть элементы с большей детализацией.

Используя приведенные выше параметры, вы можете показать только DataCenter и ESX.

VMware View Dashboards

VMware View® предоставляет два дополнительных вида в дополнение к виду топологической карты виртуальной архитектуры. Новые вкладки позволяют переключаться между различными видами VMware View®.

Первый вид - это общая приборная панель, где можно сразу увидеть общее состояние виртуальной архитектуры в цифрах, т.е. сколько виртуальных машин, хостов ESXi или DataStores имеют проблемы. Вы также сможете увидеть общие параметры производительности благодаря графикам, которые показывают 5 виртуальных машин, потребляющих больше всего памяти, процессора, диска и сети из всей виртуальной архитектуры.

Второй вид позволяет увидеть показатели производительности для каждого хоста ESX. В этом виде вы можете выбрать хост ESX, для которого будет загружена приборная панель, в которой будет отображаться статус хоста и виртуальных машин, а также некоторые показатели производительности, касающиеся использования процессора, памяти, диска и сети хоста ESXi. Кроме того, этот вид также предлагает несколько графиков, которые показывают виртуальные машины, потребляющие больше ресурсов (процессор, память, диск и сеть) выбранного хоста.

VMware View Options Tab

Версия Enterprise.

Расширение VMWare входит в комплект поставки Pandora FMS Console Enterprise. В нем есть панель конфигурации для настройки параметров панелей и карт:

  • Вы можете настроить пороги вида (минимум - максимум) графиков приборных панелей.
  • Вы можете настроить параметры просмотра карты по умолчанию.
  • Содержит ссылку на систему управления конфигурацией.

Доступно во вкладке опций VMWare View®:

Использование расширения VMware Manager из Агентов

Для использования расширения VMware® Manager необходимо перейти к просмотру операций агента, соответствующего виртуальной машине в этой архитектуре. Внутри этого просмотра вы увидите значок с символом VMware, который соответствует расширению.

Расширение VMware® Manager позволяет управлять виртуальными машинами из консоли Pandora FMS. Расширение показывает текущее состояние виртуальной машины с помощью цветового кода:

  • Зеленый = Включена.
  • Оранжеваый = На паузе.
  • Серый = Остановлена.

Кроме того, в комбинированном режиме оно показывает доступные состояния и позволяет изменить состояние виртуальной машины на выбранное, нажав кнопку Change Status.

Выбор состояния Stop и нажатие на Change status:

Это приведет к остановке машины, а вид расширения VMware Manage изменится и покажет, что машина теперь остановлена:

Данное расширение требует установки VMware SDK® для Perl на той же машине, которая поддерживает Консоль Pandora FMS; без этого требования расширение работать не будет

Если вы настроили мониторинг с помощью RENAME, эта утилита не будет работать с переименованными целями.

Конфигурация плагина VMware

По умолчанию VMware плагин обнаруживает все объекты и добавляет проверки по умолчанию. С помощью конфигурационного файла вы можете настроить мониторинг и выбрать, какие переменные вы хотите отслеживать.

Файл конфигурации содержит всю необходимую для проведения мониторинга информацию, сгруппированную в следующих разделах: Configuration, Rename, Reject, Datacenter, Datastore, ESX, VM.

Все ошибки, связанные с конфигурационным файлом, отображаются в журнале ошибок сервера Pandora FMS, а также в средстве просмотра событий Консоли Pandora FMS. Поэтому вы можете узнать, есть ли какие-либо ошибки в конфигурационном файле, проверив любой из этих двух источников.

Файл Конфигурации

Общая конфигурация

Общая конфигурация определяется токеном Configuration и содержит следующие параметры:

  • server: IP-адрес vCenter.
  • user: Пользователь vCenter.
  • pass: Пароль для доступа к vCenter.
  • datacenter: Центр обработки данных для мониторинга.
  • temporal: Временный каталог.
  • logfile: Расположение файла журнала.
  • entities_list: Расположение файла, содержащего список объектов, на которых проводится мониторинг.
  • transfer_mode: Режим передачи для XML, он может быть через tentacle или локальным.
    • tentacle: Отправка XML-файлов на сервер Pandora FMS, используя протокол Tentacle.
    • local: Копирует файлы в локальную папку; Агент должен быть запущен на той же машине, что и локальная папка.
  • tentacle_ip: IP-адрес сервера Pandora FMS для отправки информации.
  • tentacle_port: Порт сервера Pandora FMS, на который отправляется информация (по умолчанию 41121).
  • tentacle_opts: Дополнительные опции для отправки с Tentacle (по умолчанию их нет).
  • local_folder: Целевой каталог для копирования XML при включенном локальном режиме.
  • pandora_url: URL консоли Pandora FMS (например:

http://192.168.70.81/pandora_console ).

  • api_pass: Пароль API консоли Pandora FMS.
  • api_user: Пользователь консоли Pandora FMS.
  • api_user_pass: Пароль пользователя консоли Pandora FMS.
  • retry_send: Включает (1) или отключает (0) пересылку файлов .data в каталоге <i>temporal</i>
  • event_mode: Флаг, активирующий режим сбора событий. Если он равен 1, то активируется, если 0 - деактивируется.
  • event_pointer_file: Расположение временного файла, в котором хранится указатель для сбора событий.
  • verbosity: Уровень лога (0 только ошибки, препятствующие работе плагина, 1 все ошибки).
  • threads: Количество потоков плагина (по умолчанию 1).
  • interval: Диапазон агентов, представляющих объекты VMware®.

Пример такого раздела в конфигурационном файле может выглядеть следующим образом:

 Configuration
 server 192.168.70.249
 user Administrator
 pass S1stemas
 datacenter artica
 temporal /tmp
 logfile /tmp/vmware_plugin.log
 entities_list /tmp/vmware_entities_list.txt
 transfer_mode tentacle
 tentacle_ip 192.168.70.81
 tentacle_port 41121
 tentacle_opts
 local_folder /var/spool/pandora/data_in
 pandora_url http://192.168.70.81/pandora_console
 api_pass 1234
 api_user admin
 api_user_pass pandora
 event_mode 0
 event_pointer_file /tmp/vmware_events_pointer.txt

Если вы используете плагин в системах MS Windows®, необходимо будет заменить все пути к файлам на пути, совместимые с Windows®.

Сканирование объектов

Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в Extra settings.

Из-за размеров инфраструктур VMware, характерных для клиентов Enterprise, полное сканирование всех доступных объектов при каждом запуске может вызвать проблемы с производительностью.

Чтобы избежать этой ситуации, плагин мониторинга VMware имеет файл объектов ( entities_list ), в котором хранится список объектов, сканируемых при первом запуске.

Пока существует этот файл, мониторинг ограничен перечисленными в нем объектами.

Если вам необходимо периодическое сканирование инфраструктуры VMware, вы можете удалять этот файл время от времени (например, каждый час) с помощью cron системы.

Переименование объектов

Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в Extra settings.

Переименование объектов осуществляется с помощью токена RENAME и позволяет вам переименовывать объекты, обнаруженные плагином. При использовании этой функции Агенты, созданные в Pandora FMS, будут отображаться с новым присвоенным именем. Структура данного раздела выглядит следующим образом:

<настоящее имя> TO <новое имя>

Пример конфигурации этого раздела может быть следующим:

 #Rename entities
 Rename
 Debian 11 TO Virtual Machine 1
 RedHat 12 TO Web server
 ESX Workstation TO Host Work Sales

Исключение объектов

Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в Extra settings.

Плагин позволяет исключать объекты по типу или по отдельности, оба варианта описаны ниже.

Отбрасывание объектов по типу осуществляется с использованием токена REJECT. В этом разделе вы можете отбрасывать объекты в соответствии с их типом; например, все виртуальные машины или все хосты ESX. Возможные значения, которые может принимать этот раздел, следующие: all_datastore, all_datacenter, all_esx, all_vm.

Конфигурация этой секции, которая отбрасывает все объекты, будет выглядеть следующим образом:

 #Dismissed entities
 Reject
 all_datastore
 all_datacenter
 all_esx
 all_vm

Для выполнения отбрасывания объектов по отдельности необходимо будет удалить их из файла объектов, созданного плагином. Плагин создает этот файл в месте, указанном в параметре entities_list (по умолчанию /tmp/vmware_entities_list.txt). Плагин заполняет содержимое этого файла при первом запуске, или когда его не существует, создавая список всех обнаруженных объектов. Примером файла может быть следующее:

 Datacenter
 artica
 Datastore
 datastore_1
 datastore2
 ESX
 192.168.70.252
 VM
 Pandora FMS 4.0.3
 Debian2
 Debian3
 Debian4
 Redhat
 debian5
 Debian6
 Debian8
 Debian7
 Debian11
 Debian10
 Debian9
 NSM
 Pandora
 vcenter
 suse11.2

Файл конфигурации разделен на несколько токенов: Datacenter, Datastore, ESX и VM, где перечислены различные объекты. После создания файла конфигурации плагин будет считывать из этого файла объекты для мониторинга. Чтобы отбросить объект, достаточно удалить его из этого файла. Если, например, вам не нужно проводить мониторинг объектов: Debian2, datastore2, NSM, suse11.2 и 192.168.70.252, конфигурационный файл будет выглядеть следующим образом:

 Datacenter
 artica
 Datastore
 datastore_1
 ESX
 VM
 Pandora FMS 4.0.3
 Debian3
 Debian4
 Redhat
 debian5
 Debian6
 Debian8
 Debian7
 Debian11
 Debian10
 Debian9
 Pandora
 vcenter

Эта функция позволяет распределить нагрузку на мониторинг, ограничивая количество объектов, отслеживаемых при каждом выполнении плагина. Ниже описаны различные методы распределения нагрузки.

Конфигурация мониторинга

Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в Extra settings.

В следующих разделах файла настраиваются модули, созданные для каждого типа объекта. В разделах используются токены. Datacenter, Datastore, ESX, VM. В этих разделах вы можете включить/выключить модули для мониторинга. В следующем примере мы создали конфигурацию, выбрав модули, которые мы хотим создать для ESX и виртуальных машин:

 ...
 #ESX Modules
 ESX
 cpuUsagePercent disabled
 diskRead enabled
 diskWrite enabled

 #VM Modules
 VM
 diskReadLatency disabled
 diskWriteLatency disabled
 diskRate enabled
 ...

Каждая строка конфигурации соответствует одному модулю. В приведенном примере модули будут созданы со значениями по умолчанию, но можно настроить имя, описание и ограничения для Предупреждающего и Критического состояний Модуля. Примером такой конфигурации может быть следующее:

 ...
 #VM Modules
 ESX
 diskReadLatency disabled
 diskWriteLatency disabled
 diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
 ...

Для конфигурации модуля доступны следующие опции:

  • <модуль> disabled: Модуль НЕ будет создан.
  • <модуль> enabled: Модуль БУДЕТ создан (со значениями по умолчанию).
  • <модуль> name = <имя>; desc = <описание>; limits_warn <lim_warn>; limits_crit <lim_crit» Модуль будет создан с указанным именем и описанием, а также будут определены пороговые значения для самого высокого и самого низкого состояний Предупреждения и Критического.

Очень важно обратить внимание на структуру строк конфигурационного файла и особенно проверить, чтобы символ ; был присоединен к имени и описанию Модуля. Эти две строки НЕ РАВНЫ (см. пробелы перед символом ; ):

diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
diskRate name = Tasa Disco    ; desc = Tasa Lec/Esc disco    ; limits_warn = 5 10; limits_crit    = 0    4

На модули ссылаются по их короткому имени - эквивалентному имени, которое легче набрать в командной строке. Таблица соответствия кратких и расширенных названий находится в следующем разделе.

Проанализируйте пример конфигурации, приведенный выше. Модуль Disk Rate был настроен на создание со следующими значениями:

 * Имя: Скорость Диска
 * Описание: Скорость Записи/Чтения Диска
 * Min Warning: 5
 * Max Warning: 10
 * Min Critical: 0
 * Max Critical: 4

Есть модули, которые генерируются динамически, например, связанные с дисками или сетевыми интерфейсами. Для этих метрик плагин создает Модуль для каждого обнаруженного элемента. Эти модули обычно имеют специальные названия, например, в Pandora FMS:

Disk Free [0]
Disk Free [1]
Disk Free [2]
...

В этих случаях, поскольку имя имеет динамическую часть, допускается использование макроса %s, который будет заменен на переменную часть имени Модуля. Пример динамической конфигурации модуля выглядит следующим образом:

diskFree name = Disk (%s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0

В этом случае имя модуля по умолчанию:

Disk Free [0]

И оно будет переименовано в:

Disk (0) free space

Также можно настроить текстовые строки для границ предупреждающего и критического состояний модулей. Конфигурация будет выглядеть следующим образом:

powerState name = Estado funcionamiento; desc = Estado funcionamiento VM; limits_warn = .*suspended.*; limits_crit = .*poweredOff.*

Можно настроить регулярные выражения для обеспечения большей гибкости при установке ограничений.

Пользовательские метрики производительности

Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в Extra settings.

В этом разделе можно настроить новые модули, связанные с Performance Counters для виртуальных машин и ESX. Для настройки нового модуля производительности необходимо использовать следующую структуру:

custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0

Настраиваются следующие параметры:

  • type: Тип метрик, подлежащих мониторингу. Виды метрики следующие:
    • cpu: Характеристики центрального процессора.
    • mem: Память.
    • disk: Диск, хранилище.
    • net: Сеть.
    • sys: Система.
  • metric: Метрика для мониторинга (ниже объясняется, где можно найти наиболее доступные метрики).
  • module_type: Тип Модуля Pandora FMS (например: generic_data).
  • name: Название Модуля.
  • desc: Описание Модуля.
  • limits_warn: Пределы для состояния Предупреждение.
  • limits_crit: Пределы для Критического состояния.

Вы можете ознакомиться с наиболее доступными техниками для каждого типа в разделе Performance каждого объекта. Этот вид находится внутри vCenter и показывает метрики производительности, которые можно отслеживать с помощью плагина. VMware®. Например, на следующем изображении показан вид de Performance для хоста ESX.

Haga clic para ampliar

Чтобы увидеть полный список всех инструментов в соответствии с их типом, нажмите на кнопку Advanced, а затем на кнопку Char option. Вы увидите список со всеми типами инструментов и соответствующими инструментами каждого типа:

Для каждого типа метрики появится ряд счетчиков, которые являются переменными, которые мы сможем отслеживать с помощью Pandora FMS. Для мониторинга переменной нам нужен ее Internal Name. Кроме того, необходимо убедиться, что уровень статистики, настроенный в vCenter, позволяет отображать искомую переменную, сравнив ее с полем Collection Level метрики.

Например, если вам нужно посмотреть использование процессора хоста ESX, мы найдем переменные типа cpu для ESX и из доступных выберем utilization. В конфигурационный файл (в данном случае в раздел ESX) нужно добавить следующую строку:

custom_performance type = cpu; metric = utilization; module_type = generic_data; name = CPU Utilization; desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0
Мониторинг нескольких Центров Обработки Данных с помощью одного и того же агента

Каждый модуль плагина, настроенный в Агенте, контролирует один ЦОД, поэтому если вы хотите контролировать несколько ЦОД с помощью одного и того же Программного Агента Pandora FMS, необходимо принять следующие меры.

  • Необходимо добавить module_plugin для каждого ЦОД, который необходимо контролировать; например:
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
  • В каждом файле конфигурации необходимо будет изменить параметры: logfile, entities_list, event_pointer_file. Конфигурационные файлы будут выглядеть следующим образом:

vmware-plugin-datacenter1.conf

 ...
 logfile /tmp/vmware_plugin_datacenter1.log
 entities_list /tmp/vmware_entities_list_datacenter1.txt
 event_pointer_file /tmp/vmware_events_pointer_datacenter1.txt
 ...

vmware-plugin-datacenter2.conf

 ...
 logfile /tmp/vmware_plugin_datacenter2.log
 entities_list /tmp/vmware_entities_list_datacenter2.txt
 event_pointer_file /tmp/vmware_events_pointer_datacenter2.txt
 ...
  • Если вы также хотите сделать копию событий, необходимо иметь еще два модуля плагина с соответствующими конфигурационными файлами и активировать флаг. event_mode. Конфигурация module_plugin будет выглядеть следующим образом:
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf
Разделите нагрузку по мониторингу между несколькими серверами Pandora FMS

Параметры конфигурационного файла плагина позволяют легко распределить нагрузку мониторинга между несколькими серверами Pandora FMS. Возьмем, к примеру, следующую структуру среды виртуализации:

 DC
 |
 |- Datastore_1
 |- DataStore_2
 |
 |- ESX_1
       |- mv1.1
       |- mv1.2
       |- mv1.3

 |- ESX_2
       |- mv2.1
       |- mv2.2
       |- mv2.3

Он имеет два сервера Pandora FMS для мониторинга. Простым способом разделения нагрузки может быть мониторинг центра данных, хранилищ данных и ESX на первом сервере и всех виртуальных машин на втором сервере. Конфигурационные файлы плагина будут следующими:

Сервер 1:

 Reject
 all_vm

Сервер 2:

 Reject
 all_datacenter
 all_datastore
 all_esx

Сервер 1 следит за всем за исключением виртуальных машин, а Сервер 2 только за виртуальными машинами.

Другим способом распределения нагрузки может быть разделение мониторинга по ESX; первый сервер Pandora FMS будет отслеживать все, что связано с первым сервером ESX, а второй - все, что связано со вторым ESX. Для этого мы разделим файл entities_list.txt на два файла и настроим два выполнения плагина в разных агентах. Файлы entities_list.txt будут выглядеть следующим образом:

Сервер 1:

 Datacenter
 DC
 Datastore
 Datastore_1
 ESX
 ESX_1
 VM
 mv1.1
 mv1.2
 mv1.3

Сервер 1 пропускает все, что связано со второй группой объектов VMware, поэтому он отвечает за мониторинг половины среды.

Сервер 2:

 Datastore
 DataStore_2
 ESX
 ESX_2
 VM
 mv2.1
 mv2.2
 mv2.3

Сервер 2 опускает все, что связано с первой группой объектов VMware в дополнение к ЦОД, поскольку за ним следит сервер 1.

Конфигурация отбрасываемых объектов очень гибкая и позволяет разделить нагрузку, назначая определенное количество объектов каждому агенту Pandora FMS.

Примеры файлов конфигурации

Архив со всеми деактивированными модулями

  #These lines are comments

 #Datacenter Modules
 Datacenter
 ping disabled
 check443 disabled

 #Datastore Modules
 Datastore
 capacity disabled
 freeSpace disabled
 overallocation disabled
 freeSpaceBytes disabled

 #ESX Modules
 ESX
 bootTime disabled
 cpuInfo disabled
 memorySize disabled
 overallCpuUsage disabled
 overallMemoryUsage disabled
 powerState disabled
 sslThumbprint disabled
 uptime disabled
 vnicInfo disabled
 hostAlive disabled
 connectionState disabled
 diskRead disabled
 diskWrite disabled
 diskReadLatency disabled
 diskWriteLatency disabled
 netReceived disabled
 netTransmitted disabled
 netPkgRx disabled
 netPkgTx disabled
 cpuUsagePercent disabled
 memoryUsagePercent disabled
 netUsage disabled
 diskRate disabled
 maxDiskLatency disabled
 haStatus disabled

 #VM Modules
 VM
 bootTime disabled
 connectionState disabled
 consumedOverheadMemory disabled
 cpuAllocation disabled
 diskFree disabled
 guestState disabled
 host disabled
 hostAlive disabled
 hostMemoryUsage disabled
 hostName disabled
 ipAddress disabled
 macAddress disabled
 maxCpuUsage disabled
 maxMemoryUsage disabled
 memoryAllocation disabled
 memoryOverhead disabled
 overallCpuDemand disabled
 overallCpuUsage disabled
 powerState disabled
 privateMemory disabled
 sharedMemory disabled
 toolsRunningStatus disabled
 triggeredAlarmState disabled
 virtualImagePath disabled
 uptimeSeconds disabled
 diskRead disabled
 diskWrite disabled
 diskReadLatency disabled
 diskWriteLatency disabled
 netReceived disabled
 netTransmitted disabled
 netPkgRx disabled
 netPkgTx  disabled
 cpuUsagePercent disabled
 memoryUsagePercent disabled
 netUsage disabled
 diskRate disabled
 maxDiskLatency disabled
 heartbeat disabled
 cpuReady disabled
 snapshotCounter disabled
Таблица соответствия кратких имен

datacenter

Полное Имя Короткое Имя
Ping ping
Check 443 port check443

Datastores

Полное Имя Короткое Имя
Capacity capacity
Free Space freeSpace
Disk Overallocation overallocation
Free Space Bytes freeSpaceBytes

ESX

Полное Имя Короткое Имя
Boot Time bootTime
CPU Info cpuInfo
Memory Size memorySize
Overall CPU Usage overallCpuUsage
Overall Memory Usage overallMemoryUsage
Power State powerState
SSL Thumbprint sslThumbprint
Uptime uptime
VNIC Info vnicInfo
Host Alive hostAlive
Connection State connectionState
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HA Status haStatus
Sensor* systemHealthInfo

Виртуальные машины

Полное Имя Короткое Имя
Boot Time bootTime
Connection State connectionState
Consumed Overhead Memory consumedOverheadMemory
CPU Allocation cpuAllocation
Disk Free diskFree
Guest State guestState
Host Info host
Host Alive hostAlive
Host Memory Usage hostMemoryUsage
Host Name hostName
IP Address ipAddress
MAC Address macAddress
Max CPU Usage maxCpuUsage
Max Memory Usage maxMemoryUsage
Memory Allocation memoryAllocation
Memory Overhead memoryOverhead
Overall CPU Demand overallCpuDemand
Overall CPU Usage overallCpuUsage
Power State powerState
Private Memory privateMemory
Shared Memory sharedMemory
Tools Running Status toolsRunningStatus
Trigger Alarm State triggeredAlarmState
Uptime Seconds uptimeSeconds
Virtual Image Path virtualImagePath
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HeartBeat heartbeat
CPU Ready cpuReady
Number Snapshots snapshotCounter
HA Status haStatus
Таблица событий

Этот список событий предоставляется для облегчения задачи настройки оповещений о событиях в Pandora FMS. Полный и актуальный перечень всех возможных событий можно найти в документации VMware

Событие Степень тяжести Тип событияГруппа
An account was created on host {host.name} Informational System All
Account {account} was removed on host {host.name} Informational System All
An account was updated on host {host.name} Informational System All
The default password for the root user on the host {host.name} has not been changed Informational System All
Alarm '{alarm.name}' on {entity.name} triggered an action Informational System All
Created alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} sent email to {to} Informational System All
Alarm '{alarm.name}' on {entity.name} cannot send email to {to} Critical System All
Reconfigured alarm '{alarm.name}' on {entity.name} Informational System All
Removed alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} ran script {script} Informational System All
Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} Critical System All
Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent Informational System All
Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} Critical System All
Alarm '{alarm.name}' on {entity.name} changed from {[email protected]} to {[email protected]} Informational System All
All running virtual machines are licensed Informational System All
User cannot logon since the user is already logged on Informational System All
Cannot login {userName}@{ipAddress} Critical System All
The operation performed on host {host.name} in {datacenter.name} was canceled Informational System All
Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. Informational System All
Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. Critical System All
Checked cluster for compliance Informational System All
Created cluster {computeResource.name} in {datacenter.name} Informational System All
Removed cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Configuration status on cluster {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} Informational System All
Created new custom field definition {name} Informational System All
Removed field definition {name} Informational System All
Renamed field definition from {name} to {newName} Informational System All
Changed custom field {name} on {entity.name} in {datacenter.name} to {value} Informational System All
Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. Informational System All
An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. Critical System All
An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. Critical System All
Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. Informational System All
Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. Informational System All
The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. Critical System All
An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. Critical System All
dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. Informational System All
dvPort group {net.name} in {datacenter.name} was deleted. Informational System All
Informational System All
dvPort group {net.name} in {datacenter.name} was reconfigured. Informational System All
dvPort group {oldName} in {datacenter.name} was renamed to {newName} Informational System All
HA admission control disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA admission control enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
Re-established contact with a primary host in this HA cluster Informational System All
Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} Critical System All
All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. Critical System All
HA disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} Critical System All
Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} Warning System All
Created datacenter {datacenter.name} in folder {parent.name} Informational System All
Renamed datacenter from {oldName} to {newName} Informational System All
Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} Informational System All
Removed unconfigured datastore {datastore.name} Informational System All
Discovered datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} Critical System All
<internal> Informational System All
File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
File or directory {targetFile} deleted from {datastore.name} Informational System All
File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
Reconfigured Storage I/O Control on datastore {datastore.name} Informational System All
Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} Informational System All
Removed datastore {datastore.name} from {host.name} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} Informational System All
DRS put {host.name} into standby mode Informational System All
DRS is putting {host.name} into standby mode Informational System All
DRS cannot move {host.name} out of standby mode Critical System All
DRS moved {host.name} out of standby mode Informational System All
DRS is moving {host.name} out of standby mode Informational System All
DRS invocation not completed Critical System All
DRS has recovered from the failure Informational System All
Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. Critical System All
Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules Informational System All
{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule Informational System All
DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
DRS powered On {vm.name} on {host.name} in {datacenter.name} Informational System All
Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} Informational System All
A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. Informational System All
vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. Informational System All
vNetwork Distributed Switch event Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. Informational System All
The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. Warning System All
vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. Informational System All
dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. Informational System All
The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. Informational System All
The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. Informational System All
Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} Informational System All
vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. Informational System All
Host {host.name} in {datacenter.name} has entered maintenance mode Informational System All
The host {host.name} is in standby mode Informational System All
Host {host.name} in {datacenter.name} has started to enter maintenance mode Informational System All
The host {host.name} is entering standby mode Informational System All
{message} Critical System All
Host {host.name} in {datacenter.name} has exited maintenance mode Informational System All
The host {host.name} could not exit standby mode Critical System All
The host {host.name} is no longer in standby mode Informational System All
The host {host.name} is exiting standby mode Informational System All
Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} Informational System All
General event: {message} Informational System All
Error detected on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected on {host.name} in {datacenter.name}: {message} Warning System All
User logged event: {message} Informational System All
Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. Informational System All
A ghost proxy switch {switchUuid} on the host {host.name} was resolved. Informational System All
The message changed: {message} Informational System All
{componentName} status changed from {oldStatus} to {newStatus} Informational System All
Cannot add host {hostname} to datacenter {datacenter.name} Critical System All
Added host {host.name} to datacenter {datacenter.name} Informational System All
Administrator access to the host {host.name} is disabled Warning System All
Administrator access to the host {host.name} has been restored Warning System All
Cannot connect {host.name} in {datacenter.name}: cannot configure management account Critical System All
Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} Critical System All
Cannot connect host {host.name} in {datacenter.name} : server agent is not responding Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect user name or password Critical System All
Cannot connect {host.name} in {datacenter.name}: incompatible version Critical System All
Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. Critical System All
Cannot connect {host.name} in {datacenter.name}: error connecting to host Critical System All
Cannot connect {host.name} in {datacenter.name}: network error Critical System All
Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges Critical System All
Cannot connect host {host.name} in {datacenter.name} Critical System All
Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect host name Critical System All
Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response Critical System All
Host {host.name} checked for compliance. Informational System All
Host {host.name} is in compliance with the attached profile Informational System All
Host configuration changes applied. Informational System All
Connected to {host.name} in {datacenter.name} Informational System All
Host {host.name} in {datacenter.name} is not responding Critical System All
dvPort connected to host {host.name} in {datacenter.name} changed status Informational System All
HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {[email protected]} Critical System All
HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly Informational System All
Disconnected from {host.name} in {datacenter.name}. Reason: {[email protected]} Informational System All
Cannot restore some administrator permissions to the host {host.name} Critical System All
Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format Critical System All
Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached Critical System All
The virtual machine inventory file on host {host.name} is damaged or unreadable. Informational System All
IP address of the host {host.name} changed from {oldIP} to {newIP} Informational System All
Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} Critical System All
Cannot resolve IP address to short name on host {host.name} Critical System All
Host {host.name} could not reach isolation address: {isolationIp} Critical System All
A host license for {host.name} has expired Critical System All
Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Host monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} Informational System All
Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} Critical System All
Host {host.name} has no port groups enabled for HA communication. Critical System All
Host {host.name} currently has no management network redundancy Critical System All
Host {host.name} is not in compliance with the attached profile Critical System All
Host {host.name} is not a cluster member in {datacenter.name} Critical System All
Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Primary agent {primaryAgent} was not specified as a short name to host {host.name} Critical System All
Profile is applied on the host {host.name} Informational System All
Cannot reconnect to {host.name} in {datacenter.name} Critical System All
Removed host {host.name} in {datacenter.name} Informational System All
Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries Critical System All
Cannot resolve short name {shortName} to IP address on host {host.name} Critical System All
Shut down of {host.name} in {datacenter.name}: {reason} Informational System All
Configuration status on host {computeResource.name} changed from {[email protected]edEntity.Status} to {[email protected]} in {datacenter.name} Informational System All
Cannot synchronize host {host.name}. {reason.msg} Critical System All
Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} Critical System All
The userworld swap is not enabled on the host {host.name} Warning System All
Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. Informational System All
WWNs are changed for {host.name} Warning System All
The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN Critical System All
Host {host.name} did not provide the information needed to acquire the correct set of licenses Critical System All
{message} Informational System All
Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} Critical System All
The license edition '{feature}' is invalid Critical System All
License {feature.featureName} has expired Critical System All
License inventory is not compliant. Licenses are overused Critical System All
Unable to acquire licenses due to a restriction in the option file on the license server. Critical System All
License server {licenseServer} is available Informational System All
License server {licenseServer} is unavailable Critical System All
Created local datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
The Local Tech Support Mode for the host {host.name} has been enabled Informational System All
Datastore {datastore} which is configured to back the locker does not exist Warning System All
Locker was reconfigured from {oldDatastore} to {newDatastore} datastore Informational System All
Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Critical System All
Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Warning System All
Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Warning System All
Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Warning System All
Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Cannot login user {userName}@{ipAddress}: no permission Critical System All
No datastores have been configured on the host {host.name} Informational System All
A required license {feature.featureName} is not reserved Critical System All
Unable to automatically migrate {vm.name} from {host.name} Informational System All
Non-VI workload detected on datastore {datastore.name} Critical System All
Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} Informational System All
The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. Warning System All
Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} Informational System All
Permission rule removed for {principal} on {entity.name} Informational System All
Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} Informational System All
Profile {profile.name} attached. Informational System All
Profile {profile.name} was changed. Informational System All
Profile is created. Informational System All
Profile {profile.name} detached. Informational System All
Profile {profile.name} reference host changed. Informational System All
Profile was removed. Informational System All
Remote Tech Support Mode (SSH) for the host {host.name} has been enabled Informational System All
Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} Informational System All
Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} Informational System All
Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Critical System All
New role {role.name} created Informational System All
Role {role.name} removed Informational System All
Modifed role {role.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully Informational System All
Created task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} Critical System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} Critical System All
Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Running task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
A vCenter Server license has expired Critical System All
vCenter started Informational System All
A session for user '{terminatedUsername}' has stopped Informational System All
Task: {info.descriptionId} Informational System All
Task: {info.descriptionId} time-out Informational System All
Upgrading template {legacyTemplate} Informational System All
Cannot upgrade template {legacyTemplate} due to: {reason.msg} Informational System All
Template {legacyTemplate} upgrade completed Informational System All
The operation performed on {host.name} in {datacenter.name} timed out Warning System All
There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available Informational System All
{unlicensed} unlicensed virtual machines found on host {host} Informational System All
The agent on host {host.name} is updated and will soon restart Informational System All
User {userLogin} was added to group {group} Informational System All
User {userName}@{ipAddress} logged in Informational System All
User {userName} logged out Informational System All
Password was changed for account {userLogin} on host {host.name} Informational System All
User {userLogin} removed from group {group} Informational System All
{message} Informational System All
Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
A vMotion license for {host.name} has expired Critical System All
Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {[email protected]} Critical System All
vCenter agent has been uninstalled from {host.name} in {datacenter.name} Informational System All
Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {[email protected]} Critical System All
vCenter agent has been upgraded on {host.name} in {datacenter.name} Informational System All
VIM account password was changed on host {host.name} Informational System All
Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened Informational System All
A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired Informational System All
Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Creating {vm.name} on host {host.name} in {datacenter.name} Informational System All
Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} Informational System All
Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} Informational System All
Cannot clone {vm.name}: {reason.msg} Critical System All
Clone of {sourceVm.name} completed Informational System All
Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found Informational System All
Virtual machine {vm.name} is connected Informational System All
Created virtual machine {vm.name} on {host.name} in {datacenter.name} Informational System All
dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]} Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]}. A screenshot is saved at {screenshotFilePath}. Informational System All
Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
Unable to update HA agents given the state of {vm.name} Critical System All
HA agents have been updated with the current state of the virtual machine Informational System All
Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back Critical System All
Cannot deploy template: {reason.msg} Critical System All
Template {srcTemplate.name} deployed on host {host.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is disconnected Informational System All
Discovered {vm.name} on {host.name} in {datacenter.name} Informational System All
Cannot create virtual disk {disk} Critical System All
Migrating {vm.name} off host {host.name} in {datacenter.name} Informational System All
End a recording session on {vm.name} Informational System All
End a replay session on {vm.name} Informational System All
Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Critical System All
Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. Critical System All
vCenter cannot start the Secondary VM {vm.name}. Reason: {[email protected]} Critical System All
Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
vCenter cannot update the Secondary VM {vm.name} configuration Critical System All
Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} Warning System All
Fault Tolerance state on {vm.name} changed from {[email protected]} to {[email protected]} Informational System All
Fault Tolerance protection has been turned off for {vm.name} Informational System All
The Fault Tolerance VM ({vm.name}) has been terminated. {[email protected]} Informational System All
Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS standby for {vm.name} on {host.name} in {datacenter.name} Informational System All
VM monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} Informational System All
Assign a new instance UUID ({instanceUuid}) to {vm.name} Informational System All
The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) Informational System All
The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} Critical System All
New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} Informational System All
Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} Warning System All
The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Error message on {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Message on {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed Informational System All
No compatible host for the Secondary VM {vm.name} Critical System All
Not all networks for {vm.name} are accessible by {destHost.name} Warning System All
{vm.name} does not exist on {host.name} in {datacenter.name} Warning System All
{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered off Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered on Informational System All
Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. Informational System All
VM ({vm.name}) failed over to {host.name}. {[email protected]} Critical System All
Reconfigured {vm.name} on {host.name} in {datacenter.name} Informational System All
Registered {vm.name} on {host.name} in {datacenter.name} Informational System All
Relayout of {vm.name} on {host.name} in {datacenter.name} completed Informational System All
{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary Informational System All
{vm.name} on {host.name} reloaded from new configuration {configPath}. Informational System All
{vm.name} on {host.name} could not be reloaded from {configPath}. Critical System All
Cannot relocate virtual machine '{vm.name}' in {datacenter.name} Critical System All
Completed the relocation of the virtual machine Informational System All
Remote console connected to {vm.name} on host {host.name} Informational System All
Remote console disconnected from {vm.name} on host {host.name} Informational System All
Removed {vm.name} on {host.name} from {datacenter.name} Informational System All
Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} Warning System All
{vm.name} on {host.name} in {datacenter.name} is reset Informational System All
Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} Informational System All
Changed resource allocation for {vm.name} Informational System All
Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed Informational System All
{vm.name} on {host.name} in {datacenter.name} is resumed Informational System All
A Secondary VM has been added for {vm.name} Informational System All
vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. Critical System All
Disabled Secondary VM for {vm.name} Informational System All
Enabled Secondary VM for {vm.name} Informational System All
Started Secondary VM for {vm.name} Informational System All
{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {[email protected]} Informational System All
Start a recording session on {vm.name} Informational System All
Start a replay session on {vm.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is starting Informational System All
Starting Secondary VM for {vm.name} Informational System All
The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
{vm.name} on {host.name} in {datacenter.name} is stopping Informational System All
{vm.name} on {host.name} in {datacenter.name} is suspended Informational System All
{vm.name} on {host.name} in {datacenter.name} is being suspended Informational System All
Starting the Secondary VM {vm.name} timed out within {timeout} ms Critical System All
Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} Warning System All
Virtual hardware upgraded to version {version} Informational System All
Cannot upgrade virtual hardware Critical System All
Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} Informational System All
Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} Informational System All
Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} Warning System All
BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} Critical System All
New WWNs assigned to {vm.name} Informational System All
WWNs are changed for {vm.name} Warning System All
The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN Critical System All
{message} Warning System All
Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. Warning System All
com.vmware.license.AddLicenseEventLicense {licenseKey} added to VirtualCenter Informational System All
com.vmware.license.AssignLicenseEventLicense {licenseKey} assigned to asset {entityName} with id {entityId} Informational System All
com.vmware.license.DLFDownloadFailedEventFailed to download license information from the host {hostname} due to {[email protected]ownloadFailedReason} Warning System All
com.vmware.license.LicenseAssignFailedEventLicense assignment on the host fails. Reasons: {[email protected]}. Informational System All
com.vmware.license.LicenseExpiryEventYour host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. Warning System All
com.vmware.license.LicenseUserThresholdExceededEventCurrent license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) Warning System All
com.vmware.license.RemoveLicenseEventLicense {licenseKey} removed from VirtualCenter Informational System All
com.vmware.license.UnassignLicenseEventLicense unassigned from asset {entityName} with id {entityId} Informational System All
com.vmware.vc.HA.ClusterFailoverActionCompletedEventHA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.HA.ClusterFailoverActionInitiatedEventHA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.DasAgentRunningEventHA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running Informational System All
com.vmware.vc.HA.DasFailoverHostFailedEventHA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed Critical System All
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEventAll shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostCompleteNetworkFailureEventAll VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostFailedEventA possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostMonitoringDisabledEventNo virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.HA.DasTotalClusterFailureEventHA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.HostDasAgentHealthyEventHA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy Informational System All
com.vmware.vc.HA.HostDasErrorEventHA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {[email protected]} Critical System All
com.vmware.vc.VCHealthStateChangedEventvCenter Service overall health changed from '{oldState}' to '{newState}' Informational System All
com.vmware.vc.cim.CIMGroupHealthStateChangedHealth of [data.group] changed from [data.oldState] to [data.newState]. Informational System All
com.vmware.vc.datastore.UpdateVmFilesFailedEventFailed to update VM files on datastore {ds.name} using host {hostName} Critical System All
com.vmware.vc.datastore.UpdatedVmFilesEventUpdated VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.datastore.UpdatingVmFilesEventUpdating VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.ft.VmAffectedByDasDisabledEventVMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. Warning System All
com.vmware.vc.npt.VmAdapterEnteredPassthroughEventNetwork passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.npt.VmAdapterExitedPassthroughEventNetwork passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEventHA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled Informational System All
com.vmware.vc.vcp.FtFailoverEventFT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure Informational System All
com.vmware.vc.vcp.FtFailoverFailedEventFT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary Critical System All
com.vmware.vc.vcp.FtSecondaryRestartEventHA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure Informational System All
com.vmware.vc.vcp.FtSecondaryRestartFailedEventFT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEventHA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long Informational System All
com.vmware.vc.vcp.TestEndEventVM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.TestStartEventVM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VcpNoActionEventHA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting Informational System All
com.vmware.vc.vcp.VmDatastoreFailedEventVirtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} Critical System All
com.vmware.vc.vcp.VmNetworkFailedEventVirtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} Critical System All
com.vmware.vc.vcp.VmPowerOffHangEventHA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying Critical System All
com.vmware.vc.vcp.VmRestartEventHA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VmRestartFailedEventVirtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.VmWaitForCandidateHostEventHA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying Critical System All
com.vmware.vc.vmam.AppMonitoringNotSupportedApplication monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEventApplication heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEventApplication heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
esx.clear.net.connectivity.restoredNetwork connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.dvport.connectivity.restoredNetwork connectivity restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.dvport.redundancy.restoredUplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.redundancy.restoredUplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.vmnic.linkstate.upPhysical NIC {1} linkstate is up. Informational System All
esx.clear.storage.connectivity.restoredConnectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.clear.storage.redundancy.restoredPath redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.problem.apei.bert.memory.error.correctedA corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.fatalA fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.recoverableA recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.pcie.error.correctedA corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.fatalPlatform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.recoverableA recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.iorm.nonviworkloadAn external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. Informational System All
esx.problem.net.connectivity.lostLost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
esx.problem.net.dvport.connectivity.lostLost network connectivity on DVPorts: {1}. Physical NIC {2} is down. Critical System All
esx.problem.net.dvport.redundancy.degradedUplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.dvport.redundancy.lostLost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.e1000.tso6.notsupportedGuest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
esx.problem.net.migrate.bindtovmkThe ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
esx.problem.net.proxyswitch.port.unavailableVirtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
esx.problem.net.redundancy.degradedUplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.redundancy.lostLost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.uplink.mtu.failedVMkernel failed to set the MTU value {1} on the uplink {2}. Warning System All
esx.problem.net.vmknic.ip.duplicateA duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. Warning System All
esx.problem.net.vmnic.linkstate.downPhysical NIC {1} linkstate is down. Informational System All
esx.problem.net.vmnic.watchdog.resetUplink {1} has recovered from a transient failure due to watchdog timeout Informational System All
esx.problem.scsi.device.limitreachedThe maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. Critical System All
esx.problem.scsi.device.thinprov.atquotaSpace utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. Warning System All
esx.problem.scsi.scsipath.limitreachedThe maximum number of supported paths of {1} has been reached. Path {2} could not be added. Critical System All
esx.problem.storage.connectivity.deviceporFrequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} Warning System All
esx.problem.storage.connectivity.lostLost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
esx.problem.storage.connectivity.pathporFrequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.connectivity.pathstatechangesFrequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.redundancy.degradedPath redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.storage.redundancy.lostLost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.vmfs.heartbeat.recoveredSuccessfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
esx.problem.vmfs.heartbeat.timedoutLost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
esx.problem.vmfs.heartbeat.unrecoverableLost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
esx.problem.vmfs.journal.createfailedNo space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
esx.problem.vmfs.lock.corruptondiskAt least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.nfs.mount.connect.failedFailed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.mount.limit.exceededFailed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.server.disconnectLost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
esx.problem.vmfs.nfs.server.restoredRestored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
esx.problem.vmfs.resource.corruptondiskAt least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.volume.lockedVolume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All
vim.event.LicenseDowngradedEventLicense downgrade: {licenseKey} removes the following features: {lostFeatures} Warning System All
vprob.net.connectivity.lostLost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
vprob.net.e1000.tso6.notsupportedGuest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
vprob.net.migrate.bindtovmkThe ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
vprob.net.proxyswitch.port.unavailableVirtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
vprob.net.redundancy.degradedUplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. Warning System All
vprob.net.redundancy.lostLost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
vprob.scsi.device.thinprov.atquotaSpace utilization on thin-provisioned device {1} exceeded configured threshold. Warning System All
vprob.storage.connectivity.lostLost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
vprob.storage.redundancy.degradedPath redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. Warning System All
vprob.storage.redundancy.lostLost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
vprob.vmfs.heartbeat.recoveredSuccessfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
vprob.vmfs.heartbeat.timedoutLost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
vprob.vmfs.heartbeat.unrecoverableLost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
vprob.vmfs.journal.createfailedNo space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
vprob.vmfs.lock.corruptondiskAt least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. Critical System All
vprob.vmfs.nfs.server.disconnectLost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
vprob.vmfs.nfs.server.restoredRestored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
vprob.vmfs.resource.corruptondiskAt least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
vprob.vmfs.volume.lockedVolume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All

RHEV

Red Hat® Enterprise Virtualization (RHEV) является одной из наиболее широко применяемых технологий компаниями, использующими операционную систему Red Hat в качестве основы в своем Центре обработки данных. Pandora FMS Enterprise предлагает возможность мониторинга виртуальных архитектур на базе RHEV с помощью RHEV Monitoring Plugin, который позволяет легко контролировать все аспекты, связанные с виртуальной архитектурой RHEV.

Архитектура для мониторинга

С помощью плагина можно контролировать всю архитектуру системы RHEV: центры обработки данных, кластеры хостов, домены хранения данных, сети, хосты и виртуальные машины, предлагая общий взгляд на состояние виртуальной среды.

Для этого Pandora FMS использует официальный API, предоставляемый системой виртуализации RHEV.

Мониторинг с помощью RHEV Monitoring Plugin

Мониторинг виртуальной среды RHEV основан на двух компонентах:

  1. На Плагине Агента, выполняющем задачи автообнаружения и сбора данных. Плагин Агента отвечает за отправление информации в Pandora FMS.
  2. На скрипте распознавания, который обновляет различные значения для обнаруженных объектов. Это руководство необходимо для правильного функционирования расширений плагина.
  3. Расширение RHEV Viewer и RHEV Manager. Это расширения, которые обеспечивают дополнительную ценность, позволяя видеть контролируемую инфраструктуру и управлять выключением/включением большего количества виртуальных машин, и все это с веб-консоли Pandora FMS.

Для использования скрипта распознавания вам необходимо активировать Reconserver

Чтобы некоторые переменные API отражали реальное значение соответствующей виртуальной машины, вам необходимо установить Агент RHEV; вы можете найти все об этом в документации к вашей версии RHEV.

Для мониторинга установленной операционной системы на виртуальных машинах рекомендуется использовать Агента Pandora FMS вместо RHEV API.

Внутренняя работа плагина

Плагин RHEV Monitoring Plugin извлекает информацию через API web, обслуживающий среду виртуализации RHEV.

Если вам нужна только информация о мониторинге, все, что вам нужно настроить, это плагин Агента, который выполняет эту задачу.

Плагин Агента выполняет обнаружение устройств и составляет XML с модулями для каждого из них. Конфигурация плагина позволяет выбрать, какие элементы будут контролироваться, и конфигурацию его модулей. Модули, созданные плагином, являются настраиваемыми, и можно изменить название и описание, а также добавить максимальные и минимальные значения для состояний модуля Warning и Critical.

После создания XML, плагин Агента, отправляет файлы, используя либо Tentacle или копируя их в локальный каталог, в зависимости от выбранного метода передачи.

Если вы также собираетесь использовать расширения RHEV Viewer и RHEV Manager, вам необходимо использовать распознавание script.

Руководство по распознаванию отвечает за обновление некоторых переменных для каждого из Агентов, обнаруженных в Pandora FMS, в соответствии со значениями, настроенными в RHEV. Эти переменные необходимы для правильного отображения объектов в расширении RHEV Viewer и для правильного управления виртуальными машинами с помощью расширения RHEV Manager.

Необходимые условия установки

Плагин Агента требует установки следующего программное обеспечение:

  • curl.
  • perl-XML-Simple.
  • tentacle_client (если вы хотите использовать tentacle для отправки файлов, tentacle_client устанавливается вместе с Программным Агентом Pandora FMS).
Red Hat

В системах на базе Red Hat® можно установить зависимости с помощью команды:

yum install perl-XML-Simple curl
SLES

На системах на базе SUSE вы можете установить зависимости с помощью команды:

zypper install perl-XML-Simple curl
Debian/Ubuntu

В системах на базе Debiand/Ubuntu вы можете установить зависимости с помощью команды:

apt-get install libxml-simple-perl curl
Установка программного агента Pandora FMS

Установка программного агента Pandora FMS объясняется в следующем разделе Установка Pandora FMS, здесь вы найдете все необходимое для установки данного Агента на вашу платформу.

Скачать сертификат RHEV

Перед использованием плагина необходимо загрузить сертификат, позволяющий HTTPS-соединение с API RHEV. Для этого выполните следующую команду:

curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt

Где [rhevm-host] - имя сервера, обслуживающего API RHEV. Конкретным примером может быть:

curl -o rhevm.cer http://rhevm.server:8080/ca.crt

После загрузки сертификата вы можете проверить правильность подключения к API с помощью следующей команды, используя соединители строк >

curl -X GET \
             -H "Accept: application/xml" \
             -u [USER:PASS] \
             --cacert [CERT] https://[RHEVM-HOST]:8443/api

Со следующими значениями:

  • USER: [email protected] для подключения к API.
  • PASS: пароль пользователя, с которым вы подключаетесь к API.
  • CERT: путь к сертификату, загруженному в предыдущем шаге.
  • RHEVM-HOST: адрес хоста, обслуживающего API.

Пример с конкретными данными команды будет выглядеть следующим образом:

curl -X GET \
            -H "Accept: application/xml" \
            -u [[email protected]:12345] \
            --cacert /home/user/ca.crt https://rhevm.server:8443/api

Если команда выполнена положительно, она возвращает вывод в формате XML с общей информацией об API RHEV.

Предварительные замечания по конфигурации RHEV

В среде виртуализации RHEV возможно, чтобы несколько объектов имели одинаковое имя. Это является проблемой, поскольку в Pandora FMS эти объекты преобразуются в Агентов, в которых дублирование в именах не допускается. Кроме того, из-за этого также возникают проблемы при анализировании результата, возвращаемого API в формате XML, выдается ошибка, подобная следующей:

Warning: <data_center> element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199

Для решения проблемы необходимо лишь следовать номенклатуре имен для объектов среды виртуализации RHEV, в которой имена не повторяются.

Установка плагина агента

Для установки плагина Агента достаточно скопировать скрипт rhev-plugin.pl и файл конфигурации rhev-plugin.conf в каталог устройства, на котором установлен Pandora FMS Agent, выполняющий плагин. Плагин может быть запущен в Агенте, установленном на тех же устройствах, что и сервер Pandora FMS, или на другом устройстве.

Для запуска плагина необходимо добавить в конфигурационный файл Агента (по умолчанию /etc/pandora/pandora_agent.conf) следующая строка:

module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf

При добавлении этой строки, плагин Агента будет выполнять свои функции при каждом выполнении.

Мониторинг виртуальной архитектуры RHEV

700px‎‎‎‎‎‎

Чтобы увидеть результат выполнения плагина Агента, перейдите в MonitoringViewsAgent Detail.

cosa222.jpg

Плагин создает Агента в Pandora FMS для каждого из объектов, найденных при обнаружении архитектуры RHEV./p>

Щелкнув на имени Агента, вы сможете увидеть модули мониторинга, созданные плагином, а также другие связанные с ним данные:

Haga clic para ampliar

Для каждого типа объекта автоматически создается серия специальных модулей, отслеживающих важную информацию о каждом из них.

rhev5.jpg

Если выбранный агент соответствует хосту, а не виртуальной машине, модули мониторинга будут отличаться.

Плагин RHEV также отслеживает события внутри виртуальной архитектуры. Плагин создаст один модуль для каждого события, над которым осуществляется мониторинг, в каждом затронутом объекте:

rhev1.jpg

Данные для модулей, созданных на основе событий, - это данные о событии: время события, описание события. Пример данных:

Помимо Агентов и Модулей, относящихся к самой архитектуре RHEV, в Агенте генерируется модуль, выполняющий плагин. По умолчанию этот модуль называется RHEV Plugin:

rhev3.jpg

Содержимое модуля будет результатом выполнения плагина; оно может быть OK, если все правильно, или показывать строку ошибки с объяснением ошибки, если происходит что-то непредвиденное. Эта информация в дополнение к модулю плагина может быть просмотрена в файле log.

Мониторинг состояния организаций

Модули состояния различных объектов возвращают значения, предопределенные в архитектуре RHEV. Это означает, что значения будут строками, содержание которых будет up, down, error, maintenance, non_operational и т.д., в зависимости от статуса и контролируемого объекта.

Для присвоения значений warning и critical необходимо определить регулярное выражение в конфигурации модуля. Например, чтобы задать критическое состояние Модуля, которое определяется значениями error, down и non_operational, мы вставляем в поле Str. критического значения модуля следующее регулярное выражение:

error|down|non_operational

Модули агента виртуальной архитектуры RHEV

Ниже перечислены модули, доступные для каждого элемента архитектуры RHEV.

Data Center
  • Status: Состояние центра обработки данных.
Storage Domain
  • Available Space: Доступное пространство в Storage Domain.
  • Committed Space: Принятое пространство в Storage Domain.
  • Used Space: Пространство, использованное в Storage Domain.
  • Percent Free Space: Процент свободного пространства в Storage Domain.
Network
  • Status: Состояние виртуальной сети.
  • STP Status: Состояние функциональности протокола Spanning Tree Protocol.
Кластер
  • Overcommit Percent: Процент от чрезмерной нагрузки на кластер.
  • Transparent HugePages: Состояние функциональности Transparent HugePages.
  • High threshold: Верхний предел политики планирования.
  • Low threshold: Нижний предел политики планирования.
  • Threshold duration: Срок действия ограничений в политике планирования.
Host
  • Status: Статус Хоста.
  • Buffers size: Размер буферов.
  • Cache size: Размер кэша.
  • Cached swap: Объем кэширования памяти Swap (в байтах).
  • Free memory: Объем свободной памяти (в байтах).
  • Percent free memory: Процент свободной памяти.
  • Swap cached percent: Процент кэширования памяти Swap.
  • Swap free: Объем свободной памяти Swap (в байтах).
  • Swap free percent: Процент свободной памяти Swap.
  • Total Memory: Общий объем памяти Хоста (в байтах).
  • Total Swap: Общий объем памяти Swap (в байтах).
  • Used memory: Общий объем используемой памяти (в байтах).
  • Used Swap: Общий объем используемой памяти Swap (в байтах).
  • Nic [x] TX: Скорость передачи данных сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса.
  • Nic [x] RX: Скорость приема сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса.
  • Nic [x] erros TX: Количество ошибок передачи сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса.
  • Nic [x] erros RX: Количество ошибок приема сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса.
  • User CPU: Процент процессора, используемого пользователем.
  • System CPU: Процент процессора, используемого системой.
  • CPU Idle: Процент простоя процессора.
  • CPU Load: Средняя загрузка процессора за последние 5 минут.
  • KSM CPU: Процент процессора, используемого KSM.
  • Active VM: Количество активных виртуальных машин в Хосте.
  • Migrating VM: Количество виртуальных машин в миграции в Хосте.
  • Total VM: Общее количество виртуальных машин Хоста.
  • Fence Status: Статус hostfencing.
Virtual Machine
  • Status: Состояние виртуальной машины.
  • Disk [x] read: Скорость чтения с диска x (байт/с). Один генерируется для каждого обнаруженного диска (хранилища).
  • Disk [x] write: Скорость записи на диск x (байт/с). Генерируется для каждого обнаруженного диска.
  • Disk [x] size: Размер диска x (в байтах). Генерируется для каждого обнаруженного диска.
  • Disk [x] status: Статус Диска x. Генерируется для каждого обнаруженного диска.
  • Nic [x] TX: Скорость передачи данных сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса.
  • Nic [x] RX: Скорость приема для сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса.
  • Nic [x] erros TX: Количество ошибок передачи сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса.
  • Nic [x] erros RX: Количество ошибок приема сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса.
  • Installed memory: Объем установленной памяти (в байтах).
  • Percent free memory: Процент свободной памяти.
  • Used memory: Объем используемой памяти (в байтах).
  • Stateless: Состояние функционирования Stateless.
  • HA Status: Состояние функционирования HA.
  • Total CPU: Общий процент процессора, используемого виртуальной машиной.
  • Hypervisor CPU: Процент процессора гипервизора, используемый виртуальной машиной.
  • Guest CPU: Процент от ЦП хоста, используемого виртуальной машиной.
События
  • Event [x]: Описание события x, произошедшего в системе. Одно будет создано для каждого события, обнаруженного в затронутых Агентах.

Управление и визуализация архитектуры RHEV

В этом разделе описывается установка, настройка и работа расширений RHEV View и RHEV Manager.

Задачи распознавания

Существует возможность создания пользовательских задач распознавания благодаря Discovery server.

Установка расширений RHEV View и RHEV Manager

Для установки расширений необходимо просто скопировать содержимое папки extensions, которую вы найдете при распаковке плагина, в соответствующую папку extensions части Enterprise консоли Pandora FMS. Команда для выполнения выглядит следующим образом:

cp -R extensions/* <pandora_console_dir>/enterprise/extensions/

С этого момента будут доступны расширения для мониторинга RHEV.

Использование расширения RHEV View

Чтобы использовать расширение RHEV View, просто нажмите на опцию RHEV View в подменю; Monitoring.

Расширение отобразит карту, подобную следующей, со всеми компонентами архитектуры RHEV, обнаруженными плагином:

rhev12.jpg

На карте показаны различные элементы архитектуры RHEV (Data Centers, Storage Domains, Clusters, Networks, Hosts и Virtual machines). Каждый элемент представлен иконкой, различной для каждого типа элемента архитектуры. Также показаны взаимосвязи между различными элементами архитектуры RHEV. С помощью этого вида очень легко увидеть состояние элементов и то, как они взаимосвязаны.

Расширение имеет меню, которое позволяет настраивать вид, скрывая или показывая объекты, увеличивая или уменьшая размер текста и выполняя zoom для более детального просмотра изображения.

Например, на следующем изображении карты мы скрыли элементы Networks, Hosts и Virtual Machine архитектуры, потому что нам нужно детально увидеть взаимосвязи кластеров и доменов хранения с центрами обработки данных.

rhev8.jpg

Использование расширения RHEV Manager

Расширение RHEV Manager доступно в просмотре операций агентов Pandora FMS, которые соответствуют виртуальным машинам в архитектуре виртуализации RHEV.

Это расширение использует команду curl, поэтому необходимо, чтобы оно было установлено и доступно для веб-сервера, поддерживающего Консоль Pandora FMS.

Для доступа к расширению нажмите на кнопку с логотипом Red Hat, которую вы найдете вместе с другими вкладками агента.

Расширение позволяет управлять большим количеством виртуальных машин (включать, выключать и приостанавливать), не открывая консоль управления RHEV. Расширение показывает текущее состояние виртуальной машины с помощью цветового кода:

  • Зеленый = Включена.
  • Оранжеваый = На паузе.
  • Серый = Остановлена.

С помощью выпадающего подменю можно увидеть доступные статусы и изменить статус виртуальной машины, нажав кнопку Change Status.

Если вы выберете состояние Stop для остановки виртуальной машины, расширение подключится к RHEV API и отправит команду. Результатом будет изменение состояния виртуальной машины и опций комбо:

Переход между некоторыми состояниями не является автоматическим, например, из состояния Stop в Start. В этом случае расширение будет показывать состояние виртуальной машины по мере ее изменения в архитектуре виртуализации. Пример:

Конфигурация плагина агента

Конфигурация плагина Агента осуществляется через конфигурационный файл, имя которого по умолчанию rhev-plugin.conf.

По умолчанию плагин Агента выбирает все сущности и создает все соответствующие модули с определенными значениями для имени и для описания. Все эти аспекты, а также общие переменные плагина, могут быть настроены через конфигурационный файл.

Файл Конфигурации

Конфигурационный файл имеет две отдельные: общие переменные и конфигурация мониторинга.

Раздел глобальных переменных начинается с token Configuration и содержит информацию о конфигурации плагина. Допустимыми параметрами в этом разделе являются:

  • module_name : Имя модуля агента со статусом выполнения плагина.
  • server : Имя хоста, обслуживающего API RHEV.
  • user : Пользователь в формате [email protected] для подключения к API.
  • pass : Пароль для подключения к API.
  • cert : Путь к сертификату для подключения к API.
  • temporal : Временный каталог.
  • logfile : Файл журнала или log.
  • transfer_mode : Режим передачи. Может принять значения: local или tentacle.
  • tentacle_ip : IP-адрес сервера Tentacle, на который отправится информация. В основном он будет расположен на той же машине, что и сервер Pandora FMS. Эта опция используется, только если transfer_mode имеет значение tentacle.
  • tentacle_port : Порт сервера Tentacle. Эта опция используется, только если transfer_mode имеет значение tentacle.
  • tentacle_opts : Параметры отправки данных для Tentacle. Эта опция используется, только если transfer_mode имеет значение tentacle.

Раздел конфигурации мониторинга разделен на несколько подразделов. Первый подраздел имеет в качестве токена Reject и служит для создания списка объектов среды виртуализации, которые будут выброшены из мониторинга. Чтобы отбросить объект, необходимо внести его название в этот список. Например:

 #Dismissed entities
 Reject
 mv1
 mv_Windows10
 mv_WebServer1
 ...

Вы можете отбросить все объекты одного типа, например, все хосты, все виртуальные машины и т.д.. токены для каждого объекта следующие: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (Виртуальные машины). Пример использования этих токенов:

 #Dismissed entities
 Reject
 all_dc
 all_host
 all_network
 all_storage
 all_cluster
 all_vm

Вторая секция имеет в качестве токена Rename и используется для изменения имен объектов, отслеживаемых через плагин. Эта функция очень полезна, если вы хотите совместить мониторинг программных агентов с данными, извлекаемыми из API, в одном и том же Агенте Pandora FMS. Конфигурация этого раздела выполняется путем указания сначала старого имени, а затем нового, разделенных пробелом; например:

 #Rename entities
 Rename
 mv_WebServer1 WebServer1
 mv_Windows10 Windows10 Test
 ...

Конфигурация этого раздела выполняется путем указания сначала старого имени, а затем нового, разделенных пробелом; например: Каждый объект имеет свой собственный токен, представляющий собой следующее: DataCenter, StorageDomain, Network, Cluster, Host и VM. Для каждого из этих объектов можно определить модули, которые будут отключены, или задать пользовательские значения для имени, описания и максимального и минимального диапазонов для статусов. Warning и Critical. В качестве примера можно привести следующее:

#VM Modules
VM
status disabled
errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети; limits = 60 70 71 100
memory_used name = Используемая память; desc = Память, используемая виртуальной машиной; limits = 256 1024 1025 2048
...

Каждая строка конфигурации модулей мониторинга соответствует двум доступным опциям:

  • <модуль> disabled: Модуль НЕ будет создан.
  • <модуль> name = <имя>; desc = <описание>; limits = <min_warning> <max_warning> <min_critical> <max_critical» Модуль будет создан с указанным именем и описанием, а также будут определены пороговые значения для максимального и минимального значений. Warning и Critical.

Очень важно иметь в виду структуру строк конфигурационного файла и прежде всего обратить внимание на то, чтобы символ ; сопровождал имя и описание модуля. Эти две строки НЕ РАВНЫ (см. пробелы перед символом ;):

errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети; limits = 60 70 71 100 #Правильно
errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети    ; limits = 60 70 71 100 #Неправильно

На модули ссылаются по их короткому имени - эквивалентному имени, которое легче набрать в командной строке. Таблица соответствия между краткими и расширенными названиями находится в следующем разделе.

Пример конфигурации для виртуальных машин, раздел VM:

Для мониторинга виртуальных машин был определен ряд модулей, включенных или нет, в разделе VM конфигурационного файла. Более конкретно: модуль status был отключен, а для модулей errors_total_tx и memory_used были определены пользовательские значения. Остальные модули, не появившиеся в списке, будут созданы со значениями по умолчанию. При такой конфигурации модуль memory_used будет принимать следующие значения:

  • Имя: Используемая память.
  • Описание: Память, используемая виртуальной машиной.
  • Min Warning: 256.
  • Max Warning: 1024.
  • Min Critical: 1025.
  • Max Critical: 2048.

Модули генерируются динамически; например, два, относящихся к дискам или интерфейсам, из которых один создается для каждого обнаруженного элемента. Они имеют специальный синтаксис для имени модуля, который выглядит следующим образом:

errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети; limits = 60 70 71 100

В этих случаях, поскольку имя имеет динамическую часть, допускается использование макроса %s для замены плагином переменной части имени модуля.

Например, модуль errors_total_tx имеет имя по умолчанию:

Nic [nic1] errors TX

Теперь он будет называться

Ошибки TX Net [nic1]

Являясь nic1 динамической частью имени модуля.

Все ошибки, связанные с файлом конфигурации, отображаются в журнале, определенном в файле конфигурации, а также отправляются как синхронный модуль в Pandora FMS, который будет отражен как модуль внутри Агента, выполняющего плагин.

В дополнение к разделам для каждого элемента архитектуры, конфигурационный файл имеет общий раздел для Событий. Этот раздел определяется с помощью маркера EventCodes, и в нем будут перечислены коды событий, которые необходимо отслеживать, например:

 EventCodes
 30
 920
 980
 509
 956

Если вы не определите этот раздел, мониторинг событий не будет выполняться.

Разделите нагрузку по мониторингу между несколькими Программными Агентами

С помощью конфигурационного файла плагина Агента можно разделить нагрузку мониторинга инфраструктуры виртуализации RHEV.

Для этого объекты, подлежащие мониторингу, распределяются между различными Агентами. Предположим, у вас есть следующая архитектура:

 DC1
  |
  |- Cluster 1.1
        |- c1.1mv1
        |- c1.1mv2
        |- c1.1mv3

  |- Cluster 1.2
        |- c1.2mv1
        |- c1.2mv2
        |- c1.2mv3

 DC2
  |
  |- Cluster 2.1
        |- c2.1mv1
        |- c2.1mv2
        |- c2.1mv3

  |- Cluster 2.2
        |- c2.2mv1
        |- c2.2mv2
        |- c2.2mv3

Одним из способов разделения нагрузки может быть назначение одного Центра Обработки Данных (ЦОД) каждому из Программных агентов; для этого мы используем функцию отбрасывания объектов для мониторинга (token Reject).

Первый Программный Агент контролирует ЦОД DC1 и отбрасывает объекты DC2.

 Reject
 DC2
 Cluster 2.1
 Cluster 2.2
 c2.1mv1
 c2.1mv2
 c2.1mv3
 c2.2mv1
 c2.2mv2
 c2.2mv3

Второй программный агент контролирует ЦОД DC2 и отбрасывает объекты DC1.

 Reject
 DC1
 Cluster 1.1
 Cluster 1.2
 c1.1mv1
 c1.1mv2
 c1.1mv3
 c1.2mv1
 c1.2mv2
 c1.2mv3

Мы также можем разделить нагрузку на основе кластеров, например. Для каждого кластера из двух Центров Данных назначается агент из первых четырех.

Программный Агент 1, проводит мониторинг Кластера 1.1 и отбрасывает все остальные объекты.

 Reject
 DC1
 Cluster 1.2
 c1.2mv1
 c1.2mv2
 c1.2mv3
 DC2
 Cluster 2.1
 Cluster 2.2
 c2.1mv1
 c2.1mv2
 c2.1mv3
 c2.2mv1
 c2.2mv2
 c2.2mv3

Программный Агент 2, проводит мониторинг Кластера 1.2 и отбрасывает все остальные объекты.

 Reject
 DC1
 Cluster 1.1
 c1.1mv1
 c1.1mv2
 c1.1mv3
 DC2
 Cluster 2.1
 Cluster 2.2
 c2.1mv1
 c2.1mv2
 c2.1mv3
 c2.2mv1
 c2.2mv2
 c2.2mv3

Программный Агент 3, проводит мониторинг Кластера 2.1 и отбрасывает все остальные объекты.

 Reject
 DC1
 Cluster 1.1
 Cluster 1.2
 c1.1mv1
 c1.1mv2
 c1.1mv3
 c1.2mv1
 c1.2mv2
 c1.2mv3
 DC2
 Cluster 2.2
 c2.2mv1
 c2.2mv2
 c2.2mv3

Программный Агент 4, проводит мониторинг Кластера 2.2 и отбрасывает все остальные объекты.

 Reject
 DC1
 Cluster 1.1
 Cluster 1.2
 c1.1mv1
 c1.1mv2
 c1.1mv3
 c1.2mv1
 c1.2mv2
 c1.2mv3
 DC2
 Cluster 2.1
 c2.1mv1
 c2.1mv2
 c2.1mv3

Конфигурация отбрасываемых объектов является абсолютно гибкой, и можно разделить нагрузку, назначив несколько объектов каждому программному агенту.

Примеры файлов конфигурации

Архив со всеми отключенными модулями

  #These lines are comments

 #Plugin configuration parameters
 Configuration
 server rhevm.server
 user [email protected]
 pass 12345
 cert /home/user/rhevm.cer
 temporal /tmp
 logfile /tmp/plugin-rhev.log
 transfer_mode local
 tentacle_ip 127.0.0.1
 tentacle_port 41121
 tentacle_opts

 #Dismissed entities
 Reject

 #Data Center modules
 Datacenter
 status disabled

 #StorageDomain modules
 StorageDomain
 available disabled
 used disabled
 committed disabled
 free_percent disabled

 #Networks modules
 Network
 status disabled
 stp disabled

 #Clusters modules
 Cluster
 overcommit disabled
 hugepages disabled
 threshold_low disabled
 threshold_high disabled
 threshold_duration disabled

 #Host Modules
 Host
 status disabled
 vm_active disabled
 vm_migrating disabled
 vm_total disabled
 data_current_rx disabled
 data_current_tx disabled
 errors_total_rx disabled
 errors_total_tx disabled
 memory_cached disabled
 memory_total disabled
 swap_free_percent disabled
 swap_cached_percent disabled
 swap_free disabled
 cpu_current_idle disabled
 cpu_current_user disabled
 memory_used disabled
 ksm_cpu_current disabled
 memory_free_percent disabled
 swap_total disabled
 memory_buffers disabled
 cpu_current_system disabled
 cpu_load_avg_5m disabled
 swap_cached disabled
 swap_used disabled
 memory_free disabled
 fence_status disabled

 #VM Modules
 VM
 status disabled
 stateless disabled
 ha disabled
 cpu_current_guest disabled
 cpu_current_hypervisor disabled
 memory_free_percent disabled
 memory_installed disabled
 memory_used disabled
 cpu_current_total disabled
 data_current_read disabled
 data_current_write disabled
 size disabled
 disk_status disabled
 data_current_rx disabled
 data_current_tx disabled
 errors_total_rx disabled
 errors_total_tx disabled
Таблица соответствия имен Модулей

Data Center

Полное Имя Короткое Имя
Status status

Storage Domain

Полное Имя Короткое Имя
Available Space available
Used Space used
Committed Space committed
Percent Free Space free_percent

Network

Полное Имя Короткое Имя
Status status
STP Status stp

Cluster

Полное Имя Короткое Имя
Overcommit Percent overcommit
Transparent HugePages hugepages
Low Threshold threshold_low
High Threshold threshold_high
Threshold duration threshold_duration

Host

Полное ИмяКороткое Имя
Status status
Active VM vm_active
Migrating VM vm_migrating
Total VM vm_total
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx
Cache size memory_cached
Total memory memory_total
Swap free percent swap_free_percent
Swap cached percent swap_cached_percent
Swap free swap_free
CPU Idle cpu_current_idle
User CPU cpu_current_user
Used memory memory_used
KSM CPU ksm_cpu_current
Percent free memory memory_free_percent
Total swap swap_total
Buffers size memory_buffers
System CPU cpu_current_system
CPU Load cpu_load_avg_5m
Cached swap swap_cached
Used swap swap_used
Free memory memory_free
Fence Status fence_status

Virtual Machine

Полное Имя Короткое Имя
Status status
Stateless stateless
HA Status ha
Guest CPU cpu_current_guest
Hypervisor CPU cpu_current_hypervisor
Percent free memory memory_free_percent
Installed memory memory_installed
Used memory memory_used
Total CPU cpu_current_total
Disk [x] read data_current_read
Disk [x] write data_current_write
Disk [x] size size
Disk [x] status disk_status
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx

Nutanix

Версия Enterprise.

Гиперконвергентное решение Nutanix обеспечивает возможность управления всеми сетевыми, дисковыми, вычислительными ресурсами и памятью из одной точки.

Плагин Мониторинга Pandora FMS для Nutanix® позволяет нам постоянно контролировать состояние нашего решения Nutanix®.

Как работает плагин Nutanix

плагин Nutanix® это программа на языке Perl, которая подключается к API REST Nutanix PRISM®, получая необходимые метрики для мониторинга следующих элементов:

  • Clusters Nutanix®.
  • Устройства хранения.
  • Контейнеры.
  • Виртуальные машины.
  • Хосты.
  • Состояние процессов репликации.

Требования для плагина Nutanix

Для того чтобы получить информацию из REST API, вам необходимо:

  • IP-адрес/ FQDN портала.
  • Пользователь с разрешениями на чтение API.
  • Пароль этого пользователя.

Для передачи результатов мониторинга в систему Pandora FMS, вам необходимо:

  • Способ передачи информации, локальный или через Tentacle.
    • Если способ передачи информации локальный, то адрес каталога, куда должны быть доставлены XML-файлы с результатами, а также права на запись в этом каталоге.
    • Если способ передачи информации осуществляется с помощью Tentacle, необходимо иметь возможность подключаться к IP-адресу или FQDN сервера Pandora FMS, порту, используемому вашей установкой Tentacle, местоположению клиента Tentacle, а также к любой необычной опции, которую вы определили.

Установка Плагина Nutanix

Загрузите файлы, необходимые для работы плагина из Библиотеки Модулей. Переместите файлы на удаленную машину, с которой вы хотите осуществлять мониторинг инфраструктуры Nutanix, и извлеките файлы плагина:

tar xvzf pandora_nutanix.tar.gz

Настройка Плагина Nutanix

Определяются следующие поля

Nutanix API configuration

nx_fqdn

Адрес главного сервера Prism.

nx_port

Порт, на котором публикуется REST API (по умолчанию 9440).

nx_user

Пользователь с правами чтения на REST API.

nx_pass

Пароль данного пользователя.

use_https

Использовать https (1) или нет (0)

nx_rest_version

Версия API Rest (по умолчанию 'v1').

Nutanix agent configuration

agent_interval

Интервал агентов, генерируемых плагином. (по умолчанию 300)

agent_group

Группа, к которой будут принадлежать создаваемые Агенты (если вы закомментируете 'autocreate_group' в конфигурации вашего PandoraServer), по умолчанию Nutanix.

module_interval

Интервал Модулей сгенерированных агентов (коэффициент умножения, по умолчанию 1).

module_tags

Метки, связанные с новыми модулями сгенерированных агентов.

module_group

Группа, к которой будут принадлежать новые модули.

Конфигурация связи с сервером Pandora FMS

mode

Режим передачи данных, «локальный» или «tentacle».

tentacle_ip

IP-адрес сервера Pandora FMS, применяется только в режиме Tentacle

tentacle_port

Порт, на котором прослушивает служба Tentacle.

tentacle_opts

Любые дополнительные опции, которые вы настроили в службе Tentacle.

tentacle_client

Полный маршрут к вашему клиенту Tentacle.

temp

Временный рабочий каталог.

local_folder

Маршрут доставки для режима передачи данных «local».

Фильтры

cluster_monitoring

Включать (1) или не включать (0) мониторинг кластеров.

storage_monitoring

Включать (1) или не включать (0) мониторинг устройств хранения.

container_monitoring

Включать (1) или не включать (0) мониторинг контейнеров для хранения.

vm_monitoring

Включать (1) или не включать (0) мониторинг виртуальных машин.

host_monitoring

Включать (1) или не включать (0) мониторинг серверов виртуальных машин (узлы Nutanix).

pd_monitoring

Включать (1) или не включать (0) мониторинг защитных доменов.

Пользовательские настройки

cluster_agent_header

Заголовок для имени Агента устройств типа cluster.

storage_agent_header

Заголовок для имени Агента устройств типа устройство хранения.

host_agent_header

Заголовок для имени Агента устройств типа сервер виртуальных машин (узлы Nutanix).

container_agent_header

Заголовок для имени Агента устройств типа контейнеры для хранения.

vm_agent_header

Заголовок для имени Агента устройств типа виртуальная машина.

pd_agent_header

Заголовок для имени Агента устройств типа защитный домен.

Правила генерации модулей

vm_stat

Правило для добавления модулей для мониторинга виртуальных машин, по умолчанию hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*, это указывает на неординарные модули, которые будут сгенерированы, если имя метрики соответствует регулярным выражениям, указанным в этом поле. Добавьте значение .*, чтобы отслеживать все доступные метрики.

host_stat

Правило добавления модулей для мониторинга серверов виртуальных машин (узлы Nutanix), по умолчанию hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*, это указывает на неординарные модули, которые будут сгенерированы, если имя метрики соответствует регулярным выражениям, указанным в этом поле. Добавьте значение .*, чтобы отслеживать все доступные метрики.

pd_stat

Правило объединения модулей для мониторинга доменов защиты, по умолчанию replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes, это указывает на неординарные модули, которые будут сгенерированы, если имя метрики соответствует регулярным выражениям, указанным в этом поле. Добавьте значение .*, чтобы отслеживать все доступные метрики.

Переименование объектов

RENAME aaa TO bbb

Правило для переименования объектов, вы можете определить столько каталогов, сколько элементов вам нужно переименовать.

Исключение объектов

REJECT aaa

Правило для исключения мониторинга объектов, вы можете определить столько каталогов, сколько элементов вам нужно исключить.

Выполнение плагина Nutanix

Рекомендуется запускать плагин удаленно с компьютера, имеющего доступ как к Pandora Server, так и к вашей инфраструктуре Nutanix® для мониторинга.

Ручное выполнение:

./pandora_nutanix-linux-x64 pandora_nutanix.conf

Вы можете автоматизировать выполнение плагина в системе cron, добавив следующую строку в /etc/crontab>

  • /5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf

Результаты плагина Nutanix

Снимок экрана с результатами, полученными с помощью плагина:

Пример карты архитектуры Nutanix®:

nutanix_map.jpg

Пример представления Агента архитектуры Nutanix®:

nutanix_agents.jpg

Пример вида модулей для Агентов типа Host Nutanix®:

nutanix_host_modules.jpg

XenServer

Версия Enterprise.

Xen - это средство контроля виртуальных машин с открытым исходным кодом, разработанный Кембриджским университетом.

Целью разработки является возможность запускать экземпляры операционных систем со всеми их функциями в полнофункциональном режиме на простом компьютере. Вы можете получить интересную информацию о том, «Как мониторить Citrix XenServer с помощью Pandora FMS» в блоге Pandora FMS.

Xen обеспечивает безопасную изоляцию, контроль ресурсов, гарантии качества обслуживания и горячую миграцию виртуальных машин. Операционные системы могут быть явно модифицированы для запуска Xen (при сохранении совместимости с пользовательскими приложениями). Это позволяет Xen достичь высокой производительности виртуализации без специальной аппаратной поддержки.

Intel внесла несколько дополнений в Xen, которые позволили добавить поддержку ее расширений архитектуры VT-X Vanderpool. Эта технология позволяет немодифицированным операционным системам выступать в качестве хостов внутри виртуальных машин Xen, если физический сервер поддерживает расширения VT от Intel или Pacifica от AMD.

Работа плагина XenServer

Плагин Pandora FMS для мониторинга сред Xen написан на языке Python. Использует XenAPI для получения всей необходимой информации. Позволяет контролировать следующие типы элементов:

  • Виртуализированные системы в Xen.
  • Ресурсы хранения.
  • Собственный сервер Xen (host).

Требования для плагина XenServer

Необходимо, чтобы система, на которой работает плагин, выполняла следующие требования:

  • Установлен Python
  • Установлены библиотеки Python:
    • XenAPI
    • xmltodict
  • Доступ к API вашего XenServer (web, включите трафик с устройства, на котором запущен плагин, на порт 443 или 80 XenServer).
  • Рекомендуется, чтобы на виртуальных машинах были установлены инструменты Xen Server Tools, поскольку в противном случае доступная информация довольно скудна.

Плагин был успешно протестирован на системах XenServer 6.5 и 7.2

Установка плагина

Загрузите свою копию плагина Pandora FMS для XenServer из библиотеки модулей. Вы можете развернуть его на компьютере, который вы предпочитаете (Windows® или Linux®), извлекая содержимое файла в энергонезависимый каталог, откуда вы можете запустить его, используя либо Pandora FMS Agent, либо системный cron.

Конфигурация плагина

Доступная конфигурация для плагина Pandora FMS для Xen:

Блок конфигурации [CONF]

xen_server_ip

IP/FQDN-адрес сервера Xen

user

Пользователь с правами на запрос API Xen

password

Пароль пользователя

temporal

Каталог временных работ

Блок конфигурации [PANDORA]

tentacle_client

Расположение двоичного файла клиента Tentacle

tentacle_ip

IP-адрес, по которому прослушивает служба Tentacle.

tentacle_port

Порт, на котором прослушивает служба Tentacle.

logfile

Полный путь к файлу журнала

interval

Интервал сгенерированных агентов

group

Группа, назначенная сгенерированным агентам.

Блок конфигурации [TUNNING]

time_adjustment

Параметр, позволяющий настроить возможную разницу во времени между компьютером, на котором запущен плагин, и сервером Xen. (по умолчанию=10, измеряется в секундах)

scan_vm_ip

Параметр, позволяющий определить, пытается ли плагин получить IP-адреса виртуальных машин с сервера Xen. Можно взять только IP-адреса тех ВМ, на которых установлен XenTools. Вы можете включить (scan_vm_ip=true) или выключить (scan_vm_ip=false). Если не указано, считается включенным.

Блок конфигурации [RENAME]

xen_element_name = pandora_agent_name

В этом блоке вы можете определить столько вводных данных, сколько хотите, с данным форматом. Позволяет изменить имена элементов Xen Server на другие, которые будут использоваться в качестве имен агентов в Pandora FMS. Вы можете переименовывать ВМ, СР и сам сервер Xen. Например:

 [RENAME]
 example-xen-server=Example Xen Server
 Example Xen Server 2=example-xen-server-2
 example-vm=Example VM
 Example VM 2=example-vm-2
 example-sr=Example SR
 Example SR 2=example-sr-2**

Даже если в именах есть пробелы, они не должны заключаться в кавычки.

Выполнение плагина

Вы можете запланировать выполнение плагина из любого агента Pandora FMS, добавив в его конфигурацию следующее:

module_plugin python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"

Чтобы запрограммировать его через систему cron, вы можете добавить следующую строку в /etc/crontab:

/5 * * * * root python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"> /dev/null 2>&1

Если вы запустите плагин вручную, результат должен выглядеть следующим образом:

python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"
<module>
<name><![CDATA[XenServer Plugin]]></name>
<type><![CDATA[async_string]]></type>
<description><![CDATA[Result of XenServer Plugin execution]]></description>
<data><![CDATA[OK]]></data>
</module>

Результаты плагина XenServer

Снимок экрана с результатами, полученными с помощью плагина:

Пример карты архитектуры Xen:

Пример вида Агента архитектуры Xen:

Пример вида модулей для Агентов типа Host Xen:

OpenNebula

Версия Enterprise.

OpenNebula - это платформа облачных вычислений для распределенных и гетерогенных центров обработки данных, предоставляющая виртуальную инфраструктуру для создания частных облаков, публичных облаков и гибридных развертываний инфраструктуры как услуги (IaaS).

OpenNebula - это программное обеспечение open source с лицензией Apache 2.

Работа плагина OpenNebula

Плагин Pandora FMS для мониторинга сред OpenNebula написан на языке Perl. Он выполняется локально на сервере OpenNebula и получает всю необходимую информацию с помощью собственных команд управления OpenNebula. Позволяет контролировать следующие типы элементов:

  • Clusters.
  • Хосты.
  • Виртуальные машины.
  • Ресурсы хранения.

Требования для плагина OpenNebula

Необходимо, чтобы система, на которой работает плагин, выполняла следующие требования:

  • Perl, доступный на вашем компьютере
  • Пользователь с привилегиями на выполнение следующих команд:
    • onehost.
    • onecluster.
    • onedatastore.

Работа плагина была успешно протестирована в системах OpenNebula 5.X.X .

Установка плагина

Загрузите свою копию плагина Pandora FMS для OpenNebula из библиотеки модулей.. Вы должны извлечь содержимое файла в энергонезависимый каталог, откуда вы сможете выполнить его, используя либо агент Pandora FMS, либо системный cron.

unzip pandora_OpenNebula.zip

Конфигурация плагина

Конфигурация, доступная для плагина Pandora FMS для OpenNebula.

Конфигурация связи с сервером Pandora FMS

mode

Режим передачи данных, «локальный» или «tentacle».

tentacle_ip

IP-адрес сервера Pandora FMS, применяется только в режиме tentacle.

tentacle_port

Порт, на котором прослушивает служба Tentacle.

tentacle_opts

Любые дополнительные опции, которые вы настроили в службе Tentacle.

tentacle_client

Полный маршрут к вашему клиенту Tentacle.

temp

Временный рабочий каталог.

local_folder

Маршрут доставки для режима передачи данных «local».

Конфигурация Агента

agent_interval

Интервал агента, по умолчанию 300.

agent_group

Группа агентов, по умолчанию OpenNebula.

Персонализация Модулей

module_group

Группа модулей, по умолчанию OpenNebula.

module_interval

Интервал модуля (множитель), по умолчанию 1.

module_tags

Этикетки для модулей.

Персонализация имени

cluster_agent_header

Заголовок для имени Агента устройств типа cluster.

host_agent_header

Заголовок для имени Агента устройств типа сервер виртуальных машин.

storage_agent_header

Заголовок для имени Агента устройств типа устройство хранения.

vm_agent_header

Заголовок для имени Агента устройств типа виртуальная машина.

Фильтры

cluster_monitoring

Включать (1) или не включать (0) мониторинг кластеров.

host_monitoring

Включать (1) или не включать (0) мониторинг серверов виртуальных машин.

storage_monitoring

Включать (1) или не включать (0) мониторинг устройств хранения.

vm_monitoring

Включать (1) или не включать (0) мониторинг виртуальных машин

Переименование объектов

RENAME aaa TO bbb

Правило для переименования объектов, вы можете определить столько каталогов, сколько элементов вам нужно переименовать.

Исключение объектов

REJECT aaa

Правило для исключения мониторинга объектов, вы можете определить столько каталогов, сколько элементов вам нужно исключить.

Выполнение плагина

Чтобы запрограммировать его через систему cron, вы можете добавить следующую строку в /etc/crontab:

/5 * * * * root "<ruta>/pandora_opennebula" "<ruta>/pandora_opennebula.conf"> /dev/null 2>&1

Если вы запустите плагин вручную, результат должен выглядеть следующим образом:

[[email protected] ~]# ./pandora_opennebula pandora_opennebula.conf
[[email protected] ~]# echo $?
0

Результаты плагина OpenNebula

Список модулей, созданных плагином OpenNebula:

Для Hosts:

  1. Available CPU
  2. Available Disk
  3. Available memory
  4. Error reported by OpenNebula
  5. State
  6. Total zombies
  7. VMs running

Для устройств хранения данных:

  1. Disk Free %

Для виртуальных машин:

  1. Assigned CPU
  2. Assigned Memory
  3. Network RX
  4. Network TX
  5. State
  6. Time running

Пример карты архитектуры OpenNebula:

IBM HMC

Этот плагин позволяет контролировать машины виртуализации IBM AIX через консоль управления оборудованием HMC. Этот плагин будет собирать информацию из всех логических разделов, созданных в среде AIX, управляемой системой HMC, создавая агента для каждого управляемого сервера, каждого логического раздела и каждого виртуального сервера IO.

Для сбора информации через SSH плагин может использовать три рабочих режима:

  1. Основываясь на expect с использованием el script ssh_launcher.sh.
  2. Основываясь на библиотеке Net::SSH::Perl
  3. Основываясь на библиотеке Net::SSH::Expect

Чтобы дополнить собранную информацию, будут также сделаны запросы к REST API, по умолчанию в:

https://fqdn:12443/rest/api/{root_element}

Требования

Необходимые параметры, которые должны быть предоставлены областью, нуждающейся в мониторинге, следующие:

  • Имя пользователя для аутентификации в системе HMC (только чтение).
  • Пользователь должен иметь разрешение на подключение к REST API, вход в оболочку HMC и выполнение следующих команд (минимальные требования):
    • lssyscfg
    • lshwres
  • пароль данного пользователя.
  • Местоположение (FQDN/IP) HMC (например, myhmc.mydomain)
  • Базовый URL-адрес остального API HMC, например:
https://myhmc.mydomain:12443

Модули, генерируемые плагинами

Параметры, контролируемые плагином, следующие (сгруппированы по типу элемента):

  • Current logical partitions
  • Max logical partitions
  • Max memory available
  • Max memory installed
  • Proc pool DefaultPool current proc units
  • Proc pool DefaultPool max proc units
  • Proc pool DevelopmentPool current proc units
  • Proc pool DevelopmentPool max proc units
  • Proc pool ProductionPool current proc units
  • Proc pool ProductionPool max proc units
  • Proc pool TestPool current proc units
  • Proc pool TestPool max proc units
  • Proc pool VIOPool current proc units
  • Proc pool VIOPool max proc units
  • Processor pools configured
  • Processor units available
  • Processor units installed
  • State
  • uuid
  • Virtual proc units max

LPAR:

  • Auto start : Конфигурация автозапуска логического раздела.
  • LPAR type : Тип логического раздела.
  • LPAR UUID : Используется для запроса API HMC.
  • Max memory : Максимальная память.
  • Max memory : Доступная память.
  • Processor units available : Доступные процессорные блоки.
  • Processor units current : Текущие процессорные блоки
  • RMC IP address : IP-адрес RMC.
  • RMC state : Состояние RMC в LPAR
  • State : Статус логического раздела.
  • Virtual proc units : Виртуальные процессорные блоки, назначенные этой системе LPAR.

Virtual IO:

  • Auto start : Конфигурация автозапуска логического раздела.
  • LPAR type : Тип логического раздела.
  • LPAR UUID : Используется для запроса API HMC.
  • Max memory : Максимальная память.
  • Max memory current : Доступная память..
  • Processor units available: Доступные процессорные блоки
  • Processor units current : Текущие процессорные блоки
  • RMC IP address : IP-адрес RMC.
  • RMC state RMC : Состояние RMC в LPAR.
  • State : Статус логического раздела.
  • Virtual proc units : Виртуальные процессорные блоки, назначенные этой системе LPAR.

Конфигурация плагина IBM HMC

Доступная конфигурация для плагина Pandora FMS для IBM HMC:

Конфигурация связи с сервером Pandora FMS

mode

Режим передачи данных, «локальный» или «tentacle».

tentacle_ip

IP-адрес сервера Pandora FMS, применяется только в режиме tentacle.

tentacle_port

Порт, на котором прослушивает служба Tentacle.

tentacle_opts

Любые дополнительные опции, которые вы настроили в службе tentacle.

tentacle_client

Полный маршрут к вашему клиенту Tentacle.

temp

Временный рабочий каталог.

local_folder

Маршрут доставки для режима передачи данных «local».

Конфигурация доступа к HMC

hmc_host

IP или FQDN для HMC

hmc_user

Пользователь с правом чтения

hmc_pass

Пароль

as_agent_plugin

Выходные данные плагина возвращаются в формате XML для запланированного выполнения с помощью Агента Pandora FMS ( as_agent_plugin = 1 ). Или стандартный вывод ( as_agent_plugin = 0 ) для выполнения, запланированного с помощью системного cron или выполняемого как серверный плагин.

Конфигурация Агента

agent_name

Необязательно, введите имя для родительского агента, по умолчанию `hostname`

agent_interval

Интервал агента, по умолчанию 300.

agent_group

Группа Агента по умолчанию IBM

Персонализация Модулей

module_group

Группа модулей, по умолчанию IBM.

module_interval

Интервал модуля (множитель), по умолчанию 1.

module_tags

Этикетки для модулей

Переименование объектов

Для переименования объектов используется переименование по блокам:

 rename
 MyLPAR_NAME TO my new name
 MyLPAR_NAME2 TO my second new name
 rename_end