====== Мониторинг виртуальных сред ====== {{indexmenu_n>5}} [[:ru:documentation:start|Вернуться в оглавление Документации Pandora FMS]] ===== Мониторинг виртуальных сред ===== Виртуальные среды занимают важное место в ИТ-архитектурах всех компаний, поэтому их мониторинг крайне важен. С помощью Pandora FMS Enterprise вы сможете получить доступ к [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#amazon_ec2|Amazon EC2]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#vmware|VMware]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#rhev|RHEV]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#nutanix|Nutanix]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#xenserver|XenServer]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#opennebula|OpenNebula]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#ibm_hmc|IBM HMC]], [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#hpvm|HPVM]]. ==== Amazon EC2 ==== Для мониторинга EC2 в корпоративных средах, пожалуйста, перейдите на [[:ru:documentation:03_monitoring:04_discovery#discovery_cloudamazon_web_services_aws|Discovery]] Это руководство соответствует компоненту OpenSource для мониторинга EC2. Этот специфический мониторинг использует CloudWatch API для мониторинга ваших экземпляров на службе Amazon EC2. На вашем экземпляре должна быть включена функция Cloudwatch. Вы можете получить бесплатный плагин в разделе [[https://pandorafms.com/library/amazon-ec2-monitoring-plugin/|библиотека модулей]]. Основная цель этого удаленного **//плагина// сервера** заключается в получении информации от ваших экземпляров с помощью //плагина// сервера Pandora FMS. Это означает, что вам нужно будет зарегистрировать //плагин// на сервере и настроить различные модули для получения информации с ваших серверов EC2. Пример выполнения с использованием коннектора ''\''> /home/slerena/ec2_plugin.sh \ -A AKIAILTVCAS26GTKLD4A \ -S CgmQ6DxUWES05txju alJLoM57acDudHogkLotWk \ -i i_9d0b4af1 \ -n AWS/EC2 \ -m CPUUtilization Возвращает числовое значение (процент) метрики ''CPUUtilization'' в экземпляре ''i_9d0b4af1''. Для установки вам понадобятся: 1. На вашем сервере Pandora FMS должна быть доступна **JAVA** с соответствующим каталогом ''JAVAHOME''. 2. Скопировать этот //плагин// на путь и установить разрешения в 755, настроить базовый путь в переменной ''AWS_CLOUDWATCH_HOME'', которая присутствует в первых строках //плагина//. **Вы должны отредактировать первые несколько строк //плагина//** . //Plugin// состоит из нескольких файлов: ''/ec2_plugin.sh'' - Это сам //плагин//. ''/bin/*'' - Компоненты Amazon CloudWatch (Monitoring) Command Line Tools, включенные в этот пакет. Эти //скрипты// распространяются по лицензии Apache. Поместите весь пакет в каталог, доступный серверу, например: /usr/share/pandora_server/plugin/ec2 И установите ''AWS_CLOUDWATCH_HOME'' в ''/usr/share/pandora_server/plugin/ec2''. Чтобы подтвердить установку, выполните: /usr/share/pandora_server/plugin/ec2/mon-cmd --version В результате должно вернуться что-то похожее на: Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01) Если вы получите ту же строку, значит, все готово к использованию //плагина//. Если нет, вам, вероятно, потребуется установить и правильно настроить инструменты командной строки Amazon CloudWatch (мониторинг). === Установка === Требования: * Убедитесь, что в вашей системе установлена Java версии 1.5 или выше, для этого выполните: java -version * Распакуйте файл ''.zip'' развертывания . * Установите следующие переменные среды: * ''AWS_CLOUDWATCH_HOME'' - Каталог, в который были скопированы файлы развертывания для их проверки с помощью: Unix: ls ${AWS_CLOUDWATCH_HOME}/bin (should list mon-list-metrics ...) Windows: dir %AWS_CLOUDWATCH_HOME%\bin (should list mon-list-metrics ...) * ''JAVA_HOME'' - Каталог //Home// установки Java. * Добавьте к пути по умолчанию (//path//) следующее: ${AWS_CLOUDWATCH_HOME}/bin * В Windows: %AWS_CLOUDWATCH_HOME%\bin === Конфигурация === Установите учетные данные пользователя AWS в инструменте командной строки. Существует два способа предоставления учетных данных: - Пароли AWS. - Использование сертификатов X.509. === Использование паролей AWS === Вы можете явно указать учетные данные в командной строке: - -I ACCESS_KEY –S SECRET_KEY Вы также можете создать файл учетных данных. Развертывание включает файл шаблона: ${AWS_CLOUDWATCH_HOME}/credential-file-path.template. Вы должны отредактировать копию этого файла, чтобы добавить свою информацию. В UNIX это также происходит путем ограничения разрешений для владельца файла учетных данных ( ''credential-file'' ): $ chmod 600 . Когда файл будет создан, обратитесь к нему следующим образом: * Установите следующую переменную среды: export AWS_CREDENTIAL_FILE= * Вы также можете указать следующую опцию для каждой команды: - -aws-credential-file === Использование сертификатов X.509 === Сохраните личный сертификат и пароль в файлах: ''my_cert.pem'' и ''my-pk.pem''. Существует два способа предоставления сертифицированной информации в командную строку: * Установите следующие переменные среды: EC2_CERT=/path/to/cert/file EC2_PRIVATE_KEY=/path/to/key/file * Укажите файлы непосредственно в командной строке для всех команд: \ --ec2-cert-file-path=/path/to/cert/file \ --ec2-private-key-file-path=/path/to/key/file === Установка свойств JVM === Установив переменную среды ''SERVICE_JVM_ARGS'', вы можете произвольно передавать свойства JVM в командную строку. Например, следующая строка устанавливает свойства в Linux/UNIX export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080" === Ввод в эксплуатацию === Убедитесь, что ваша установка работает правильно, выполнив следующую команду: $ mon-cmd --help Вы должны увидеть страницу использования для всех команд мониторинга. $ mon-list-metrics --headers Вы также должны увидеть строку заголовка. Если у вас есть еще какие-либо определенные метрики, они также должны появиться. ==== VMware ==== {{:wiki:icono-modulo-enterprise.png |Версия Enterprise.}} С **Pandora FMS Enterprise** вы можете получить доступ к **VMware Monitoring Plugin**, //плагину//, который позволяет вам контролировать виртуальную архитектуру VMware простым способом. === Архитектура VMware для мониторинга === С помощью этой системы можно контролировать архитектуры, подобные той, что показана на следующей схеме: {{ :wiki:vmware-schema-arquitecture.png?800 }} Pandora FMS может контролировать VCenter, серверы ESXi и компоненты виртуализации: //Datastores// и виртуальных машин. Pandora FMS полагается на API, который предоставляет SDK от VMware® для Perl для сбора данных. === Мониторинг с Discovery Application VMware === Выполните действия, описанные в разделе [[:ru:documentation:03_monitoring:04_discovery#discovery_applicationsvmware|Discovery]] для мониторинга инфраструктуры VMware®. === Требования для плагина VMware === Требования для осуществления задачи мониторинга VMware® следующие: * Pandora FMS v7.0NG.732 или выше. * VMware vSphere® SDK для языка Perl. === Конфигурация vCenter для мониторинга === **Discovery Applications VMware** использует метрики, предоставляемые API vCenter® и ESXi VMware®. Доступность этих метрик зависит от уровней, настроенных для сбора статистики. Эти уровни можно изменить в меню //vCenter Server Settings// и в опции //Statistics//. Для каждого варианта времени и каждого уровня вы получите описание счетчиков, которые собирает vCenter. Минимальный уровень для мониторинга с помощью //плагина// Pandora FMS - **Уровень 2**. {{ :wiki:niveles_vmware.png?660 }} В зависимости от конфигурации vCenter, **возможно, что некоторые модули не будут сообщать данные в Pandora FMS.**. Это может быть связано с тем, что: * Отсутствует установка какого-нибудь //плагина// в vCenter. * Необходимо установить Агент VMware® (**vmware-tools**) в структуру. * Просто потому, что структура выключена (виртуальная машина или ESXi). **Для устранения этих проблем следует обратиться к документации VMware.**. Некоторые решения, такие как мониторинг состояния оборудования (**Hardware Status**), могут потребовать расширенной настройки как vCenter, так и //хостов//, поддерживающих ESX. === Развертывание системы мониторинга VMware === Начиная с версии 732 Pandora FMS, мониторинг VMware осуществляется с помощью системы //Discovery Applications// (дополнительная информация в разделе [[:ru:documentation:03_monitoring:04_discovery#discovery_applicationsvmware|Discovery VMware]]). Если по какой-то причине вы хотите вручную настроить //плагин// вне этой функции, вы можете использовать классический режим, описанный ниже. Если вам необходимо развернуть или обновить вашу версию //плагина// VMware до более новой, выполните действия, описанные в следующих пунктах: == Ручное развертывание плагинов == 1.- Перейдите в каталог, в который были извлечены файлы плагина VMWare®. 2.- Скопируйте ''vmware-plugin.{pl,conf}'' в соответствующий каталог. sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/ sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} sudo chmod g w /usr/share/pandora_server/util/plugin/vmware-plugin.conf 3.- Проверьте данные, необходимые для настройки //плагина//. В меню [[:en:documentation:04_using:12_console_setup#general_setup|"Конфигурация" консоли Pandora FMS]] назначьте пароль для API, а также разрешенные источники. {{ :wiki:vmware_api_settings.jpg?600 |vmware_api_settings.jpg}} 4.- Отредактируйте файл конфигурации ''vmware-plugin.conf''. 5.- Проверьте доступность VMware® SDK для Perl. Для проверки установки VMware® SDK Perl можно запустить скрипт со следующим содержанием: #!/usr/bin/perl use strict; use warnings; use VMware::VIRuntime; print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n"; Выполните скрипт: perl check_vmware.pl Вывод должен быть похож на следующий: VMware SDK Version: 6.5.0 Убедитесь, что версия SDK выше или равна версии ваших продуктов VMware®. Начиная с версии 717 //плагина// для VMware® вам также необходимо установить библиотеку Perl **PluginTools.pm**, (доступна вместе с сервером в ''/usr/lib/perl5/PandoraFMS'') на устройстве, где вы хотите его развернуть (скопируйте в ''/usr/lib/perl5/PandoraFMS'' на устройстве, на котором будет запущен //плагин//). === Установка VMware vSphere SDK для Perl === URL-адрес центра загрузки необходимого программного обеспечения VMware®: [[https://my.vmware.com/web/vmware/details?downloadGroup=VS-PERL-SDK65&productId=614|https://my.vmware.com/web/vmware/details?downloadGroup=VS-PERL-SDK65&productId=614]] == Установка SDK для Linux == Версии SDK, протестированные с помощью этого процесса установки, были 4.1, 5.1, 6.0 и 6.5 Всегда рекомендуется использовать версию SDK с соответствующей ей версией программного обеспечения. VMware®. Например, рекомендуется использовать программное обеспечение 4.1 VMware® с версией SDK 4.1. Сначала распакуйте SDK с помощью следующей команды: # tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz Теперь скомпилируйте и установите SDK с помощью следующих команд: # perl Makefile.PL # make # make install Если установка прошла успешно и ошибок не возникло, вы можете подключиться к vCenter® с помощью следующей команды, используя такой коннектор строк '''' : # /usr/lib/vmware-viperl/apps/general/connect.pl \ --server \ --username \ --password Ответ должен быть похож на приведенный ниже: Connection Successful Server Time : 2013-02-21T16:24:05.213672Z **Обновление SDK до версии 6.5 с других версий** Если вы выполняете обновление VMware SDK, выполните следующие действия: * Установите инструменты для разработчиков: yum groupinstall "Developer Tools" * Установите CPAN: yum install perl-CPAN * Установите некоторые зависимости: yum install openssl-devel perl-Class-MethodMaker yum install epel-release * Распакуйте установочные файлы VMware® SDK Perl: tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz * Получите доступ к каталогу: cd vmware-vsphere-cli-distrib * Запустите программу установки: ./vmware-install.pl Для CentOS 8 вам также следует выполнить следующие шаги: # Enable epel repo: yum install epel-release # Enable powertools: yum install dnf-utils yum config-manager --set-enabled PowerTools # Note: For centos 8 install custom made RPMs from Artica repo: `yum install http://firefly.artica.es/centos8/perl-Crypt-SSLeay-0.73_07-1.gf.el8.x86_64.rpm` before install SDK # Install the vmware SDK -- Custom RPM 6.5: `yum install http://firefly.artica.es/centos8/VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.rpm` Во время установки: * Согласитесь с условиями лицензии. * Укажите **не использовать** предварительно созданные модули для VMware® SDK. * Согласитесь с автоматической установкой модулей через автоматизированную систему CPAN. * Убедитесь, что все требования были установлены правильно. * Укажите каталог, в котором нужно будет установить модули VMware® SDK Perl **//Nota://** Иногда пакет Perl UUID может выдавать ошибки при установке на CentOS 7. Выполните следующие действия, чтобы добавить компонент: * Установите необходимые зависимости для UUID-0.03: yum install libuuid-devel perl-JSON-PP * Загрузите пакет с кодом: wget https://cpan.metacpan.org/authors/id/C/CF/CFABER/UUID-0.03.tar.gz * Распакуйте файл и откройте каталог: tar xvzf UUID-0.03.tar.gz cd UUID-0.03 * Сгенерируйте файлы, необходимые для компиляции модуля Perl: perl Makefile.PL * Скомпилируйте модуль Perl: make * Вы должны получить ответ, аналогичный следующему: Manifying blib/man3/UUID.3pm * Установите новый скомпилированный модуль: make install После установки ожидающих модулей снова запустите процесс установки VMware® SDK Perl: ./vmware-install.pl **Примечание:** деинсталлятор VMware® не полностью удаляет предыдущие библиотеки модулей VMware. Убедитесь, что библиотеки установлены правильно в ''/usr/lib/vmware-vcli/VMware/share/'' прежде чем продолжить Вы должны выполнить следующие действия вручную: * Очистить старые библиотеки. rm -rf /usr/share/perl5/vendor_perl/VMware rm -rf /usr/share/perl5/VMware * Добавить новые библиотеки VMware® cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/ После этого можно запустить скрипт со следующим содержанием для проверки установки VMware® SDK Perl. #!/usr/bin/perl use strict; use warnings; use VMware::VIRuntime; print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n"; Выполните этот //script//: perl check_vmware.pl Вывод должен быть следующим: VMware SDK Version: 6.5.0 Если выход отличается, проверьте, правильно ли вы выполнили все шаги, или обратитесь в службу поддержки по адресу [[https://support.pandorafms.com/integria/|https://support.pandorafms.com/integria/]] **Зависимости SDK** для **CentOS 7** и **CentOS 8** следующие: gdbm-devel glibc-devel glibc-headers kernel-headers libdb-devel libuuid-devel make openssl perl-Business-ISBN perl-Business-ISBN-Data perl-Class-Inspector perl-Class-MethodMaker perl-Convert-BinHex perl-Crypt-SSLeay perl-Digest perl-Digest-MD5 perl-Email-Date-Format perl-Encode-Locale perl-ExtUtils-Install perl-ExtUtils-MakeMaker perl-ExtUtils-Manifest perl-ExtUtils-ParseXS perl-File-Listing perl-HTML-Parser perl-HTML-Tagset perl-HTTP-Cookies perl-HTTP-Daemon perl-HTTP-Date perl-HTTP-Message perl-HTTP-Negotiate perl-IO-HTML perl-IO-SessionData perl-IO-Socket-IP perl-IO-Socket-SSL perl-JSON-PP perl-LWP-MediaTypes perl-LWP-Protocol-https perl-MIME-Lite perl-MIME-Types perl-MIME-tools perl-MailTools perl-Mozilla-CA perl-Net-HTTP perl-Net-LibIDN perl-Net-SMTP-SSL perl-Net-SSLeay perl-SOAP-Lite perl-Test-Harness perl-TimeDate perl-URI perl-WWW-RobotRules perl-XML-LibXML perl-XML-NamespaceSupport perl-XML-Parser perl-XML-SAX perl-XML-SAX-Base perl-devel perl-libwww-perl pyparsing systemtap-sdt-devel glibc glibc-common libblkid libmount libsmartcols libuuid util-linux Для **CentOS 8** установите RPMs **perl-Crypt-SSLeay** из репозитория Artica: yum install `http://firefly.artica.es/centos8/perl-Crypt-SSLeay-0.73_07-1.gf.el8.x86_64.rpm` Вы можете установить **дополнительные зависимости плагина** с помощью следующей команды: `yum install perl-Archive-Zip perl-JSON` Вы можете установить **зависимости шифрования пароля** с помощью следующей команды: `yum install openssl-devel perl-Crypt-CBC perl-Digest-SHA` Вы можете загрузить пользовательские RMP **perl-Crypt-OpenSSL-AES** из репозитория Artica: * Для CentOS 7. `yum install https://sourceforge.net/projects/pandora/files/Tools and dependencies (All versions)/RPM CentOS, RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el7.x86_64.rpm` * Для CentOS 8. `yum install https://sourceforge.net/projects/pandora/files/Tools and dependencies (All versions)/RPM CentOS, RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el8.x86_64.rpm` == Установка SDK на Windows == Версия PERL, распространяемая вместе с vSphere® SDK, не работает с библиотеками VMware® для PERL. Чтобы решить эту проблему, выполните следующие действия: * Установите VMware vSphere® SDK. * Установите Strawberry PERL версии 5.12 из [[http://strawberryperl.com/releases.html|http://strawberryperl.com/releases.html]]. * Скопируйте каталог: %ProgramFiles%\VMware\VMware vSphere CLI\Perl\lib\VMware a C:\strawberry\perl\lib * Удалите VMware vSphere® SDK. === Конфигурация плагина VMware === Вы можете настроить VMware //плагин// вручную или с помощью расширения консоли, доступного вместе с загружаемыми файлами //плагина// VMware®. == Настройка плагина вручную == Для управления несколькими конфигурациями //плагина// de VMware® рекомендуется использовать расширение, доступное в консоли Pandora FMS. Вы можете вручную отредактировать файл конфигурации; помните, что строки, начинающиеся с ''#'', будут интерпретироваться как комментарии. Конфигурационный файл //плагина// мониторинга среды VMware содержит следующие общие элементы: **server** FQDN или IP сервера VMware® для мониторинга. **user** Пользователь с правами в vCenter®. **pass** Пароль пользователя. **datacenter** Имя центра данных (по умолчанию: ''ha-datacenter''). **temporal** Временный рабочий каталог, по умолчанию: ''/tmp'' **logfile** Файл журнала, по умолчанию ''/tmp/vmware_plugin.log'' **entities_list** Файл объектов для мониторинга, по умолчанию ''/tmp/vmware_entitites_list.txt'' **transfer_mode** Режим передачи XML в Pandora, по умолчанию локальный. **tentacle_ip** Адрес сервера Pandora FMS, по умолчанию ''127.0.0.1'' **tentacle_port** Порт для связи с Tentacle, по умолчанию ''41121''. **tentacle_opts** Дополнительные опции для удаленного Tentacle **local_folder** При локальной передаче папка назначения для XML-файлов отчета ''/var/spool/pandora/data_in'' **pandora_url** Веб-адрес консоли Pandora FMS, по умолчанию ''[[http://127.0.0.1/pandora_console|http://127.0.0.1/pandora_console]]'' . **api_pass** Пароль API консоли Pandora FMS. **api_user** Пользователь с доступом к API Pandora FMS. **api_user_pass** Пароль пользователя с доступом к API. **retry_send** Повторить( ''1'' ) или нет ( ''0'' ) отправку XML в случае ошибки (аналогичный buffer_xml). **event_mode** Восстановить информацию ( ''1'' ) событий VMware или нет ( ''0'' ). **event_pointer_file** Вспомогательный индексный файл для событий VMware, по умолчанию ''/tmp/vmware_events_pointer.txt'' **Virtual network monitoring** Включить мониторинг виртуальных //коммутаторов//. **Encrypt passwords** Используйте зашифрованные пароли в файле конфигурации. **verbosity** Уровень отладки (рекомендуется ''1'' ). **threads** Максимальное количество используемых потоков (рекомендуется ''4'' ). **interval** Интервал в секундах генерируемых агентов и модулей (настраивается в зависимости от частоты выполнения плагина). **Recon Interval** Интервал в секундах, после которого временный файл кэша объектов автоматически удаляется для повторного сканирования инфраструктуры VMware®. **group** Серверы Целевая группа агентов, создаваемых //плагином//.. **virtual_network_monitoring** Включает ( ''1'' ) или выключает ( ''0'' ) мониторинг виртуальных //коммутаторов// (стандарт). **use_ds_alias_as_name** Включает ( ''1'' ) или выключает ( ''0'' ) использование алиас в качестве имени Агента в агентах хранения данных. Сервер, центр данных, пользователь, пароль и интервал можно настроить через консоль Pandora. **Если вы используете Pandora FMS 5.0 или более позднюю версию** и хотите использовать расширения //плагина// или применить мониторинг событий, вам необходимо правильно настроить Pandora FMS API. Для этого **вы должны добавить пароль API и предоставить доступ к соответствующим адресам в списке доступа API**. Эти поля определены в [[:en:documentation:04_using:12_console_setup#general_setup|общей конфигурации Консоли Pandora FMS]]. Пользователь, которого вы используете вместе с паролем API, **должен иметь права на чтение //и запись// для записи событий.** Также не забудьте включить агентов Datacenter в план мониторинга, поскольку события для консоли происходят от этих агентов. Раздел "Reject" плагина мониторинга среды VMware® содержит следующий параметр: * **all_ipaddresses** Если эта инструкция присутствует, IP-адрес в XML не будет обновляться. Эта инструкция действительна и для заданий. == Настройка мониторинга VMware == Выполните действия, описанные в [[:ru:documentation:03_monitoring:04_discovery#discovery_applicationsvmware|VMware Discovery]] для настройки мониторинга инфраструктуры VMware с помощью Discovery. === Выполнение плагина VMware === Для проверки работы вашей конфигурации вы можете выполнить: perl \ /usr/share/pandora_server/util/plugin/vmware-plugin.pl \ /usr/share/pandora_server/util/plugin/vmware-plugin.conf **Примечание:** * Для VMware SDK 6.5.0, если во время выполнения плагина вы получили следующий вывод: Server version unavailable at 'https://your_vmwre_fqdn:443/sdk/vimService.wsdl' at /usr/local/lib64/perl5/VMware/VICommon.pm line 734. Рекомендуемое решение - настроить версии библиотек Perl LWP: cpan install GAAS/libwww-perl-5.837.tar.gz Настоятельно рекомендуется использовать Discovery Applications VMware для мониторинга вашей инфраструктуры. == Планирование выполнения из Агента Pandora FMS == Для использования Агента Pandora FMS необходимо скопировать ''vmware-plugin.{pl,conf}'' в место, доступное для Агента Pandora FMS: sudo cp \ /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} \ /etc/pandora/plugins/ Чтобы создать файл конфигурации vmware-plugin-events.conf скопируйте ''vmware-plugin.conf'' и измените вручную ''event_mode'' a 1. Теперь вы должны добавить новый модуль типа //plugin// в конфигурационный файл агента следующей строкой: module_plugin perl \ /etc/pandora/plugins/vmware-plugin.pl \ /etc/pandora/plugins/vmware-plugin.conf Если вы также хотите сделать копию событий, вы должны создать другой Модуль //плагин// с другим конфигурационным файлом, который позволит копировать события. Синтаксис выглядит следующим образом: module_plugin perl \ /etc/pandora/plugins/vmware-plugin.pl \ /etc/pandora/plugins/vmware-plugin-events.conf В системах Windows® необходимо указать используемый интерпретатор: module_plugin perl "%ProgramFiles%\pandora_agent\util\vmware-plugin.pl" "%ProgramFiles%\pandora_agent\util\vmware-plugin.conf" В следующих разделах подробно описаны параметры конфигурационного файла плагина. **Запуск плагина VMware может занять много времени** из-за большого количества зарегистрированных объектов. **Мы рекомендуем проводить мониторинг через Discovery, чтобы DiscoveryServer сам позаботился об этих задачах.** Если вы решите проводить мониторинг другим способом, **может потребоваться распределить нагрузку между несколькими программными агентами** Pandora FMS или выбрать другой режим программирования. Всю информацию об этом можно найти в следующих разделах == Планирование выполнения из cron системы == Вы можете запланировать выполнение плагина из самого **cron** системы. Помните, что интервальное значение созданных элементов ( ''interval'' в конфигурации) и периодичность выполнения должны быть согласованы: # Input to add to crontab, set a range of 600 to use this setting/10 * * * * root perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf В приведенном выше примере показана строка, которую нужно добавить в **crontab**. Установите интервал 600 для использования этой конфигурации === Мониторинг виртуальной архитектуры VMware === Чтобы увидеть результат выполнения //плагина//, откройте подменю **Agent Detail** в меню **Views**. {{ :wiki:menu_monitoring.png?500 }} В этом виде появятся Агенты, созданные //плагином//, вместе с другими Агентами Pandora FMS. {{ :wiki:vmware_agent_detail.jpg?800 |vmware_agent_detail.jpg}} Если вы щелкните на имени агента, вы откроете просмотр агента Pandora FMS, где будут отображаться модули, контролируемые плагином //VMware//. {{ :wiki:agent_detail_screen.jpg?800 |agent_detail_screen.jpg}} По умолчанию //плагин// развертывает базовый мониторинг для каждого из элементов VMware®. == Мониторинг центра данных по умолчанию == * //Ping// * //Check 443 port// == Мониторинг центра данных по умолчанию == * //Capacity// * //Free Space// * //Disk Overallocation// * //Free Space Bytes// == Мониторинг ESXi по умолчанию == * //CPU Usage// * //Memory Usage// * //Data received// * //Data transmitted// * //Disk Read Latency// * //Disk Write Latency// * //Host Alive// * //Disk Rate// * //Net Usage// == Мониторинг по умолчанию для виртуальных машин == * //CPU Usage// * //Memory Usage// * //Tools Running Status// * //Host Alive// * //Disk Free// * //Disk Read Latency// * //Disk Write Latency// * //Data received// * //Data transmitted// * //Net Usage// В следующем разделе подробно описаны все доступные модули и информация, сообщаемая каждым из них. === Модули агентов виртуальной архитектуры VMware === Некоторые модули могут быть недоступны в зависимости от версии VMware и от конфигурации среды. В следующих таблицах описаны различные доступные модули характеристики их доступности. //Плагин// позволяет настраивать пользовательские **Performance Counters** для //хостов// ESX и виртуальных машин. Вы можете посмотреть, как это делается, в разделе, который подробно описывает содержимое конфигурационного файла. == Модули для агентов типа Datacenter == ^Модуль ^Описание ^Версия API ^Доступность | |Ping |Проверка Ping на устройстве с поддержкой vCenter |Все |Всегда | |Check 443 port |Проверка порта 443 устройства, которое поддерживает vCenter |Все |Всегда | == Модули для агентов типа Datastore == ^Модуль ^Описание ^Версия API ^Доступность | |Capacity |Максимальная емкость хранилища данных Datastore в байтах |Все |Всегда | |Free Space |Процент свободного пространства в Datastore |Все |Всегда | |Disk Overallocation |Процент избыточного распределения дисков |≥v4.0 |Всегда | |Free Space Bytes |Объем свободного пространства в байтах |Все |Всегда | == Модули для агентов типа host ESXi == ^Модуль ^Описание ^Версия API ^Доступность | |Boot Time |Последняя дата включения хоста |Все |Всегда | |CPU Info [x] |Общая информация о процессоре (один модуль создается для каждого процессора ESXi) |Все |Если подключено | |Memory Size |Общий объем физической памяти хоста в байтах |Все |Если подключено | |Overall CPU Usage |Сумма использования всех процессоров в МГц |Все |Если подключено | |Overall Memory Usage |Общее использование памяти хостами VMware |Все |Если подключено | |Power State |Состояние питания хоста |≥v2.5 |Всегда | |SSL Thumbprint |Отпечаток SSL хоста |≥v4.0 |Если настроено | |Uptime |Время работы хоста в секундах |≥v4.1 |Если подключено | |VNIC Info [x] |Информация о виртуальных сетевых интерфейсах хоста |Все |Если подключено и настроено | |Host Alive |Модуль равен 1, если ESX подключен, и равен 0 в противном случае. |Все |Всегда | |Connection State |Состояние соединения с хостом |Все |Всегда | |Disk Read |Скорость чтения с диска в Кбит/с |Все |Уровень статистики ≥2 | |Disk Write |Скорость записи на диск Кбит/с |Все |Уровень статистики ≥2 | |Disk Read Latency |Задержка чтения с диска в миллисекундах |Все |Уровень статистики ≥2 | |Disk Write Latency |Задержка записи на диск в миллисекундах |Все |Уровень статистики ≥2 | |Data received |Скорость Кбит/с, полученная от хоста |Все |Уровень статистики ≥2 | |Data transmitted |Скорость Кбит/с, отправляемая с хоста |Все |Уровень статистики ≥2 | |Packages Received |Количество пакетов, полученных в интервале |Все |Уровень статистики ≥2 | |Packages Transmitted |Количество пакетов, отправленных в интервале |Все |Уровень статистики ≥2 | |CPU Usage |Процент использования процессора |Все |Уровень статистики ≥2 | |Memory Usage |Процент использования оперативной памяти |Все |Уровень статистики ≥2 | |Net Usage |Сетевые данные, полученные и отправленные со всех NIC |Все |Уровень статистики ≥2 | |Disk Rate |Скорость ввода/вывода в КБ/сек |Все |Уровень статистики ≥2 | |Max. Disk Latency |Максимальная задержка всех дисков |Все |Уровень статистики ≥2 | |HA Status |Статус хоста HA |≥v5.0 |Если настроено | |Sensor* |Состояние аппаратных датчиков (один модуль на датчик) |Все |ESXi >= 3.5 | == Модули для Агентов типа виртуальной машины == Эти модули предлагают информацию с точки зрения архитектуры VMware®. Если вы хотите отслеживать другие параметры, связанные с виртуальной машиной, вам следует рассмотреть другие варианты, такие как [[:es:documentation:03_monitoring:02_operations|Мониторинг с программными Агентами]] или [[:es:documentation:03_monitoring:03_remote_monitoring|Удаленный мониторинг]] ^Модуль ^Описание ^Версия API ^Доступность | |Boot Time |Последняя дата включения виртуальной машины |Все |Если подключено | |Connection State |Состояние соединения |Все |Всегда | |Consumed Overhead Memory |Объем памяти, потребляемой виртуальной машиной в МБ |≥v4.0 |Если настроено | |CPU Allocation |Информация о ресурсах, выделенных центральному процессору виртуальной машины |Все |Если настроено | |Disk Free [x] |Процент свободного дискового пространства на виртуальной машине. (Для каждого диска, на котором находится виртуальная машина, будет один модуль.) |Все |Если настроено | |Guest State |Режим работы операционной системы guest |Все |Если настроено | |Host Info |Информация о хосте VMware |Все |Если настроено | |Host Alive |Модуль, который равен 1, если виртуальная машина запущена, и 0 в противном случае. |Все |Всегда | |Host Memory Usage |Память, потребляемая виртуальной машиной в МБ |Все |Если подключено | |Host Name |Связанное имя хоста |Все |Если настроено | |IP Address [x] |IP-адрес машины. (Будет отображаться по одному доступному сетевому интерфейсу.) |≥v4.1 |Если настроено | |MAC Address [x] |MAC-адрес машины. (Будет отображаться по одному доступному сетевому интерфейсу.) |Все |Если настроено | |Max CPU Usage |Верхний предел использования ЦП виртуальной машины |Все |Если подключено | |Max Memory Usage |Верхний предел использования оперативной памяти виртуальной машины |Все |Если подключено | |Memory Allocation |Предел ресурсов памяти |Все |Если настроено | |Memory Overhead |Объем памяти, используемой виртуальной машиной сверх требований операционной системы guest, в байтах. |Все |Если настроено | |Overall CPU Demand |Основные статистические данные о производительности процессора в МГц |≥v4.0 |Если подключено | |Overall CPU Usage |Основная статистика использования процессора в МГц |Все |Если подключено | |Power State |Текущее состояние виртуальной машины |Все |Всегда | |Private Memory |Объем памяти в МБ, предоставленный виртуальной машине из собственной памяти |≥v4.0 |Если подключено | |Shared Memory |Объем памяти в МБ, предоставляемый виртуальной машине в общей памяти |≥v4.0 |Если подключено | |Tools Running Status |Текущее состояние запущенных инструментов VMware Tools, установленных в операционной системе guest |≥v4.0 |Если настроено | |Trigger Alarm State |Состояние сигналов предупреждения VMware |Все |Если настроено | |Uptime Seconds |Время работы виртуальной машины в секундах |≥v4.1 |Если подключено | |Virtual Image Path |Путь к файлу конфигурации виртуальной машины (.vmx) |Все |Всегда | |Disk Read |Скорость чтения с диска в Кбит/с |Все |Уровень статистики ≥2 | |Disk Write |Скорость записи на диск Кбит/с |Все |Уровень статистики ≥2 | |Disk Read Latency |Задержка чтения с диска в миллисекундах |Все |Уровень статистики ≥2 | |Disk Write Latency |Задержка записи на диск в миллисекундах |Все |Уровень статистики ≥2 | |Data received |Скорость Кбит/с, полученная от хоста |Все |Уровень статистики ≥2 | |Data transmitted |Скорость Кбит/с, отправляемая с хоста |Все |Уровень статистики ≥2 | |Packages Received |Количество пакетов, полученных в интервале |Все |Уровень статистики ≥2 | |Packages Transmitted |Количество пакетов, отправленных в интервале |Все |Уровень статистики ≥2 | |CPU Usage |Процент использования процессора |Все |Уровень статистики ≥2 | |Memory Usage |Процент использования оперативной памяти |Все |Уровень статистики ≥2 | |Net Usage |Сетевые данные, полученные и отправленные со всех NIC |Все |Уровень статистики ≥2 | |Disk Rate |Скорость ввода/вывода в КБ/сек |Все |Уровень статистики ≥2 | |Max. Disk Latency |Максимальная задержка всех дисков |Все |Уровень статистики ≥2 | |HeartBeat |Количество Heartbeat-сообщений виртуальной машины |Все |Уровень статистики ≥2 | |CPU Ready |Процент времени, в течение которого машина находится в списке, но не поставлена в очередь на выполнение на физическом процессоре |Все |Уровень статистики ≥2 | |Number Snapshots |Количество снапшотов для виртуальной машины (**этот модуль может влиять на производительность мониторинга**, поэтому рекомендуется запускать его с большим значением интервала, например, каждый час). |Все |Если настроено | |HA Status |Статус HA для виртуальной машины |≥v5.0 |Если настроено | Некоторые модули требуют установки VMware tools®. === Мониторинг событий VMware === Эта функция делает копию событий, присутствующих в vCenter VMware® в список событий Pandora FMS. Эти события становятся частью обычного потока событий Pandora FMS и автоматически ассоциируются с агентом, представляющим vCenter, из которого они исходят (если агент существует на момент создания события). {{ :wiki:evnetos_vmware_plugin.png?800 }} В процессе создания дампа событий учитывается информация и степень серьезности, которые VMware® указывает при создании события, поэтому события с критическим, предупреждающим или информативным уровнем серьезности сохранят эти уровни в Pandora FMS. На следующем изображении показан пример подробной информации о дампе событий из VMware в Pandora FMS. {{ :wiki:detalle_evento_vmware_plugin.png?800 }} Со всеми событиями, присутствующими в Pandora FMS, можно выполнять все доступные действия по управлению событиями, такие как: создание предупреждений, настройка фильтров, открытие инцидентов и т.д. === Управление и визуализация виртуальной архитектуры VMware === Вместе с //плагином// VMware® распространяются два расширения: **VMware Manager®** и **VMware View®**. VMware View® позволяет визуализировать все компоненты архитектуры VMware® в удобном виде. Кроме того, с помощью VMware Manager® вы можете управлять большим количеством виртуальных машин, останавливая, запуская, сбрасывая или приостанавливая их активность из консоли Pandora FMS. == Использование VMware View == Чтобы начать использовать средство просмотра архитектуры VMware®, перейдите в раздел **Monitoring** → **VMware view**. {{ :wiki:vmware_view_menu.png?400 }} Если у вас нет устройства для мониторинга или вы не настроили [[:ru:documentation:03_monitoring:05_virtual_environment_monitoring#configuracion_del_vcenter_para_la_monitorizacion|API vCenter® и ESXi VMware®]] вы получите нечто похожее на следующее изображение: {{ :wiki:vmware-nothing-view-welcome.png?700 }} Если //плагин// находится в рабочем состоянии, вы получите это сообщение (нажмите на **Show**): {{ :wiki:vmware_view_welcome.png?800 }} Расширение VMware View® покажет вам карту, подобную приведенной ниже, со всей архитектурой VMware®. {{ :wiki:vmware_view_map.png?800 }} Карта содержит элементы архитектуры VMware® (виртуальные машины, ESX, DataStores и DataCenters) с различными иконками, которые их идентифицируют, а также состояние агентов Pandora FMS, которые представляют каждый элемент. Кроме того, показана взаимосвязь между виртуальными машинами, ESX и DataCenter. Таким образом можно быстро и просто посмотреть состояние архитектуры VMware®. Это расширение имеет некоторые опции, которые помогают улучшить визуализацию архитектуры, скрывая элементы, увеличивая размер шрифта и позволяя увеличить масштаб, чтобы увидеть элементы с большей детализацией. {{ :wiki:vmware_view_map_options.png?800 }} Используя приведенные выше параметры, вы можете показать только DataCenter и ESX. {{ :wiki:vmware_view_map_options_example.png?800 }} == VMware View Dashboards == VMware View® предоставляет два дополнительных вида в дополнение к виду топологической карты виртуальной архитектуры. Новые вкладки позволяют переключаться между различными видами VMware View®. {{ :wiki:vmware_tabs_50.png?350 }} Первый вид - это общая //приборная панель//, где можно сразу увидеть общее состояние виртуальной архитектуры в цифрах, т.е. сколько виртуальных машин, хостов ESXi или DataStores имеют проблемы. Вы также сможете увидеть общие параметры производительности благодаря графикам, которые показывают 5 виртуальных машин, потребляющих больше всего памяти, процессора, диска и сети из всей виртуальной архитектуры. {{ :wiki:vmware_general_dashboard.png?800 }} Второй вид позволяет увидеть показатели производительности для каждого //хоста ESX//. В этом виде вы можете выбрать //хост// ESX, для которого будет загружена приборная панель, в которой будет отображаться статус //хоста// и виртуальных машин, а также некоторые показатели производительности, касающиеся использования процессора, памяти, диска и сети //хоста// ESXi. Кроме того, этот вид также предлагает несколько графиков, которые показывают виртуальные машины, потребляющие больше ресурсов (процессор, память, диск и сеть) выбранного //хоста//. {{ :wiki:vmware_esx_detail_dashboard.png?700 }} == VMware View Options Tab == {{:wiki:icono-modulo-enterprise.png |Версия Enterprise.}} Расширение VMWare входит в комплект поставки Pandora FMS Console Enterprise. В нем есть панель конфигурации для настройки параметров //панелей// и карт: * Вы можете настроить пороги вида (минимум - максимум) графиков //приборных панелей//. * Вы можете настроить параметры просмотра карты по умолчанию. * Содержит ссылку на систему управления конфигурацией. Доступно во вкладке опций VMWare View®: {{ :wiki:vmware_view_options_tab.png?500 }} == Использование расширения VMware Manager из Агентов == Для использования расширения VMware® Manager необходимо перейти к просмотру операций агента, соответствующего виртуальной машине в этой архитектуре. Внутри этого просмотра вы увидите значок с символом VMware, который соответствует расширению. {{ :wiki:vmware_manager_icon.png?450 }} Расширение VMware® Manager позволяет управлять виртуальными машинами из консоли Pandora FMS. Расширение показывает текущее состояние виртуальной машины с помощью цветового кода: * Зеленый = Включена. * Оранжеваый = На паузе. * Серый = Остановлена. Кроме того, в комбинированном режиме оно показывает доступные состояния и позволяет изменить состояние виртуальной машины на выбранное, нажав кнопку **Change Status**. {{ :wiki:vmware_manager_options.png?560 }} Выбор состояния **Stop** и нажатие на **Change status**: {{ :wiki:vmware_manager_example_stop.png?560 }} Это приведет к остановке машины, а вид расширения VMware Manage изменится и покажет, что машина теперь остановлена: {{ :wiki:vmware_manager_example_stopped.png?560 }} **Данное расширение требует установки VMware SDK® для Perl** на той же машине, которая поддерживает Консоль Pandora FMS; //без этого требования расширение работать не будет// Если вы настроили мониторинг с помощью ''RENAME'', эта утилита не будет работать с переименованными целями. === Конфигурация плагина VMware === По умолчанию VMware //плагин// обнаруживает все объекты и добавляет проверки по умолчанию. С помощью конфигурационного файла вы можете настроить мониторинг и выбрать, какие переменные вы хотите отслеживать. Файл конфигурации содержит всю необходимую для проведения мониторинга информацию, сгруппированную в следующих разделах: //Configuration//, //Rename//, //Reject//, //Datacenter//, //Datastore//, //ESX//, //VM//. Все ошибки, связанные с конфигурационным файлом, отображаются в //журнале// ошибок сервера Pandora FMS, а также в средстве просмотра событий Консоли Pandora FMS. Поэтому вы можете узнать, есть ли какие-либо ошибки в конфигурационном файле, проверив любой из этих двух источников. == Файл Конфигурации == **Общая конфигурация** Общая конфигурация определяется //токеном// **Configuration** и содержит следующие параметры: * //server//: IP-адрес vCenter. * //user//: Пользователь vCenter. * //pass//: Пароль для доступа к vCenter. * //datacenter//: Центр обработки данных для мониторинга. * //temporal//: Временный каталог. * //logfile//: Расположение файла //журнала//. * //entities_list//: Расположение файла, содержащего список объектов, на которых проводится мониторинг. * //transfer_mode//: Режим передачи для XML, он может быть через **tentacle** или **локальным**. * tentacle: Отправка XML-файлов на сервер Pandora FMS, используя протокол Tentacle. * local: Копирует файлы в локальную папку; Агент должен быть запущен на той же машине, что и локальная папка. * //tentacle_ip//: IP-адрес сервера Pandora FMS для отправки информации. * //tentacle_port//: Порт сервера Pandora FMS, на который отправляется информация (по умолчанию 41121). * //tentacle_opts//: Дополнительные опции для отправки с Tentacle (по умолчанию их нет). * //local_folder//: Целевой каталог для копирования XML при включенном локальном режиме. * //pandora_url//: URL консоли Pandora FMS (например: [[http://192.168.70.81/pandora_console|http://192.168.70.81/pandora_console]] ). * //api_pass//: Пароль API консоли Pandora FMS. * //api_user//: Пользователь консоли Pandora FMS. * //api_user_pass//: Пароль пользователя консоли Pandora FMS. * //retry_send//: Включает (1) или отключает (0) пересылку файлов .data в каталоге temporal * //event_mode//: Флаг, активирующий режим сбора событий. Если он равен 1, то активируется, если 0 - деактивируется. * //event_pointer_file//: Расположение временного файла, в котором хранится указатель для сбора событий. * //verbosity//: Уровень //лога// (0 только ошибки, препятствующие работе плагина, 1 все ошибки). * //threads//: Количество потоков //плагина// (по умолчанию 1). * //interval//: Диапазон агентов, представляющих объекты VMware®. Пример такого раздела в конфигурационном файле может выглядеть следующим образом: Configuration server 192.168.70.249 user Administrator pass S1stemas datacenter artica temporal /tmp logfile /tmp/vmware_plugin.log entities_list /tmp/vmware_entities_list.txt transfer_mode tentacle tentacle_ip 192.168.70.81 tentacle_port 41121 tentacle_opts local_folder /var/spool/pandora/data_in pandora_url http://192.168.70.81/pandora_console api_pass 1234 api_user admin api_user_pass pandora event_mode 0 event_pointer_file /tmp/vmware_events_pointer.txt Если вы используете плагин в системах MS Windows®, необходимо будет заменить все пути к файлам на пути, совместимые с Windows®. **Сканирование объектов** Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в //Extra settings//. Из-за размеров инфраструктур VMware, характерных для клиентов Enterprise, полное сканирование всех доступных объектов при каждом запуске может вызвать проблемы с производительностью. Чтобы избежать этой ситуации, //плагин// мониторинга VMware имеет файл объектов ( ''entities_list'' ), в котором хранится список объектов, сканируемых при первом запуске. Пока существует этот файл, мониторинг ограничен перечисленными в нем объектами. Если вам необходимо периодическое сканирование инфраструктуры VMware, вы можете удалять этот файл время от времени (например, каждый час) с помощью **cron** системы. **Переименование объектов** Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в //Extra settings//. Переименование объектов осуществляется с помощью токена **RENAME** и позволяет вам переименовывать объекты, обнаруженные //плагином//. При использовании этой функции Агенты, созданные в Pandora FMS, будут отображаться с новым присвоенным именем. Структура данного раздела выглядит следующим образом: <настоящее имя> TO <новое имя> Пример конфигурации этого раздела может быть следующим: #Rename entities Rename Debian 11 TO Virtual Machine 1 RedHat 12 TO Web server ESX Workstation TO Host Work Sales **Исключение объектов ** Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в //Extra settings//. //Плагин// позволяет исключать объекты по типу или по отдельности, оба варианта описаны ниже. Отбрасывание объектов по типу осуществляется с использованием //токена// **REJECT**. В этом разделе вы можете отбрасывать объекты в соответствии с их типом; например, все виртуальные машины или все хосты ESX. Возможные значения, которые может принимать этот раздел, следующие: all_datastore, all_datacenter, all_esx, all_vm. Конфигурация этой секции, которая отбрасывает все объекты, будет выглядеть следующим образом: #Dismissed entities Reject all_datastore all_datacenter all_esx all_vm Для выполнения отбрасывания объектов по отдельности необходимо будет удалить их из файла объектов, созданного //плагином//. //Плагин// создает этот файл в месте, указанном в параметре //entities_list// (по умолчанию ''/tmp/vmware_entities_list.txt''). //Плагин// заполняет содержимое этого файла при первом запуске, или когда его не существует, создавая список всех обнаруженных объектов. Примером файла может быть следующее: Datacenter artica Datastore datastore_1 datastore2 ESX 192.168.70.252 VM Pandora FMS 4.0.3 Debian2 Debian3 Debian4 Redhat debian5 Debian6 Debian8 Debian7 Debian11 Debian10 Debian9 NSM Pandora vcenter suse11.2 Файл конфигурации разделен на несколько токенов: //Datacenter//, //Datastore//, //ESX// и //VM//, где перечислены различные объекты. После создания файла конфигурации //плагин// будет считывать из этого файла объекты для мониторинга. Чтобы отбросить объект, достаточно удалить его из этого файла. Если, например, вам не нужно проводить мониторинг объектов: //Debian2//, //datastore2//, //NSM//, //suse11.2// и //192.168.70.252//, конфигурационный файл будет выглядеть следующим образом: Datacenter artica Datastore datastore_1 ESX VM Pandora FMS 4.0.3 Debian3 Debian4 Redhat debian5 Debian6 Debian8 Debian7 Debian11 Debian10 Debian9 Pandora vcenter Эта функция позволяет распределить нагрузку на мониторинг, ограничивая количество объектов, отслеживаемых при каждом выполнении //плагина//. Ниже описаны различные методы распределения нагрузки. **Конфигурация мониторинга ** Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в //Extra settings//. В следующих разделах файла настраиваются модули, созданные для каждого типа объекта. В разделах используются //токены//. **Datacenter**, **Datastore**, **ESX**, **VM**. В этих разделах вы можете включить/выключить модули для мониторинга. В следующем примере мы создали конфигурацию, выбрав модули, которые мы хотим создать для ESX и виртуальных машин: ... #ESX Modules ESX cpuUsagePercent disabled diskRead enabled diskWrite enabled #VM Modules VM diskReadLatency disabled diskWriteLatency disabled diskRate enabled ... Каждая строка конфигурации соответствует одному модулю. В приведенном примере модули будут созданы со значениями по умолчанию, но можно настроить имя, описание и ограничения для Предупреждающего и Критического состояний Модуля. Примером такой конфигурации может быть следующее: ... #VM Modules ESX diskReadLatency disabled diskWriteLatency disabled diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4 ... Для конфигурации модуля доступны следующие опции: * <модуль> disabled: Модуль **НЕ** будет создан. * <модуль> enabled: Модуль **БУДЕТ** создан (со значениями по умолчанию). * <модуль> name = <имя>; desc = <описание>; limits_warn ; limits_crit > Модуль будет создан с указанным именем и описанием, а также будут определены пороговые значения для самого высокого и самого низкого состояний Предупреждения и Критического. Очень **важно** обратить внимание на **структуру строк конфигурационного файла** и особенно проверить, чтобы **символ ** '';'' был присоединен к имени и описанию Модуля. Эти две строки **НЕ РАВНЫ** (см. пробелы перед символом ; ): diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4 diskRate name = Tasa Disco ; desc = Tasa Lec/Esc disco ; limits_warn = 5 10; limits_crit = 0 4 На модули ссылаются по их короткому имени - эквивалентному имени, которое легче набрать в командной строке. Таблица соответствия кратких и расширенных названий находится в следующем разделе. Проанализируйте пример конфигурации, приведенный выше. Модуль //Disk Rate// был настроен на создание со следующими значениями: * Имя: Скорость Диска * Описание: Скорость Записи/Чтения Диска * Min Warning: 5 * Max Warning: 10 * Min Critical: 0 * Max Critical: 4 Есть модули, которые генерируются динамически, например, связанные с дисками или сетевыми интерфейсами. Для этих метрик //плагин// создает Модуль для каждого обнаруженного элемента. Эти модули обычно имеют специальные названия, например, в Pandora FMS: Disk Free [0] Disk Free [1] Disk Free [2] ... В этих случаях, поскольку имя имеет динамическую часть, допускается использование макроса ''%s'', который будет заменен на переменную часть имени Модуля. Пример динамической конфигурации модуля выглядит следующим образом: diskFree name = Disk (%s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0 В этом случае имя модуля по умолчанию: Disk Free [0] И оно будет переименовано в: Disk (0) free space Также можно настроить текстовые строки для границ предупреждающего и критического состояний модулей. Конфигурация будет выглядеть следующим образом: powerState name = Estado funcionamiento; desc = Estado funcionamiento VM; limits_warn = .*suspended.*; limits_crit = .*poweredOff.* Можно настроить регулярные выражения для обеспечения большей гибкости при установке ограничений. **Пользовательские метрики производительности** Чтобы использовать эту функцию в Discovery, добавьте нужную конфигурацию в //Extra settings//. В этом разделе можно настроить новые модули, связанные с //Performance Counters// для виртуальных машин и ESX. Для настройки нового модуля производительности необходимо использовать следующую структуру: custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0 Настраиваются следующие параметры: * //type//: Тип метрик, подлежащих мониторингу. Виды метрики следующие: * **cpu**: Характеристики центрального процессора. * **mem**: Память. * **disk**: Диск, хранилище. * **net**: Сеть. * **sys**: Система. * //metric//: Метрика для мониторинга (ниже объясняется, где можно найти наиболее доступные метрики). * //module_type//: Тип Модуля Pandora FMS (например: generic_data). * //name//: Название Модуля. * //desc//: Описание Модуля. * //limits_warn//: Пределы для состояния Предупреждение. * //limits_crit//: Пределы для Критического состояния. Вы можете ознакомиться с наиболее доступными техниками для каждого типа в разделе //Performance// каждого объекта. Этот вид находится внутри vCenter и показывает метрики производительности, которые можно отслеживать с помощью //плагина//. VMware®. Например, на следующем изображении показан вид de //Performance// для хоста ESX. {{ :wiki:vmware_perf_view.png?800 |Haga clic para ampliar}} Чтобы увидеть полный список всех инструментов в соответствии с их типом, нажмите на кнопку **Advanced**, а затем на кнопку **Char option**. Вы увидите список со всеми типами инструментов и соответствующими инструментами каждого типа: {{ :wiki:vmware_perf_metrics_list.png?762 }} Для каждого типа метрики появится ряд счетчиков, которые являются переменными, которые мы сможем отслеживать с помощью Pandora FMS. Для мониторинга переменной нам нужен ее //Internal Name//. Кроме того, необходимо убедиться, что уровень статистики, настроенный в vCenter, позволяет отображать искомую переменную, сравнив ее с полем //Collection Level// метрики. {{ :wiki:vmware_perf_metrics_counter.png?756 }} Например, если вам нужно посмотреть использование процессора //хоста// ESX, мы найдем переменные типа //cpu// для ESX и из доступных выберем //utilization//. В конфигурационный файл (в данном случае в раздел ESX) нужно добавить следующую строку: custom_performance type = cpu; metric = utilization; module_type = generic_data; name = CPU Utilization; desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0 == Мониторинг нескольких Центров Обработки Данных с помощью одного и того же агента == Каждый модуль //плагина//, настроенный в Агенте, контролирует один ЦОД, поэтому если вы хотите контролировать несколько ЦОД с помощью одного и того же Программного Агента Pandora FMS, необходимо принять следующие меры. * Необходимо добавить ''module_plugin'' для каждого ЦОД, который необходимо контролировать; например: module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf * В каждом файле конфигурации необходимо будет изменить параметры: //logfile//, //entities_list//, //event_pointer_file//. Конфигурационные файлы будут выглядеть следующим образом: **vmware-plugin-datacenter1.conf** ... logfile /tmp/vmware_plugin_datacenter1.log entities_list /tmp/vmware_entities_list_datacenter1.txt event_pointer_file /tmp/vmware_events_pointer_datacenter1.txt ... **vmware-plugin-datacenter2.conf** ... logfile /tmp/vmware_plugin_datacenter2.log entities_list /tmp/vmware_entities_list_datacenter2.txt event_pointer_file /tmp/vmware_events_pointer_datacenter2.txt ... * Если вы также хотите сделать копию событий, необходимо иметь еще два модуля //плагина// с соответствующими конфигурационными файлами и активировать //флаг//. ''event_mode''. Конфигурация module_plugin будет выглядеть следующим образом: module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf == Разделите нагрузку по мониторингу между несколькими серверами Pandora FMS == Параметры конфигурационного файла //плагина// позволяют легко распределить нагрузку мониторинга между несколькими серверами Pandora FMS. Возьмем, к примеру, следующую структуру среды виртуализации: DC | |- Datastore_1 |- DataStore_2 | |- ESX_1 |- mv1.1 |- mv1.2 |- mv1.3 |- ESX_2 |- mv2.1 |- mv2.2 |- mv2.3 Он имеет два сервера Pandora FMS для мониторинга. Простым способом разделения нагрузки может быть мониторинг центра данных, хранилищ данных и ESX на первом сервере и всех виртуальных машин на втором сервере. Конфигурационные файлы //плагина// будут следующими: Сервер 1: Reject all_vm Сервер 2: Reject all_datacenter all_datastore all_esx Сервер 1 следит за всем //за исключением виртуальных машин//, а Сервер 2 **только за виртуальными машинами**. Другим способом распределения нагрузки может быть разделение мониторинга по ESX; первый сервер Pandora FMS будет отслеживать все, что связано с первым сервером ESX, а второй - все, что связано со вторым ESX. Для этого мы разделим файл ''entities_list.txt'' на два файла и настроим два выполнения //плагина// в разных агентах. Файлы ''entities_list.txt'' будут выглядеть следующим образом: Сервер 1: Datacenter DC Datastore Datastore_1 ESX ESX_1 VM mv1.1 mv1.2 mv1.3 Сервер 1 //пропускает все, что связано со второй группой объектов VMware//, поэтому он отвечает за мониторинг половины среды. Сервер 2: Datastore DataStore_2 ESX ESX_2 VM mv2.1 mv2.2 mv2.3 Сервер 2 //опускает все, что связано с первой группой объектов VMware// в дополнение к ЦОД, поскольку за ним следит сервер 1. Конфигурация отбрасываемых объектов очень гибкая и позволяет разделить нагрузку, назначая определенное количество объектов каждому агенту Pandora FMS. == Примеры файлов конфигурации == **Архив со всеми деактивированными модулями** #These lines are comments #Datacenter Modules Datacenter ping disabled check443 disabled #Datastore Modules Datastore capacity disabled freeSpace disabled overallocation disabled freeSpaceBytes disabled #ESX Modules ESX bootTime disabled cpuInfo disabled memorySize disabled overallCpuUsage disabled overallMemoryUsage disabled powerState disabled sslThumbprint disabled uptime disabled vnicInfo disabled hostAlive disabled connectionState disabled diskRead disabled diskWrite disabled diskReadLatency disabled diskWriteLatency disabled netReceived disabled netTransmitted disabled netPkgRx disabled netPkgTx disabled cpuUsagePercent disabled memoryUsagePercent disabled netUsage disabled diskRate disabled maxDiskLatency disabled haStatus disabled #VM Modules VM bootTime disabled connectionState disabled consumedOverheadMemory disabled cpuAllocation disabled diskFree disabled guestState disabled host disabled hostAlive disabled hostMemoryUsage disabled hostName disabled ipAddress disabled macAddress disabled maxCpuUsage disabled maxMemoryUsage disabled memoryAllocation disabled memoryOverhead disabled overallCpuDemand disabled overallCpuUsage disabled powerState disabled privateMemory disabled sharedMemory disabled toolsRunningStatus disabled triggeredAlarmState disabled virtualImagePath disabled uptimeSeconds disabled diskRead disabled diskWrite disabled diskReadLatency disabled diskWriteLatency disabled netReceived disabled netTransmitted disabled netPkgRx disabled netPkgTx disabled cpuUsagePercent disabled memoryUsagePercent disabled netUsage disabled diskRate disabled maxDiskLatency disabled heartbeat disabled cpuReady disabled snapshotCounter disabled == Таблица соответствия кратких имен == **datacenter** ^Полное Имя ^Короткое Имя | |Ping |ping | |Check 443 port |check443 | **Datastores** ^Полное Имя ^Короткое Имя | |Capacity |capacity | |Free Space |freeSpace | |Disk Overallocation |overallocation | |Free Space Bytes |freeSpaceBytes | **ESX** ^Полное Имя ^Короткое Имя | |Boot Time |bootTime | |CPU Info |cpuInfo | |Memory Size |memorySize | |Overall CPU Usage |overallCpuUsage | |Overall Memory Usage |overallMemoryUsage | |Power State |powerState | |SSL Thumbprint |sslThumbprint | |Uptime |uptime | |VNIC Info |vnicInfo | |Host Alive |hostAlive | |Connection State |connectionState | |Disk Read |diskRead | |Disk Write |diskWrite | |Disk Read Latency |diskReadLatency | |Disk Write Latency |diskWriteLatency | |Data received |netReceived | |Data transmitted |netTransmitted | |Packages Received |netPkgRx | |Packages Transmitted |netPkgTx | |CPU Usage |cpuUsagePercent | |Memory Usage |memoryUsagePercent | |Net Usage |netUsage | |Disk Rate |diskRate | |Max Disk Latency |maxDiskLatency | |HA Status |haStatus | |Sensor* |systemHealthInfo | **Виртуальные машины** ^Полное Имя ^Короткое Имя | |Boot Time |bootTime | |Connection State |connectionState | |Consumed Overhead Memory |consumedOverheadMemory | |CPU Allocation |cpuAllocation | |Disk Free |diskFree | |Guest State |guestState | |Host Info |host | |Host Alive |hostAlive | |Host Memory Usage |hostMemoryUsage | |Host Name |hostName | |IP Address |ipAddress | |MAC Address |macAddress | |Max CPU Usage |maxCpuUsage | |Max Memory Usage |maxMemoryUsage | |Memory Allocation |memoryAllocation | |Memory Overhead |memoryOverhead | |Overall CPU Demand |overallCpuDemand | |Overall CPU Usage |overallCpuUsage | |Power State |powerState | |Private Memory |privateMemory | |Shared Memory |sharedMemory | |Tools Running Status |toolsRunningStatus | |Trigger Alarm State |triggeredAlarmState | |Uptime Seconds |uptimeSeconds | |Virtual Image Path |virtualImagePath | |Disk Read |diskRead | |Disk Write |diskWrite | |Disk Read Latency |diskReadLatency | |Disk Write Latency |diskWriteLatency | |Data received |netReceived | |Data transmitted |netTransmitted | |Packages Received |netPkgRx | |Packages Transmitted |netPkgTx | |CPU Usage |cpuUsagePercent | |Memory Usage |memoryUsagePercent | |Net Usage |netUsage | |Disk Rate |diskRate | |Max Disk Latency |maxDiskLatency | |HeartBeat |heartbeat | |CPU Ready |cpuReady | |Number Snapshots |snapshotCounter | |HA Status |haStatus | == Таблица событий == Этот список событий предоставляется для облегчения задачи настройки оповещений о событиях в Pandora FMS. Полный и актуальный перечень всех возможных событий можно найти в документации VMware ^Событие ^Степень тяжести ^Тип события^Группа| | |An account was created on host {host.name} |Informational |System |All | | |Account {account} was removed on host {host.name} |Informational |System |All | | |An account was updated on host {host.name} |Informational |System |All | | |The default password for the root user on the host {host.name} has not been changed |Informational |System |All | | |Alarm '{alarm.name}' on {entity.name} triggered an action |Informational |System |All | | |Created alarm '{alarm.name}' on {entity.name} |Informational |System |All | | |Alarm '{alarm.name}' on {entity.name} sent email to {to} |Informational |System |All | | |Alarm '{alarm.name}' on {entity.name} cannot send email to {to} |Critical |System |All | | |Reconfigured alarm '{alarm.name}' on {entity.name} |Informational |System |All | | |Removed alarm '{alarm.name}' on {entity.name} |Informational |System |All | | |Alarm '{alarm.name}' on {entity.name} ran script {script} |Informational |System |All | | |Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} |Critical |System |All | | |Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent |Informational |System |All | | |Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} |Critical |System |All | | |Alarm '{alarm.name}' on {entity.name} changed from {from.@enum.ManagedEntity.Status} to {to.@enum.ManagedEntity.Status} |Informational |System |All | | |All running virtual machines are licensed |Informational |System |All | | |User cannot logon since the user is already logged on |Informational |System |All | | |Cannot login {userName}@{ipAddress} |Critical |System |All | | |The operation performed on host {host.name} in {datacenter.name} was canceled |Informational |System |All | | |Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. |Informational |System |All | | |Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. |Critical |System |All | | |Checked cluster for compliance |Informational |System |All | | |Created cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |Removed cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | | |Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} |Critical |System |All | | |Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | | |Configuration status on cluster {computeResource.name} changed from {oldStatus.@enum.ManagedEntity.Status} to {newStatus.@enum.ManagedEntity.Status} in {datacenter.name} |Informational |System |All | | |Created new custom field definition {name} |Informational |System |All | | |Removed field definition {name} |Informational |System |All | | |Renamed field definition from {name} to {newName} |Informational |System |All | | |Changed custom field {name} on {entity.name} in {datacenter.name} to {value} |Informational |System |All | | |Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. |Informational |System |All | | |An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. |Critical |System |All | | |An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. |Critical |System |All | | |Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. |Informational |System |All | | |Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. |Informational |System |All | | |The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. |Critical |System |All | | |An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. |Critical |System |All | | |dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. |Informational |System |All | | |dvPort group {net.name} in {datacenter.name} was deleted. |Informational |System |All | | | |Informational |System |All | | |dvPort group {net.name} in {datacenter.name} was reconfigured. |Informational |System |All | | |dvPort group {oldName} in {datacenter.name} was renamed to {newName} |Informational |System |All | | |HA admission control disabled on cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |HA admission control enabled on cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |Re-established contact with a primary host in this HA cluster |Informational |System |All | | |Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} |Critical |System |All | | |All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. |Critical |System |All | | |HA disabled on cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |HA enabled on cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} |Critical |System |All | | |Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} |Warning |System |All | | |Created datacenter {datacenter.name} in folder {parent.name} |Informational |System |All | | |Renamed datacenter from {oldName} to {newName} |Informational |System |All | | |Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} |Informational |System |All | | |Removed unconfigured datastore {datastore.name} |Informational |System |All | | |Discovered datastore {datastore.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} |Critical |System |All | | | |Informational |System |All | | |File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} |Informational |System |All | | |File or directory {targetFile} deleted from {datastore.name} |Informational |System |All | | |File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} |Informational |System |All | | |Reconfigured Storage I/O Control on datastore {datastore.name} |Informational |System |All | | |Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} |Informational |System |All | | |Removed datastore {datastore.name} from {host.name} in {datacenter.name} |Informational |System |All | | |Renamed datastore from {oldName} to {newName} in {datacenter.name} |Informational |System |All | | |Renamed datastore from {oldName} to {newName} in {datacenter.name} |Informational |System |All | | |Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | | |Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} |Informational |System |All | | |DRS put {host.name} into standby mode |Informational |System |All | | |DRS is putting {host.name} into standby mode |Informational |System |All | | |DRS cannot move {host.name} out of standby mode |Critical |System |All | | |DRS moved {host.name} out of standby mode |Informational |System |All | | |DRS is moving {host.name} out of standby mode |Informational |System |All | | |DRS invocation not completed |Critical |System |All | | |DRS has recovered from the failure |Informational |System |All | | |Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. |Critical |System |All | | |Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule |Informational |System |All | | |DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |DRS powered On {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} |Informational |System |All | | |A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. |Informational |System |All | | |vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. |Informational |System |All | | |vNetwork Distributed Switch event |Informational |System |All | | |The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. |Informational |System |All | | |The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. |Warning |System |All | | |vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. |Informational |System |All | | |dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} |Informational |System |All | | |New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. |Informational |System |All | | |dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. |Informational |System |All | | |The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} |Informational |System |All | | |The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} |Informational |System |All | | |Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. |Informational |System |All | | |The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. |Informational |System |All | | |The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. |Informational |System |All | | |An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. |Informational |System |All | | |An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. |Informational |System |All | | |Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} |Informational |System |All | | |vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. |Informational |System |All | | |Host {host.name} in {datacenter.name} has entered maintenance mode |Informational |System |All | | |The host {host.name} is in standby mode |Informational |System |All | | |Host {host.name} in {datacenter.name} has started to enter maintenance mode |Informational |System |All | | |The host {host.name} is entering standby mode |Informational |System |All | | |{message} |Critical |System |All | | |Host {host.name} in {datacenter.name} has exited maintenance mode |Informational |System |All | | |The host {host.name} could not exit standby mode |Critical |System |All | | |The host {host.name} is no longer in standby mode |Informational |System |All | | |The host {host.name} is exiting standby mode |Informational |System |All | | |Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |General event: {message} |Informational |System |All | | |Error detected on {host.name} in {datacenter.name}: {message} |Critical |System |All | | |Issue detected on {host.name} in {datacenter.name}: {message} |Informational |System |All | | |Issue detected on {host.name} in {datacenter.name}: {message} |Warning |System |All | | |User logged event: {message} |Informational |System |All | | |Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} |Critical |System |All | | |Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} |Informational |System |All | | |Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} |Warning |System |All | | |The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. |Informational |System |All | | |A ghost proxy switch {switchUuid} on the host {host.name} was resolved. |Informational |System |All | | |The message changed: {message} |Informational |System |All | | |{componentName} status changed from {oldStatus} to {newStatus} |Informational |System |All | | |Cannot add host {hostname} to datacenter {datacenter.name} |Critical |System |All | | |Added host {host.name} to datacenter {datacenter.name} |Informational |System |All | | |Administrator access to the host {host.name} is disabled |Warning |System |All | | |Administrator access to the host {host.name} has been restored |Warning |System |All | | |Cannot connect {host.name} in {datacenter.name}: cannot configure management account |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} |Critical |System |All | | |Cannot connect host {host.name} in {datacenter.name} : server agent is not responding |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: incorrect user name or password |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: incompatible version |Critical |System |All | | |Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: error connecting to host |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: network error |Critical |System |All | | |Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges |Critical |System |All | | |Cannot connect host {host.name} in {datacenter.name} |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: incorrect host name |Critical |System |All | | |Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response |Critical |System |All | | |Host {host.name} checked for compliance. |Informational |System |All | | |Host {host.name} is in compliance with the attached profile |Informational |System |All | | |Host configuration changes applied. |Informational |System |All | | |Connected to {host.name} in {datacenter.name} |Informational |System |All | | |Host {host.name} in {datacenter.name} is not responding |Critical |System |All | | |dvPort connected to host {host.name} in {datacenter.name} changed status |Informational |System |All | | |HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | | |HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} |Warning |System |All | | |HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {reason.@enum.HostDasErrorEvent.HostDasErrorReason} |Critical |System |All | | |HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly |Informational |System |All | | |Disconnected from {host.name} in {datacenter.name}. Reason: {reason.@enum.HostDisconnectedEvent.ReasonCode} |Informational |System |All | | |Cannot restore some administrator permissions to the host {host.name} |Critical |System |All | | |Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage |Critical |System |All | | |Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format |Critical |System |All | | |Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached |Critical |System |All | | |The virtual machine inventory file on host {host.name} is damaged or unreadable. |Informational |System |All | | |IP address of the host {host.name} changed from {oldIP} to {newIP} |Informational |System |All | | |Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} |Critical |System |All | | |Cannot resolve IP address to short name on host {host.name} |Critical |System |All | | |Host {host.name} could not reach isolation address: {isolationIp} |Critical |System |All | | |A host license for {host.name} has expired |Critical |System |All | | |Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage |Critical |System |All | | |Host monitoring state in {computeResource.name} in {datacenter.name} changed to {state.@enum.DasConfigInfo.ServiceState} |Informational |System |All | | |Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} |Critical |System |All | | |Host {host.name} has no port groups enabled for HA communication. |Critical |System |All | | |Host {host.name} currently has no management network redundancy |Critical |System |All | | |Host {host.name} is not in compliance with the attached profile |Critical |System |All | | |Host {host.name} is not a cluster member in {datacenter.name} |Critical |System |All | | |Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} |Critical |System |All | | |Primary agent {primaryAgent} was not specified as a short name to host {host.name} |Critical |System |All | | |Profile is applied on the host {host.name} |Informational |System |All | | |Cannot reconnect to {host.name} in {datacenter.name} |Critical |System |All | | |Removed host {host.name} in {datacenter.name} |Informational |System |All | | |Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries |Critical |System |All | | |Cannot resolve short name {shortName} to IP address on host {host.name} |Critical |System |All | | |Shut down of {host.name} in {datacenter.name}: {reason} |Informational |System |All | | |Configuration status on host {computeResource.name} changed from {oldStatus.@enum.ManagedEntity.Status} to {newStatus.@enum.ManagedEntity.Status} in {datacenter.name} |Informational |System |All | | |Cannot synchronize host {host.name}. {reason.msg} |Critical |System |All | | |Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} |Critical |System |All | | |The userworld swap is not enabled on the host {host.name} |Warning |System |All | | |Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. |Informational |System |All | | |WWNs are changed for {host.name} |Warning |System |All | | |The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN |Critical |System |All | | |Host {host.name} did not provide the information needed to acquire the correct set of licenses |Critical |System |All | | |{message} |Informational |System |All | | |Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} |Critical |System |All | | |The license edition '{feature}' is invalid |Critical |System |All | | |License {feature.featureName} has expired |Critical |System |All | | |License inventory is not compliant. Licenses are overused |Critical |System |All | | |Unable to acquire licenses due to a restriction in the option file on the license server. |Critical |System |All | | |License server {licenseServer} is available |Informational |System |All | | |License server {licenseServer} is unavailable |Critical |System |All | | |Created local datastore {datastore.name} on {host.name} in {datacenter.name} |Informational |System |All | | |The Local Tech Support Mode for the host {host.name} has been enabled |Informational |System |All | | |Datastore {datastore} which is configured to back the locker does not exist |Warning |System |All | | |Locker was reconfigured from {oldDatastore} to {newDatastore} datastore |Informational |System |All | | |Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} |Critical |System |All | | |Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} |Critical |System |All | | |Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} |Warning |System |All | | |Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} |Critical |System |All | | |Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} |Warning |System |All | | |Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} |Warning |System |All | | |Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Cannot login user {userName}@{ipAddress}: no permission |Critical |System |All | | |No datastores have been configured on the host {host.name} |Informational |System |All | | |A required license {feature.featureName} is not reserved |Critical |System |All | | |Unable to automatically migrate {vm.name} from {host.name} |Informational |System |All | | |Non-VI workload detected on datastore {datastore.name} |Critical |System |All | | |Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} |Informational |System |All | | |The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. |Warning |System |All | | |Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {propagate.@enum.auth.Permission.propagate} |Informational |System |All | | |Permission rule removed for {principal} on {entity.name} |Informational |System |All | | |Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {propagate.@enum.auth.Permission.propagate} |Informational |System |All | | |Profile {profile.name} attached. |Informational |System |All | | |Profile {profile.name} was changed. |Informational |System |All | | |Profile is created. |Informational |System |All | | |Profile {profile.name} detached. |Informational |System |All | | |Profile {profile.name} reference host changed. |Informational |System |All | | |Profile was removed. |Informational |System |All | | |Remote Tech Support Mode (SSH) for the host {host.name} has been enabled |Informational |System |All | | |Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} |Informational |System |All | | |Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} |Informational |System |All | | |Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} |Informational |System |All | | |Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} |Informational |System |All | | |Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} |Critical |System |All | | |New role {role.name} created |Informational |System |All | | |Role {role.name} removed |Informational |System |All | | |Modifed role {role.name} |Informational |System |All | | |Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully |Informational |System |All | | |Created task {scheduledTask.name} on {entity.name} in {datacenter.name} |Informational |System |All | | |Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} |Informational |System |All | | |Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} |Critical |System |All | | |Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} |Critical |System |All | | |Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} |Informational |System |All | | |Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} |Informational |System |All | | |Running task {scheduledTask.name} on {entity.name} in {datacenter.name} |Informational |System |All | | |A vCenter Server license has expired |Critical |System |All | | |vCenter started |Informational |System |All | | |A session for user '{terminatedUsername}' has stopped |Informational |System |All | | |Task: {info.descriptionId} |Informational |System |All | | |Task: {info.descriptionId} time-out |Informational |System |All | | |Upgrading template {legacyTemplate} |Informational |System |All | | |Cannot upgrade template {legacyTemplate} due to: {reason.msg} |Informational |System |All | | |Template {legacyTemplate} upgrade completed |Informational |System |All | | |The operation performed on {host.name} in {datacenter.name} timed out |Warning |System |All | | |There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available |Informational |System |All | | |{unlicensed} unlicensed virtual machines found on host {host} |Informational |System |All | | |The agent on host {host.name} is updated and will soon restart |Informational |System |All | | |User {userLogin} was added to group {group} |Informational |System |All | | |User {userName}@{ipAddress} logged in |Informational |System |All | | |User {userName} logged out |Informational |System |All | | |Password was changed for account {userLogin} on host {host.name} |Informational |System |All | | |User {userLogin} removed from group {group} |Informational |System |All | | |{message} |Informational |System |All | | |Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} |Informational |System |All | | |A vMotion license for {host.name} has expired |Critical |System |All | | |Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {reason.@enum.fault.AgentInstallFailed.Reason} |Critical |System |All | | |vCenter agent has been uninstalled from {host.name} in {datacenter.name} |Informational |System |All | | |Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {reason.@enum.fault.AgentInstallFailed.Reason} |Critical |System |All | | |vCenter agent has been upgraded on {host.name} in {datacenter.name} |Informational |System |All | | |VIM account password was changed on host {host.name} |Informational |System |All | | |Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened |Informational |System |All | | |A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired |Informational |System |All | | |Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} |Informational |System |All | | |Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} |Informational |System |All | | |Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} |Informational |System |All | | |Creating {vm.name} on host {host.name} in {datacenter.name} |Informational |System |All | | |Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} |Informational |System |All | | |Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} |Informational |System |All | | |Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} |Informational |System |All | | |Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} |Informational |System |All | | |Cannot clone {vm.name}: {reason.msg} |Critical |System |All | | |Clone of {sourceVm.name} completed |Informational |System |All | | |Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found |Informational |System |All | | |Virtual machine {vm.name} is connected |Informational |System |All | | |Created virtual machine {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status |Informational |System |All | | |{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {reason.@enum.VmDasBeingResetEvent.ReasonCode} |Informational |System |All | | |{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {reason.@enum.VmDasBeingResetEvent.ReasonCode}. A screenshot is saved at {screenshotFilePath}. |Informational |System |All | | |Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} |Warning |System |All | | |Unable to update HA agents given the state of {vm.name} |Critical |System |All | | |HA agents have been updated with the current state of the virtual machine |Informational |System |All | | |Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back |Critical |System |All | | |Cannot deploy template: {reason.msg} |Critical |System |All | | |Template {srcTemplate.name} deployed on host {host.name} |Informational |System |All | | |{vm.name} on host {host.name} in {datacenter.name} is disconnected |Informational |System |All | | |Discovered {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Cannot create virtual disk {disk} |Critical |System |All | | |Migrating {vm.name} off host {host.name} in {datacenter.name} |Informational |System |All | | |End a recording session on {vm.name} |Informational |System |All | | |End a replay session on {vm.name} |Informational |System |All | | |Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} |Critical |System |All | | |Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} |Critical |System |All | | |Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. |Critical |System |All | | |vCenter cannot start the Secondary VM {vm.name}. Reason: {reason.@enum.VmFailedStartingSecondaryEvent.FailureReason} |Critical |System |All | | |Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} |Critical |System |All | | |Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} |Critical |System |All | | |Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} |Critical |System |All | | |Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} |Critical |System |All | | |{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} |Critical |System |All | | |{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} |Critical |System |All | | |Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} |Critical |System |All | | |vCenter cannot update the Secondary VM {vm.name} configuration |Critical |System |All | | |Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} |Warning |System |All | | |Fault Tolerance state on {vm.name} changed from {oldState.@enum.VirtualMachine.FaultToleranceState} to {newState.@enum.VirtualMachine.FaultToleranceState} |Informational |System |All | | |Fault Tolerance protection has been turned off for {vm.name} |Informational |System |All | | |The Fault Tolerance VM ({vm.name}) has been terminated. {reason.@enum.VmFaultToleranceVmTerminatedEvent.TerminateReason} |Informational |System |All | | |Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Guest OS standby for {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |VM monitoring state in {computeResource.name} in {datacenter.name} changed to {state.@enum.DasConfigInfo.VmMonitoringState} |Informational |System |All | | |Assign a new instance UUID ({instanceUuid}) to {vm.name} |Informational |System |All | | |The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) |Informational |System |All | | |The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} |Critical |System |All | | |New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} |Informational |System |All | | |Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} |Warning |System |All | | |The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} |Critical |System |All | | |Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. |Warning |System |All | | |Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. |Warning |System |All | | |Error message on {vm.name} on {host.name} in {datacenter.name}: {message} |Critical |System |All | | |Message on {vm.name} on {host.name} in {datacenter.name}: {message} |Informational |System |All | | |Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} |Warning |System |All | | |Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed |Informational |System |All | | |No compatible host for the Secondary VM {vm.name} |Critical |System |All | | |Not all networks for {vm.name} are accessible by {destHost.name} |Warning |System |All | | |{vm.name} does not exist on {host.name} in {datacenter.name} |Warning |System |All | | |{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is powered off |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is powered on |Informational |System |All | | |Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. |Informational |System |All | | |VM ({vm.name}) failed over to {host.name}. {reason.@enum.VirtualMachine.NeedSecondaryReason} |Critical |System |All | | |Reconfigured {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Registered {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Relayout of {vm.name} on {host.name} in {datacenter.name} completed |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary |Informational |System |All | | |{vm.name} on {host.name} reloaded from new configuration {configPath}. |Informational |System |All | | |{vm.name} on {host.name} could not be reloaded from {configPath}. |Critical |System |All | | |Cannot relocate virtual machine '{vm.name}' in {datacenter.name} |Critical |System |All | | |Completed the relocation of the virtual machine |Informational |System |All | | |Remote console connected to {vm.name} on host {host.name} |Informational |System |All | | |Remote console disconnected from {vm.name} on host {host.name} |Informational |System |All | | |Removed {vm.name} on {host.name} from {datacenter.name} |Informational |System |All | | |Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} |Warning |System |All | | |{vm.name} on {host.name} in {datacenter.name} is reset |Informational |System |All | | |Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} |Informational |System |All | | |Changed resource allocation for {vm.name} |Informational |System |All | | |Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is resumed |Informational |System |All | | |A Secondary VM has been added for {vm.name} |Informational |System |All | | |vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. |Critical |System |All | | |Disabled Secondary VM for {vm.name} |Informational |System |All | | |Enabled Secondary VM for {vm.name} |Informational |System |All | | |Started Secondary VM for {vm.name} |Informational |System |All | | |{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {shutdownResult.@enum.VmShutdownOnIsolationEvent.Operation} |Informational |System |All | | |Start a recording session on {vm.name} |Informational |System |All | | |Start a replay session on {vm.name} |Informational |System |All | | |{vm.name} on host {host.name} in {datacenter.name} is starting |Informational |System |All | | |Starting Secondary VM for {vm.name} |Informational |System |All | | |The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} |Critical |System |All | | |{vm.name} on {host.name} in {datacenter.name} is stopping |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is suspended |Informational |System |All | | |{vm.name} on {host.name} in {datacenter.name} is being suspended |Informational |System |All | | |Starting the Secondary VM {vm.name} timed out within {timeout} ms |Critical |System |All | | |Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} |Warning |System |All | | |Virtual hardware upgraded to version {version} |Informational |System |All | | |Cannot upgrade virtual hardware |Critical |System |All | | |Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} |Informational |System |All | | |Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} |Informational |System |All | | |Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} |Warning |System |All | | |BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} |Critical |System |All | | |New WWNs assigned to {vm.name} |Informational |System |All | | |WWNs are changed for {vm.name} |Warning |System |All | | |The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN |Critical |System |All | | |{message} |Warning |System |All | | |Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. |Warning |System |All | | |com.vmware.license.AddLicenseEvent|License {licenseKey} added to VirtualCenter |Informational |System |All | |com.vmware.license.AssignLicenseEvent|License {licenseKey} assigned to asset {entityName} with id {entityId} |Informational |System |All | |com.vmware.license.DLFDownloadFailedEvent|Failed to download license information from the host {hostname} due to {errorReason.@enum.com.vmware.license.DLFDownloadFailedEvent.DLFDownloadFailedReason} |Warning |System |All | |com.vmware.license.LicenseAssignFailedEvent|License assignment on the host fails. Reasons: {errorMessage.@enum.com.vmware.license.LicenseAssignError}. |Informational |System |All | |com.vmware.license.LicenseExpiryEvent|Your host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. |Warning |System |All | |com.vmware.license.LicenseUserThresholdExceededEvent|Current license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) |Warning |System |All | |com.vmware.license.RemoveLicenseEvent|License {licenseKey} removed from VirtualCenter |Informational |System |All | |com.vmware.license.UnassignLicenseEvent|License unassigned from asset {entityName} with id {entityId} |Informational |System |All | |com.vmware.vc.HA.ClusterFailoverActionCompletedEvent|HA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | |com.vmware.vc.HA.ClusterFailoverActionInitiatedEvent|HA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} |Warning |System |All | |com.vmware.vc.HA.DasAgentRunningEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running |Informational |System |All | |com.vmware.vc.HA.DasFailoverHostFailedEvent|HA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed |Critical |System |All | |com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent|All shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} |Critical |System |All | |com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent|All VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} |Critical |System |All | |com.vmware.vc.HA.DasHostFailedEvent|A possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} |Critical |System |All | |com.vmware.vc.HA.DasHostMonitoringDisabledEvent|No virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} |Warning |System |All | |com.vmware.vc.HA.DasTotalClusterFailureEvent|HA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} |Warning |System |All | |com.vmware.vc.HA.HostDasAgentHealthyEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy |Informational |System |All | |com.vmware.vc.HA.HostDasErrorEvent|HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {reason.@enum.HostDasErrorEvent.HostDasErrorReason} |Critical |System |All | |com.vmware.vc.VCHealthStateChangedEvent|vCenter Service overall health changed from '{oldState}' to '{newState}' |Informational |System |All | |com.vmware.vc.cim.CIMGroupHealthStateChanged|Health of [data.group] changed from [data.oldState] to [data.newState]. |Informational |System |All | |com.vmware.vc.datastore.UpdateVmFilesFailedEvent|Failed to update VM files on datastore {ds.name} using host {hostName} |Critical |System |All | |com.vmware.vc.datastore.UpdatedVmFilesEvent|Updated VM files on datastore {ds.name} using host {hostName} |Informational |System |All | |com.vmware.vc.datastore.UpdatingVmFilesEvent|Updating VM files on datastore {ds.name} using host {hostName} |Informational |System |All | |com.vmware.vc.ft.VmAffectedByDasDisabledEvent|VMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. |Warning |System |All | |com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent|Network passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} |Informational |System |All | |com.vmware.vc.npt.VmAdapterExitedPassthroughEvent|Network passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} |Informational |System |All | |com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled |Informational |System |All | |com.vmware.vc.vcp.FtFailoverEvent|FT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure |Informational |System |All | |com.vmware.vc.vcp.FtFailoverFailedEvent|FT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary |Critical |System |All | |com.vmware.vc.vcp.FtSecondaryRestartEvent|HA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure |Informational |System |All | |com.vmware.vc.vcp.FtSecondaryRestartFailedEvent|FT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart |Critical |System |All | |com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long |Informational |System |All | |com.vmware.vc.vcp.TestEndEvent|VM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | |com.vmware.vc.vcp.TestStartEvent|VM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | |com.vmware.vc.vcp.VcpNoActionEvent|HA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting |Informational |System |All | |com.vmware.vc.vcp.VmDatastoreFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} |Critical |System |All | |com.vmware.vc.vcp.VmNetworkFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} |Critical |System |All | |com.vmware.vc.vcp.VmPowerOffHangEvent|HA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying |Critical |System |All | |com.vmware.vc.vcp.VmRestartEvent|HA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} |Informational |System |All | |com.vmware.vc.vcp.VmRestartFailedEvent|Virtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart |Critical |System |All | |com.vmware.vc.vcp.VmWaitForCandidateHostEvent|HA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying |Critical |System |All | |com.vmware.vc.vmam.AppMonitoringNotSupported|Application monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} |Warning |System |All | |com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent|Application heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} |Warning |System |All | |com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent|Application heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} |Warning |System |All | |esx.clear.net.connectivity.restored|Network connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. |Informational |System |All | |esx.clear.net.dvport.connectivity.restored|Network connectivity restored on DVPorts: {1}. Physical NIC {2} is up. |Informational |System |All | |esx.clear.net.dvport.redundancy.restored|Uplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. |Informational |System |All | |esx.clear.net.redundancy.restored|Uplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. |Informational |System |All | |esx.clear.net.vmnic.linkstate.up|Physical NIC {1} linkstate is up. |Informational |System |All | |esx.clear.storage.connectivity.restored|Connectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. |Informational |System |All | |esx.clear.storage.redundancy.restored|Path redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. |Informational |System |All | |esx.problem.apei.bert.memory.error.corrected|A corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} |Critical |System |All | |esx.problem.apei.bert.memory.error.fatal|A fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} |Critical |System |All | |esx.problem.apei.bert.memory.error.recoverable|A recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} |Critical |System |All | |esx.problem.apei.bert.pcie.error.corrected|A corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. |Critical |System |All | |esx.problem.apei.bert.pcie.error.fatal|Platform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. |Critical |System |All | |esx.problem.apei.bert.pcie.error.recoverable|A recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. |Critical |System |All | |esx.problem.iorm.nonviworkload|An external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. |Informational |System |All | |esx.problem.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. |Critical |System |All | |esx.problem.net.dvport.connectivity.lost|Lost network connectivity on DVPorts: {1}. Physical NIC {2} is down. |Critical |System |All | |esx.problem.net.dvport.redundancy.degraded|Uplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. |Warning |System |All | |esx.problem.net.dvport.redundancy.lost|Lost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. |Warning |System |All | |esx.problem.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. |Critical |System |All | |esx.problem.net.migrate.bindtovmk|The ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. |Warning |System |All | |esx.problem.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. |Warning |System |All | |esx.problem.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. |Warning |System |All | |esx.problem.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. |Warning |System |All | |esx.problem.net.uplink.mtu.failed|VMkernel failed to set the MTU value {1} on the uplink {2}. |Warning |System |All | |esx.problem.net.vmknic.ip.duplicate|A duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. |Warning |System |All | |esx.problem.net.vmnic.linkstate.down|Physical NIC {1} linkstate is down. |Informational |System |All | |esx.problem.net.vmnic.watchdog.reset|Uplink {1} has recovered from a transient failure due to watchdog timeout |Informational |System |All | |esx.problem.scsi.device.limitreached|The maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. |Critical |System |All | |esx.problem.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. |Warning |System |All | |esx.problem.scsi.scsipath.limitreached|The maximum number of supported paths of {1} has been reached. Path {2} could not be added. |Critical |System |All | |esx.problem.storage.connectivity.devicepor|Frequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} |Warning |System |All | |esx.problem.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. |Critical |System |All | |esx.problem.storage.connectivity.pathpor|Frequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} |Warning |System |All | |esx.problem.storage.connectivity.pathstatechanges|Frequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} |Warning |System |All | |esx.problem.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. |Warning |System |All | |esx.problem.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. |Warning |System |All | |esx.problem.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. |Informational |System |All | |esx.problem.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. |Informational |System |All | |esx.problem.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. |Critical |System |All | |esx.problem.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. |Critical |System |All | |esx.problem.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. |Critical |System |All | |esx.problem.vmfs.nfs.mount.connect.failed|Failed to mount to the server {1} mount point {2}. {3} |Critical |System |All | |esx.problem.vmfs.nfs.mount.limit.exceeded|Failed to mount to the server {1} mount point {2}. {3} |Critical |System |All | |esx.problem.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). |Critical |System |All | |esx.problem.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). |Informational |System |All | |esx.problem.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. |Critical |System |All | |esx.problem.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. |Critical |System |All | |vim.event.LicenseDowngradedEvent|License downgrade: {licenseKey} removes the following features: {lostFeatures} |Warning |System |All | |vprob.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. |Critical |System |All | |vprob.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. |Critical |System |All | |vprob.net.migrate.bindtovmk|The ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. |Warning |System |All | |vprob.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. |Warning |System |All | |vprob.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. |Warning |System |All | |vprob.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. |Warning |System |All | |vprob.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. |Warning |System |All | |vprob.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. |Critical |System |All | |vprob.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. |Warning |System |All | |vprob.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. |Warning |System |All | |vprob.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. |Informational |System |All | |vprob.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. |Informational |System |All | |vprob.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. |Critical |System |All | |vprob.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. |Critical |System |All | |vprob.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. |Critical |System |All | |vprob.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). |Critical |System |All | |vprob.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). |Informational |System |All | |vprob.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. |Critical |System |All | |vprob.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. |Critical |System |All | ==== RHEV ==== Red Hat® Enterprise Virtualization (RHEV) является одной из наиболее широко применяемых технологий компаниями, использующими операционную систему Red Hat в качестве основы в своем Центре обработки данных. **Pandora FMS Enterprise** предлагает возможность мониторинга виртуальных архитектур на базе RHEV с помощью **RHEV Monitoring Plugin**, который позволяет легко контролировать все аспекты, связанные с виртуальной архитектурой RHEV. === Архитектура для мониторинга === С помощью //плагина// можно контролировать всю архитектуру системы RHEV: центры обработки данных, кластеры хостов, домены хранения данных, сети, хосты и виртуальные машины, предлагая общий взгляд на состояние виртуальной среды. Для этого Pandora FMS использует официальный API, предоставляемый системой виртуализации RHEV. === Мониторинг с помощью RHEV Monitoring Plugin === Мониторинг виртуальной среды RHEV основан на двух компонентах: - На //Плагине// Агента, выполняющем задачи автообнаружения и сбора данных. //Плагин// Агента отвечает за отправление информации в Pandora FMS. - На //скрипте// распознавания, который обновляет различные значения для обнаруженных объектов. Это руководство необходимо для правильного функционирования расширений //плагина//. - Расширение RHEV Viewer и RHEV Manager. Это расширения, которые обеспечивают дополнительную ценность, позволяя видеть контролируемую инфраструктуру и управлять выключением/включением большего количества виртуальных машин, и все это с веб-консоли Pandora FMS. Для использования //скрипта// распознавания вам необходимо активировать [[:en:documentation:01_understanding:02_architecture#servidor_de_reconocimiento|Reconserver]] Чтобы некоторые переменные API отражали реальное значение соответствующей виртуальной машины, **вам необходимо установить Агент RHEV**; вы можете найти все об этом в документации к вашей версии RHEV. Для **мониторинга установленной операционной системы** на виртуальных машинах рекомендуется использовать Агента **Pandora FMS** вместо RHEV API. == Внутренняя работа плагина == //Плагин// RHEV Monitoring Plugin извлекает информацию через API web, обслуживающий среду виртуализации RHEV. Если вам нужна только информация о мониторинге, все, что вам нужно настроить, это //плагин// Агента, который выполняет эту задачу. //Плагин// Агента выполняет обнаружение устройств и составляет XML с модулями для каждого из них. Конфигурация //плагина// позволяет выбрать, какие элементы будут контролироваться, и конфигурацию его модулей. Модули, созданные //плагином//, являются настраиваемыми, и можно изменить название и описание, а также добавить максимальные и минимальные значения для состояний модуля ''Warning'' и ''Critical''. После создания XML, //плагин// Агента, отправляет файлы, используя либо [[:en:documentation:08_technical_reference:09_tentacle|Tentacle]] или копируя их в локальный каталог, в зависимости от выбранного метода передачи. Если вы также собираетесь использовать расширения **RHEV Viewer** и **RHEV Manager**, вам необходимо использовать распознавание //script//. Руководство по распознаванию отвечает за обновление некоторых переменных для каждого из Агентов, обнаруженных в Pandora FMS, в соответствии со значениями, настроенными в RHEV. Эти **переменные** необходимы для правильного отображения объектов в расширении RHEV Viewer и для правильного управления виртуальными машинами с помощью расширения RHEV Manager. === Необходимые условия установки === //Плагин// Агента требует установки следующего программное обеспечение: * curl. * perl-XML-Simple. * [[:ru:documentation:03_monitoring:02_operations|Программный Агент]]Pandora FMS. * tentacle_client (если вы хотите использовать tentacle для отправки файлов, tentacle_client устанавливается вместе с Программным Агентом Pandora FMS). == Red Hat == В системах на базе Red Hat® можно установить зависимости с помощью команды: yum install perl-XML-Simple curl == SLES == На системах на базе SUSE вы можете установить зависимости с помощью команды: zypper install perl-XML-Simple curl == Debian/Ubuntu == В системах на базе Debiand/Ubuntu вы можете установить зависимости с помощью команды: apt-get install libxml-simple-perl curl == Установка программного агента Pandora FMS == Установка программного агента Pandora FMS объясняется в следующем разделе [[:en:documentation:06_metaconsole:03_installation|Установка Pandora FMS]], здесь вы найдете все необходимое для установки данного Агента на вашу платформу. === Скачать сертификат RHEV === Перед использованием //плагина// необходимо загрузить сертификат, позволяющий HTTPS-соединение с API RHEV. Для этого выполните следующую команду: curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt Где ''[rhevm-host]'' - имя сервера, обслуживающего API RHEV. Конкретным примером может быть: curl -o rhevm.cer http://rhevm.server:8080/ca.crt После загрузки сертификата вы можете проверить правильность подключения к API с помощью следующей команды, используя соединители строк ''''> curl -X GET \ -H "Accept: application/xml" \ -u [USER:PASS] \ --cacert [CERT] https://[RHEVM-HOST]:8443/api Со следующими значениями: * USER: user@domain для подключения к API. * PASS: пароль пользователя, с которым вы подключаетесь к API. * CERT: путь к сертификату, загруженному в предыдущем шаге. * RHEVM-HOST: адрес //хоста//, обслуживающего API. Пример с конкретными данными команды будет выглядеть следующим образом: curl -X GET \ -H "Accept: application/xml" \ -u [user@testdomain:12345] \ --cacert /home/user/ca.crt https://rhevm.server:8443/api Если команда выполнена положительно, она возвращает вывод в формате XML с общей информацией об API RHEV. === Предварительные замечания по конфигурации RHEV === В среде виртуализации RHEV возможно, чтобы несколько объектов имели одинаковое имя. Это является проблемой, поскольку в Pandora FMS эти объекты преобразуются в Агентов, в которых дублирование в именах не допускается. Кроме того, из-за этого также возникают проблемы при //анализировании// результата, возвращаемого API в формате XML, выдается ошибка, подобная следующей: Warning: element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199 Для решения проблемы необходимо лишь следовать номенклатуре имен для объектов среды виртуализации RHEV, в которой имена не повторяются. === Установка плагина агента === Для установки //плагина// Агента достаточно скопировать //скрипт// ''rhev-plugin.pl'' и файл конфигурации ''rhev-plugin.conf'' в каталог устройства, на котором установлен Pandora FMS Agent, выполняющий //плагин//. //Плагин// может быть запущен в Агенте, установленном на тех же устройствах, что и сервер Pandora FMS, или на другом устройстве. Для запуска //плагина// необходимо добавить в конфигурационный файл Агента (по умолчанию ''/etc/pandora/pandora_agent.conf'') следующая строка: module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf При добавлении этой строки, //плагин// Агента будет выполнять свои функции при каждом выполнении. === Мониторинг виртуальной архитектуры RHEV === {{ :wiki:cosa111.jpg |700px‎‎‎‎‎‎}} Чтобы увидеть результат выполнения //плагина// Агента, перейдите в **Monitoring** → **Views** → **Agent Detail**. {{ :wiki:cosa222.jpg?500 |cosa222.jpg}} //Плагин// создает Агента в Pandora FMS для каждого из объектов, найденных при обнаружении архитектуры RHEV./p> Щелкнув на имени Агента, вы сможете увидеть модули мониторинга, созданные //плагином//, а также другие связанные с ним данные: {{ :wiki:snmp6.png?800 |Haga clic para ampliar}} Для каждого типа объекта автоматически создается серия специальных модулей, отслеживающих важную информацию о каждом из них. {{ :wiki:rhev5.jpg?800 |rhev5.jpg}} Если выбранный агент соответствует //хосту//, а не виртуальной машине, модули мониторинга будут отличаться. //Плагин// RHEV также отслеживает события внутри виртуальной архитектуры. //Плагин// создаст один модуль для каждого события, над которым осуществляется мониторинг, в каждом затронутом объекте: {{ :wiki:rhev1.jpg?600 |rhev1.jpg}} Данные для модулей, созданных на основе событий, - это данные о событии: время события, описание события. Пример данных: {{ :wiki:datos_modulo_eventos_rhev.png?800 }} Помимо Агентов и Модулей, относящихся к самой архитектуре RHEV, в Агенте генерируется модуль, выполняющий //плагин//. По умолчанию этот модуль называется **RHEV Plugin**: {{ :wiki:rhev3.jpg?770 |rhev3.jpg}} Содержимое модуля будет результатом выполнения //плагина//; оно может быть //OK//, если все правильно, или показывать строку ошибки с объяснением ошибки, если происходит что-то непредвиденное. Эта информация в дополнение к модулю //плагина// может быть просмотрена в файле //log//. == Мониторинг состояния организаций == Модули состояния различных объектов возвращают значения, предопределенные в архитектуре RHEV. Это означает, что значения будут строками, содержание которых будет ''up'', ''down'', ''error'', ''maintenance'', ''non_operational'' и т.д., в зависимости от статуса и контролируемого объекта. Для присвоения значений ''warning'' и ''critical'' необходимо определить регулярное выражение в конфигурации модуля. Например, чтобы задать критическое состояние Модуля, которое определяется значениями //error//, //down// и //non_operational//, мы вставляем в поле **Str.** критического значения модуля следующее регулярное выражение: error|down|non_operational === Модули агента виртуальной архитектуры RHEV === Ниже перечислены модули, доступные для каждого элемента архитектуры RHEV. == Data Center == * //Status//: Состояние центра обработки данных. == Storage Domain == * //Available Space//: Доступное пространство в Storage Domain. * //Committed Space//: Принятое пространство в Storage Domain. * //Used Space//: Пространство, использованное в Storage Domain. * //Percent Free Space//: Процент свободного пространства в Storage Domain. == Network == * //Status//: Состояние виртуальной сети. * //STP Status//: Состояние функциональности протокола Spanning Tree Protocol. == Кластер == * //Overcommit Percent//: Процент от чрезмерной нагрузки на //кластер//. * //Transparent HugePages//: Состояние функциональности Transparent HugePages. * //High threshold//: Верхний предел политики планирования. * //Low threshold//: Нижний предел политики планирования. * //Threshold duration//: Срок действия ограничений в политике планирования. == Host == * //Status//: Статус //Хоста//. * //Buffers size//: Размер //буферов//. * //Cache size//: Размер //кэша//. * //Cached swap//: Объем //кэширования// памяти Swap (в байтах). * //Free memory//: Объем свободной памяти (в байтах). * //Percent free memory//: Процент свободной памяти. * //Swap cached percent//: Процент //кэширования// памяти Swap. * //Swap free//: Объем свободной памяти Swap (в байтах). * //Swap free percent//: Процент свободной памяти Swap. * //Total Memory//: Общий объем памяти //Хоста// (в байтах). * //Total Swap//: Общий объем памяти Swap (в байтах). * //Used memory//: Общий объем используемой памяти (в байтах). * //Used Swap//: Общий объем используемой памяти Swap (в байтах). * //Nic [x] TX//: Скорость передачи данных сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса. * //Nic [x] RX//: Скорость приема сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса. * //Nic [x] erros TX//: Количество ошибок передачи сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса. * //Nic [x] erros RX//: Количество ошибок приема сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса. * //User CPU//: Процент процессора, используемого пользователем. * //System CPU//: Процент процессора, используемого системой. * //CPU Idle//: Процент простоя процессора. * //CPU Load//: Средняя загрузка процессора за последние 5 минут. * //KSM CPU//: Процент процессора, используемого KSM. * //Active VM//: Количество активных виртуальных машин в //Хосте//. * //Migrating VM//: Количество виртуальных машин в миграции в //Хосте//. * //Total VM//: Общее количество виртуальных машин //Хоста//. * //Fence Status//: Статус [[wp>Fencing_(computing)|hostfencing]]. == Virtual Machine == * //Status//: Состояние виртуальной машины. * //Disk [x] read//: Скорость чтения с диска x (байт/с). Один генерируется для каждого обнаруженного диска (**хранилища**). * //Disk [x] write//: Скорость записи на диск x (байт/с). Генерируется для каждого обнаруженного диска. * //Disk [x] size//: Размер диска x (в байтах). Генерируется для каждого обнаруженного диска. * //Disk [x] status//: Статус Диска x. Генерируется для каждого обнаруженного диска. * //Nic [x] TX//: Скорость передачи данных сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса. * //Nic [x] RX//: Скорость приема для сетевого интерфейса [x] (в байтах/секунду). Генерируется для каждого обнаруженного сетевого интерфейса. * //Nic [x] erros TX//: Количество ошибок передачи сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса. * //Nic [x] erros RX//: Количество ошибок приема сетевого интерфейса [x]. Генерируется для каждого обнаруженного сетевого интерфейса. * //Installed memory//: Объем установленной памяти (в байтах). * //Percent free memory//: Процент свободной памяти. * //Used memory//: Объем используемой памяти (в байтах). * //Stateless//: Состояние функционирования Stateless. * //HA Status//: Состояние функционирования HA. * //Total CPU//: Общий процент процессора, используемого виртуальной машиной. * //Hypervisor CPU//: Процент процессора гипервизора, используемый виртуальной машиной. * //Guest CPU//: Процент от ЦП //хоста//, используемого виртуальной машиной. == События == * //Event [x]//: Описание события x, произошедшего в системе. Одно будет создано для каждого события, обнаруженного в затронутых Агентах. === Управление и визуализация архитектуры RHEV === В этом разделе описывается установка, настройка и работа расширений RHEV View и RHEV Manager. == Задачи распознавания == Существует возможность создания пользовательских задач распознавания благодаря [[:en:documentation:03_monitoring:04_discovery#custom_netscan|Discovery server]]. == Установка расширений RHEV View и RHEV Manager == Для установки расширений необходимо просто скопировать содержимое папки ''extensions'', которую вы найдете при распаковке //плагина//, в соответствующую папку ''extensions'' части Enterprise консоли Pandora FMS. Команда для выполнения выглядит следующим образом: cp -R extensions/* /enterprise/extensions/ С этого момента будут доступны расширения для мониторинга RHEV. == Использование расширения RHEV View == Чтобы использовать расширение RHEV View, просто нажмите на опцию **RHEV View** в подменю; **Monitoring**. {{ :wiki:rhev_view_menu.png?170 }} Расширение отобразит карту, подобную следующей, со всеми компонентами архитектуры RHEV, обнаруженными //плагином//: {{ :wiki:rhev12.jpg?800 |rhev12.jpg}} На карте показаны различные элементы архитектуры RHEV (Data Centers, Storage Domains, Clusters, Networks, Hosts и Virtual machines). Каждый элемент представлен иконкой, различной для каждого типа элемента архитектуры. Также показаны взаимосвязи между различными элементами архитектуры RHEV. С помощью этого вида очень легко увидеть состояние элементов и то, как они взаимосвязаны. Расширение имеет меню, которое позволяет настраивать вид, скрывая или показывая объекты, увеличивая или уменьшая размер текста и выполняя //zoom// для более детального просмотра изображения. {{ :wiki:rhev_view_options_menu.png?700 }} Например, на следующем изображении карты мы скрыли элементы Networks, Hosts и Virtual Machine архитектуры, потому что нам нужно детально увидеть взаимосвязи кластеров и доменов хранения с центрами обработки данных. {{ :wiki:rhev8.jpg?700 |rhev8.jpg}} == Использование расширения RHEV Manager == Расширение RHEV Manager доступно в просмотре операций агентов Pandora FMS, которые соответствуют виртуальным машинам в архитектуре виртуализации RHEV. Это расширение использует команду **curl**, поэтому необходимо, чтобы оно было установлено и доступно для веб-сервера, поддерживающего Консоль Pandora FMS. Для доступа к расширению нажмите на кнопку с логотипом Red Hat, которую вы найдете вместе с другими вкладками агента. {{ :wiki:rhev_icon_operation_agent.png?400 }} Расширение позволяет управлять большим количеством виртуальных машин (включать, выключать и приостанавливать), не открывая консоль управления RHEV. Расширение показывает текущее состояние виртуальной машины с помощью цветового кода: * Зеленый = Включена. * Оранжеваый = На паузе. * Серый = Остановлена. С помощью выпадающего подменю можно увидеть доступные статусы и изменить статус виртуальной машины, нажав кнопку **Change Status**. {{ :wiki:rhev_combo_options.png?600 }} Если вы выберете состояние **Stop** для остановки виртуальной машины, расширение подключится к RHEV API и отправит команду. Результатом будет изменение состояния виртуальной машины и опций комбо: {{ :wiki:rhev_status_down.png?600 }} Переход между некоторыми состояниями не является автоматическим, например, из состояния **Stop** в **Start**. В этом случае расширение будет показывать состояние виртуальной машины по мере ее изменения в архитектуре виртуализации. Пример: {{ :wiki:rhev_status_down.png?600 }} {{ :wiki:rhev_waiting_for_launch.png?600 }} {{ :wiki:rhev_powering_up.png?600 }} {{ :wiki:rhev_vm_up.png?600 }} === Конфигурация плагина агента === Конфигурация //плагина// Агента осуществляется через конфигурационный файл, имя которого по умолчанию ''rhev-plugin.conf''. По умолчанию //плагин// Агента выбирает все сущности и создает все соответствующие модули с определенными значениями для имени и для описания. Все эти аспекты, а также общие переменные //плагина//, могут быть настроены через конфигурационный файл. == Файл Конфигурации == Конфигурационный файл имеет две отдельные: общие переменные и конфигурация мониторинга. Раздел глобальных переменных начинается с //token// **Configuration** и содержит информацию о конфигурации //плагина//. Допустимыми параметрами в этом разделе являются: * //module_name// : Имя модуля агента со статусом выполнения //плагина//. * //server// : Имя //хоста//, обслуживающего API RHEV. * //user// : Пользователь в формате ''user@domain'' для подключения к API. * //pass// : Пароль для подключения к API. * //cert// : Путь к сертификату для подключения к API. * //temporal// : Временный каталог. * //logfile// : Файл журнала или //log//. * //transfer_mode// : Режим передачи. Может принять значения: ''local'' или ''tentacle''. * //tentacle_ip// : IP-адрес сервера Tentacle, на который отправится информация. В основном он будет расположен на той же машине, что и сервер Pandora FMS. Эта опция используется, только если ''transfer_mode'' имеет значение ''tentacle''. * //tentacle_port// : Порт сервера Tentacle. Эта опция используется, только если ''transfer_mode'' имеет значение ''tentacle''. * //tentacle_opts// : Параметры отправки данных для Tentacle. Эта опция используется, только если ''transfer_mode'' имеет значение ''tentacle''. Раздел конфигурации мониторинга разделен на несколько подразделов. Первый подраздел имеет в качестве //токена// **Reject** и служит для создания списка объектов среды виртуализации, которые будут выброшены из мониторинга. Чтобы отбросить объект, необходимо внести его название в этот список. Например: #Dismissed entities Reject mv1 mv_Windows10 mv_WebServer1 ... Вы можете отбросить все объекты одного типа, например, все //хосты//, все виртуальные машины и т.д.. //токены// для каждого объекта следующие: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (Виртуальные машины). Пример использования этих //токенов//: #Dismissed entities Reject all_dc all_host all_network all_storage all_cluster all_vm Вторая секция имеет в качестве //токена// **Rename** и используется для изменения имен объектов, отслеживаемых через //плагин//. Эта функция очень полезна, если вы хотите совместить мониторинг программных агентов с данными, извлекаемыми из API, в одном и том же Агенте Pandora FMS. Конфигурация этого раздела выполняется путем указания сначала старого имени, а затем нового, разделенных пробелом; например: #Rename entities Rename mv_WebServer1 WebServer1 mv_Windows10 Windows10 Test ... Конфигурация этого раздела выполняется путем указания сначала старого имени, а затем нового, разделенных пробелом; например: Каждый объект имеет свой собственный //токен//, представляющий собой следующее: **DataCenter**, **StorageDomain**, **Network**, **Cluster**, **Host** и **VM**. Для каждого из этих объектов можно определить модули, которые будут отключены, или задать пользовательские значения для имени, описания и максимального и минимального диапазонов для статусов. ''Warning'' и ''Critical''. В качестве примера можно привести следующее: #VM Modules VM status disabled errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети; limits = 60 70 71 100 memory_used name = Используемая память; desc = Память, используемая виртуальной машиной; limits = 256 1024 1025 2048 ... Каждая строка конфигурации модулей мониторинга соответствует двум доступным опциям: * <модуль> disabled: Модуль **НЕ** будет создан. * <модуль> name = <имя>; desc = <описание>; limits = > Модуль будет создан с указанным именем и описанием, а также будут определены пороговые значения для максимального и минимального значений. ''Warning'' и ''Critical''. **Очень важно** иметь в виду **структуру строк конфигурационного файла** и прежде всего обратить внимание на то, чтобы **символ** '';'' сопровождал имя и описание модуля. Эти две строки **НЕ РАВНЫ** (см. пробелы перед символом '';''): errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети; limits = 60 70 71 100 #Правильно errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети ; limits = 60 70 71 100 #Неправильно На модули ссылаются по их короткому имени - эквивалентному имени, которое легче набрать в командной строке. Таблица соответствия между краткими и расширенными названиями находится в следующем разделе. Пример конфигурации для виртуальных машин, раздел VM: Для мониторинга виртуальных машин был определен ряд модулей, включенных или нет, в разделе VM конфигурационного файла. Более конкретно: модуль **status** был отключен, а для модулей **errors_total_tx** и **memory_used** были определены пользовательские значения. Остальные модули, не появившиеся в списке, будут созданы со значениями по умолчанию. При такой конфигурации модуль **memory_used** будет принимать следующие значения: * //Имя//: Используемая память. * //Описание//: Память, используемая виртуальной машиной. * //Min Warning//: 256. * //Max Warning//: 1024. * //Min Critical//: 1025. * //Max Critical//: 2048. Модули генерируются динамически; например, два, относящихся к дискам или интерфейсам, из которых один создается для каждого обнаруженного элемента. Они имеют специальный синтаксис для имени модуля, который выглядит следующим образом: errors_total_tx name = Ошибки TX Net [%s]; desc = Общее количество ошибок TX сети; limits = 60 70 71 100 В этих случаях, поскольку имя имеет динамическую часть, допускается использование макроса ''%s'' для замены //плагином// переменной части имени модуля. Например, модуль **errors_total_tx** имеет имя по умолчанию: Nic [nic1] errors TX Теперь он будет называться Ошибки TX Net [nic1] Являясь **nic1** динамической частью имени модуля. Все ошибки, связанные с файлом конфигурации, отображаются в //журнале//, определенном в файле конфигурации, а также отправляются как синхронный модуль в Pandora FMS, который будет отражен как модуль внутри Агента, выполняющего //плагин//. В дополнение к разделам для каждого элемента архитектуры, конфигурационный файл имеет общий раздел для Событий. Этот раздел определяется с помощью маркера **EventCodes**, и в нем будут перечислены коды событий, которые необходимо отслеживать, например: EventCodes 30 920 980 509 956 Если вы не определите этот раздел, мониторинг событий не будет выполняться. == Разделите нагрузку по мониторингу между несколькими Программными Агентами == С помощью конфигурационного файла //плагина// Агента можно разделить нагрузку мониторинга инфраструктуры виртуализации RHEV. Для этого объекты, подлежащие мониторингу, распределяются между различными Агентами. Предположим, у вас есть следующая архитектура: DC1 | |- Cluster 1.1 |- c1.1mv1 |- c1.1mv2 |- c1.1mv3 |- Cluster 1.2 |- c1.2mv1 |- c1.2mv2 |- c1.2mv3 DC2 | |- Cluster 2.1 |- c2.1mv1 |- c2.1mv2 |- c2.1mv3 |- Cluster 2.2 |- c2.2mv1 |- c2.2mv2 |- c2.2mv3 Одним из способов разделения нагрузки может быть назначение одного Центра Обработки Данных (ЦОД) каждому из Программных агентов; для этого мы используем функцию отбрасывания объектов для мониторинга (//token// **Reject**). Первый Программный Агент контролирует ЦОД DC1 и отбрасывает объекты DC2. Reject DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3 Второй программный агент контролирует ЦОД DC2 и отбрасывает объекты DC1. Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 Мы также можем разделить нагрузку на основе //кластеров//, например. Для каждого //кластера// из двух Центров Данных назначается агент из первых четырех. Программный Агент 1, проводит мониторинг Кластера 1.1 и отбрасывает все остальные объекты. Reject DC1 Cluster 1.2 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3 Программный Агент 2, проводит мониторинг Кластера 1.2 и отбрасывает все остальные объекты. Reject DC1 Cluster 1.1 c1.1mv1 c1.1mv2 c1.1mv3 DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3 Программный Агент 3, проводит мониторинг Кластера 2.1 и отбрасывает все остальные объекты. Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.2 c2.2mv1 c2.2mv2 c2.2mv3 Программный Агент 4, проводит мониторинг Кластера 2.2 и отбрасывает все остальные объекты. Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.1 c2.1mv1 c2.1mv2 c2.1mv3 Конфигурация отбрасываемых объектов является абсолютно гибкой, и можно разделить нагрузку, назначив несколько объектов каждому программному агенту. == Примеры файлов конфигурации == **Архив со всеми отключенными модулями** #These lines are comments #Plugin configuration parameters Configuration server rhevm.server user user@testdomain pass 12345 cert /home/user/rhevm.cer temporal /tmp logfile /tmp/plugin-rhev.log transfer_mode local tentacle_ip 127.0.0.1 tentacle_port 41121 tentacle_opts #Dismissed entities Reject #Data Center modules Datacenter status disabled #StorageDomain modules StorageDomain available disabled used disabled committed disabled free_percent disabled #Networks modules Network status disabled stp disabled #Clusters modules Cluster overcommit disabled hugepages disabled threshold_low disabled threshold_high disabled threshold_duration disabled #Host Modules Host status disabled vm_active disabled vm_migrating disabled vm_total disabled data_current_rx disabled data_current_tx disabled errors_total_rx disabled errors_total_tx disabled memory_cached disabled memory_total disabled swap_free_percent disabled swap_cached_percent disabled swap_free disabled cpu_current_idle disabled cpu_current_user disabled memory_used disabled ksm_cpu_current disabled memory_free_percent disabled swap_total disabled memory_buffers disabled cpu_current_system disabled cpu_load_avg_5m disabled swap_cached disabled swap_used disabled memory_free disabled fence_status disabled #VM Modules VM status disabled stateless disabled ha disabled cpu_current_guest disabled cpu_current_hypervisor disabled memory_free_percent disabled memory_installed disabled memory_used disabled cpu_current_total disabled data_current_read disabled data_current_write disabled size disabled disk_status disabled data_current_rx disabled data_current_tx disabled errors_total_rx disabled errors_total_tx disabled == Таблица соответствия имен Модулей == **Data Center** ^Полное Имя ^Короткое Имя | |Status |status | **Storage Domain** ^Полное Имя ^Короткое Имя | |Available Space |available | |Used Space |used | |Committed Space |committed | |Percent Free Space |free_percent | **Network** ^Полное Имя ^Короткое Имя | |Status |status | |STP Status |stp | **Cluster** ^Полное Имя ^Короткое Имя | |Overcommit Percent |overcommit | |Transparent HugePages |hugepages | |Low Threshold |threshold_low | |High Threshold |threshold_high | |Threshold duration |threshold_duration | **Host** ^Полное Имя^Короткое Имя| |Status |status | |Active VM |vm_active | |Migrating VM |vm_migrating | |Total VM |vm_total | |Nic [x] RX |data_current_rx | |Nic [x] TX |data_current_tx | |Nic [x] errors RX |errors_total_rx | |Nic [x] errors TX |errors_total_tx | |Cache size |memory_cached | |Total memory |memory_total | |Swap free percent |swap_free_percent | |Swap cached percent |swap_cached_percent | |Swap free |swap_free | |CPU Idle |cpu_current_idle | |User CPU |cpu_current_user | |Used memory |memory_used | |KSM CPU |ksm_cpu_current | |Percent free memory |memory_free_percent | |Total swap |swap_total | |Buffers size |memory_buffers | |System CPU |cpu_current_system | |CPU Load |cpu_load_avg_5m | |Cached swap |swap_cached | |Used swap |swap_used | |Free memory |memory_free | |Fence Status |fence_status | **Virtual Machine** ^Полное Имя ^Короткое Имя | |Status |status | |Stateless |stateless | |HA Status |ha | |Guest CPU |cpu_current_guest | |Hypervisor CPU |cpu_current_hypervisor | |Percent free memory |memory_free_percent | |Installed memory |memory_installed | |Used memory |memory_used | |Total CPU |cpu_current_total | |Disk [x] read |data_current_read | |Disk [x] write |data_current_write | |Disk [x] size |size | |Disk [x] status |disk_status | |Nic [x] RX |data_current_rx | |Nic [x] TX |data_current_tx | |Nic [x] errors RX |errors_total_rx | |Nic [x] errors TX |errors_total_tx | ==== Nutanix ==== {{:wiki:icono-modulo-enterprise.png |Версия Enterprise.}} Гиперконвергентное решение Nutanix обеспечивает возможность управления всеми сетевыми, дисковыми, вычислительными ресурсами и памятью из одной точки. //Плагин// Мониторинга Pandora FMS для Nutanix® позволяет нам постоянно контролировать состояние нашего решения Nutanix®. {{ :wiki:nutanix_explained.png?400 }} === Как работает плагин Nutanix === //плагин// Nutanix® это программа на языке Perl, которая подключается к API REST Nutanix PRISM®, получая необходимые метрики для мониторинга следующих элементов: * //Clusters// Nutanix®. * Устройства хранения. * Контейнеры. * Виртуальные машины. * //Хосты//. * Состояние процессов репликации. === Требования для плагина Nutanix === Для того чтобы получить информацию из REST API, вам необходимо: * IP-адрес/ FQDN портала. * //Пользователь// с разрешениями на чтение API. * //Пароль// этого пользователя. Для передачи результатов мониторинга в систему Pandora FMS, вам необходимо: * //Способ передачи информации//, локальный или через Tentacle. * Если способ передачи информации локальный, то адрес каталога, куда должны быть доставлены XML-файлы с результатами, а также права на запись в этом каталоге. * Если способ передачи информации осуществляется с помощью Tentacle, необходимо иметь возможность подключаться к IP-адресу или FQDN сервера Pandora FMS, порту, используемому вашей установкой Tentacle, местоположению клиента Tentacle, а также к любой необычной опции, которую вы определили. === Установка Плагина Nutanix === Загрузите файлы, необходимые для работы //плагина// из [[https://pandorafms.com/library/nutanix-monitoring/|Библиотеки Модулей]]. Переместите файлы на удаленную машину, с которой вы хотите осуществлять мониторинг инфраструктуры Nutanix, и извлеките файлы //плагина//: tar xvzf pandora_nutanix.tar.gz === Настройка Плагина Nutanix === Определяются следующие поля //Nutanix API configuration// **nx_fqdn** Адрес главного сервера Prism. **nx_port** Порт, на котором публикуется REST API (по умолчанию 9440). **nx_user** Пользователь с правами чтения на REST API. **nx_pass** Пароль данного пользователя. **use_https** Использовать https (1) или нет (0) **nx_rest_version** Версия API Rest (по умолчанию 'v1'). //Nutanix agent configuration// **agent_interval** Интервал агентов, генерируемых //плагином//. (по умолчанию 300) **agent_group** Группа, к которой будут принадлежать создаваемые Агенты (если вы закомментируете 'autocreate_group' в конфигурации вашего PandoraServer), по умолчанию ''Nutanix''. **module_interval** Интервал Модулей сгенерированных агентов (коэффициент умножения, по умолчанию 1). **module_tags** Метки, связанные с новыми модулями сгенерированных агентов. **module_group** Группа, к которой будут принадлежать новые модули. //Конфигурация связи с сервером Pandora FMS// **mode** Режим передачи данных, "локальный" или "tentacle". **tentacle_ip** IP-адрес сервера Pandora FMS, применяется только в режиме Tentacle **tentacle_port** Порт, на котором прослушивает служба Tentacle. **tentacle_opts** Любые дополнительные опции, которые вы настроили в службе Tentacle. **tentacle_client** Полный маршрут к вашему клиенту Tentacle. **temp** Временный рабочий каталог. **local_folder** Маршрут доставки для режима передачи данных "local". //Фильтры// **cluster_monitoring** Включать (1) или не включать (0) мониторинг //кластеров//. **storage_monitoring** Включать (1) или не включать (0) мониторинг устройств хранения. **container_monitoring** Включать (1) или не включать (0) мониторинг контейнеров для хранения. **vm_monitoring** Включать (1) или не включать (0) мониторинг виртуальных машин. **host_monitoring** Включать (1) или не включать (0) мониторинг серверов виртуальных машин (узлы Nutanix). **pd_monitoring** Включать (1) или не включать (0) мониторинг защитных доменов. //Пользовательские настройки// **cluster_agent_header** Заголовок для имени Агента устройств типа //cluster//. **storage_agent_header** Заголовок для имени Агента устройств типа устройство хранения. **host_agent_header** Заголовок для имени Агента устройств типа сервер виртуальных машин (узлы Nutanix). **container_agent_header** Заголовок для имени Агента устройств типа контейнеры для хранения. **vm_agent_header** Заголовок для имени Агента устройств типа виртуальная машина. **pd_agent_header** Заголовок для имени Агента устройств типа защитный домен. //Правила генерации модулей// **vm_stat** Правило для добавления модулей для мониторинга виртуальных машин, по умолчанию ''hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*'', это указывает на неординарные модули, которые будут сгенерированы, если имя метрики соответствует регулярным выражениям, указанным в этом поле. Добавьте значение ''.*'', чтобы отслеживать все доступные метрики. **host_stat** Правило добавления модулей для мониторинга серверов виртуальных машин (узлы Nutanix), по умолчанию ''hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*'', это указывает на неординарные модули, которые будут сгенерированы, если имя метрики соответствует регулярным выражениям, указанным в этом поле. Добавьте значение ''.*'', чтобы отслеживать все доступные метрики. **pd_stat** Правило объединения модулей для мониторинга доменов защиты, по умолчанию ''replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes'', это указывает на неординарные модули, которые будут сгенерированы, если имя метрики соответствует регулярным выражениям, указанным в этом поле. Добавьте значение ''.*'', чтобы отслеживать все доступные метрики. //Переименование объектов// **RENAME aaa TO bbb** Правило для переименования объектов, вы можете определить столько каталогов, сколько элементов вам нужно переименовать. //Исключение объектов// **REJECT aaa** Правило для исключения мониторинга объектов, вы можете определить столько каталогов, сколько элементов вам нужно исключить. === Выполнение плагина Nutanix === Рекомендуется запускать //плагин// удаленно с компьютера, имеющего доступ как к Pandora Server, так и к вашей инфраструктуре Nutanix® для мониторинга. Ручное выполнение: ./pandora_nutanix-linux-x64 pandora_nutanix.conf Вы можете автоматизировать выполнение //плагина// в системе **cron**, добавив следующую строку в ''/etc/crontab''> * /5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf === Результаты плагина Nutanix === Снимок экрана с результатами, полученными с помощью плагина: Пример карты архитектуры Nutanix®: {{ :wiki:nutanix_map.jpg?800 |nutanix_map.jpg}} Пример представления Агента архитектуры Nutanix®: {{ :wiki:nutanix_agents.jpg?800 |nutanix_agents.jpg}} Пример вида модулей для Агентов типа Host Nutanix®: {{ :wiki:nutanix_host_modules.jpg?800 |nutanix_host_modules.jpg}} ==== XenServer ==== {{:wiki:icono-modulo-enterprise.png |Версия Enterprise.}} Xen - это средство контроля виртуальных машин с открытым исходным кодом, разработанный Кембриджским университетом. Целью разработки является возможность запускать экземпляры операционных систем со всеми их функциями в полнофункциональном режиме на простом компьютере. Вы можете получить интересную информацию о том, «Как мониторить Citrix XenServer с помощью Pandora FMS» в [[https://pandorafms.com/blog/monitoring-citrix-xenserver/|блоге Pandora FMS]]. Xen обеспечивает безопасную изоляцию, контроль ресурсов, гарантии качества обслуживания и горячую миграцию виртуальных машин. Операционные системы могут быть явно модифицированы для запуска Xen (при сохранении совместимости с пользовательскими приложениями). Это позволяет Xen достичь высокой производительности виртуализации без специальной аппаратной поддержки. Intel внесла несколько дополнений в Xen, которые позволили добавить поддержку ее расширений архитектуры VT-X Vanderpool. Эта технология позволяет немодифицированным операционным системам выступать в качестве хостов внутри виртуальных машин Xen, если физический сервер поддерживает расширения VT от Intel или Pacifica от AMD. {{ :wiki:xenserver_logo_original.png?500 }} === Работа плагина XenServer === Плагин Pandora FMS для мониторинга сред Xen написан на языке Python. Использует XenAPI для получения всей необходимой информации. Позволяет контролировать следующие типы элементов: * Виртуализированные системы в Xen. * Ресурсы хранения. * Собственный сервер Xen (host). {{ :wiki:xen.png }} === Требования для плагина XenServer === Необходимо, чтобы система, на которой работает плагин, выполняла следующие требования: * Установлен Python * Установлены библиотеки Python: * XenAPI * xmltodict * Доступ к API вашего XenServer (web, включите трафик с устройства, на котором запущен плагин, на порт 443 или 80 XenServer). * Рекомендуется, чтобы на виртуальных машинах были установлены инструменты Xen Server Tools, поскольку в противном случае доступная информация довольно скудна. Плагин был успешно протестирован на системах XenServer 6.5 и 7.2 === Установка плагина === Загрузите свою копию плагина Pandora FMS для XenServer из [[https://pandorafms.com/library/xenserver-monitoring/|библиотеки модулей]]. Вы можете развернуть его на компьютере, который вы предпочитаете (Windows® или Linux®), извлекая содержимое файла в энергонезависимый каталог, откуда вы можете запустить его, используя либо Pandora FMS Agent, либо системный cron. === Конфигурация плагина === Доступная конфигурация для плагина Pandora FMS для Xen: //Блок конфигурации [CONF]// **xen_server_ip** IP/FQDN-адрес сервера Xen **user** Пользователь с правами на запрос API Xen **password** Пароль пользователя **temporal** Каталог временных работ //Блок конфигурации [PANDORA]// **tentacle_client** Расположение двоичного файла клиента Tentacle **tentacle_ip** IP-адрес, по которому прослушивает служба Tentacle. **tentacle_port** Порт, на котором прослушивает служба Tentacle. **logfile** Полный путь к файлу журнала **interval** Интервал сгенерированных агентов **group** Группа, назначенная сгенерированным агентам. //Блок конфигурации [TUNNING]// **time_adjustment** Параметр, позволяющий настроить возможную разницу во времени между компьютером, на котором запущен плагин, и сервером Xen. (по умолчанию=10, измеряется в секундах) **scan_vm_ip** Параметр, позволяющий определить, пытается ли плагин получить IP-адреса виртуальных машин с сервера Xen. Можно взять только IP-адреса тех ВМ, на которых установлен XenTools. Вы можете включить (scan_vm_ip=true) или выключить (scan_vm_ip=false). Если не указано, считается включенным. //Блок конфигурации [RENAME]// **xen_element_name = pandora_agent_name** В этом блоке вы можете определить столько вводных данных, сколько хотите, с данным форматом. Позволяет изменить имена элементов Xen Server на другие, которые будут использоваться в качестве имен агентов в Pandora FMS. Вы можете переименовывать ВМ, СР и сам сервер Xen. Например: [RENAME] example-xen-server=Example Xen Server Example Xen Server 2=example-xen-server-2 example-vm=Example VM Example VM 2=example-vm-2 example-sr=Example SR Example SR 2=example-sr-2** Даже если в именах есть пробелы, они не должны заключаться в кавычки. === Выполнение плагина === Вы можете запланировать выполнение плагина из любого агента Pandora FMS, добавив в его конфигурацию следующее: module_plugin python "\xen-plugin.py" "\xen-plugin.conf" Чтобы запрограммировать его через систему cron, вы можете добавить следующую строку в /etc/crontab: /5 * * * * root python "\xen-plugin.py" "\xen-plugin.conf"> /dev/null 2>&1 Если вы запустите плагин вручную, результат должен выглядеть следующим образом: python "\xen-plugin.py" "\xen-plugin.conf" === Результаты плагина XenServer === Снимок экрана с результатами, полученными с помощью плагина: Пример карты архитектуры Xen: {{ :wiki:xen_map.png?800 }} Пример вида Агента архитектуры Xen: {{ :wiki:xen_agents.png?800 }} Пример вида модулей для Агентов типа Host Xen: {{ :wiki:xen_host_modules.png?800 }} ==== OpenNebula ==== {{:wiki:icono-modulo-enterprise.png |Версия Enterprise.}} OpenNebula - это платформа облачных вычислений для распределенных и гетерогенных центров обработки данных, предоставляющая виртуальную инфраструктуру для создания частных облаков, публичных облаков и гибридных развертываний инфраструктуры как услуги (IaaS). OpenNebula - это программное обеспечение //open source// с лицензией Apache 2. {{ :wiki:opennebula-logo.png?500 }} === Работа плагина OpenNebula === Плагин Pandora FMS для мониторинга сред OpenNebula написан на языке Perl. Он выполняется локально на сервере OpenNebula и получает всю необходимую информацию с помощью собственных команд управления OpenNebula. Позволяет контролировать следующие типы элементов: * //Clusters//. * //Хосты//. * Виртуальные машины. * Ресурсы хранения. === Требования для плагина OpenNebula === Необходимо, чтобы система, на которой работает плагин, выполняла следующие требования: * Perl, доступный на вашем компьютере * Пользователь с привилегиями на выполнение следующих команд: * ''onehost''. * ''onecluster''. * ''onedatastore''. Работа //плагина// была успешно протестирована в системах OpenNebula 5.X.X . === Установка плагина === Загрузите свою копию плагина Pandora FMS для OpenNebula из [[https://pandorafms.com/library/opennebula-monitoring/|библиотеки модулей]].. Вы должны извлечь содержимое файла в энергонезависимый каталог, откуда вы сможете выполнить его, используя либо агент Pandora FMS, либо системный cron. unzip pandora_OpenNebula.zip === Конфигурация плагина === Конфигурация, доступная для //плагина// Pandora FMS для OpenNebula. == Конфигурация связи с сервером Pandora FMS == **mode** Режим передачи данных, "локальный" или "tentacle". **tentacle_ip** IP-адрес сервера Pandora FMS, применяется только в режиме tentacle. **tentacle_port** Порт, на котором прослушивает служба Tentacle. **tentacle_opts** Любые дополнительные опции, которые вы настроили в службе Tentacle. **tentacle_client** Полный маршрут к вашему клиенту Tentacle. **temp** Временный рабочий каталог. **local_folder** Маршрут доставки для режима передачи данных "local". == Конфигурация Агента == **agent_interval** Интервал агента, по умолчанию 300. **agent_group** Группа агентов, по умолчанию OpenNebula. == Персонализация Модулей == **module_group** Группа модулей, по умолчанию OpenNebula. **module_interval** Интервал модуля (множитель), по умолчанию 1. **module_tags** Этикетки для модулей. == Персонализация имени == **cluster_agent_header** Заголовок для имени Агента устройств типа //cluster//. **host_agent_header** Заголовок для имени Агента устройств типа сервер виртуальных машин. **storage_agent_header** Заголовок для имени Агента устройств типа устройство хранения. **vm_agent_header** Заголовок для имени Агента устройств типа виртуальная машина. == Фильтры == **cluster_monitoring** Включать (1) или не включать (0) мониторинг //кластеров//. **host_monitoring** Включать (1) или не включать (0) мониторинг серверов виртуальных машин. **storage_monitoring** Включать (1) или не включать (0) мониторинг устройств хранения. **vm_monitoring** Включать (1) или не включать (0) мониторинг виртуальных машин == Переименование объектов == **RENAME aaa TO bbb** Правило для переименования объектов, вы можете определить столько каталогов, сколько элементов вам нужно переименовать. == Исключение объектов == **REJECT aaa** Правило для исключения мониторинга объектов, вы можете определить столько каталогов, сколько элементов вам нужно исключить. === Выполнение плагина === Чтобы запрограммировать его через систему cron, вы можете добавить следующую строку в /etc/crontab: /5 * * * * root "/pandora_opennebula" "/pandora_opennebula.conf"> /dev/null 2>&1 Если вы запустите плагин вручную, результат должен выглядеть следующим образом: [root@valhalla ~]# ./pandora_opennebula pandora_opennebula.conf [root@valhalla ~]# echo $? 0 === Результаты плагина OpenNebula === Список модулей, созданных плагином OpenNebula: Для Hosts: - Available CPU - Available Disk - Available memory - Error reported by OpenNebula - State - Total zombies - VMs running Для устройств хранения данных: - Disk Free % Для виртуальных машин: - Assigned CPU - Assigned Memory - Network RX - Network TX - State - Time running Пример карты архитектуры OpenNebula: {{ :wiki:opennebula_map.png?800 }} ==== IBM HMC ==== Этот //[[https://pandorafms.com/library/ibm-hmc-lpar-monitoring/|плагин]] // позволяет контролировать машины виртуализации IBM AIX через консоль управления оборудованием HMC. Этот //плагин// будет собирать информацию из всех логических разделов, созданных в среде AIX, управляемой системой HMC, создавая агента для каждого управляемого сервера, каждого логического раздела и каждого виртуального сервера IO. Для сбора информации через SSH плагин может использовать три рабочих режима: - Основываясь на expect с использованием el ''script ssh_launcher.sh''. - Основываясь на библиотеке ''Net::SSH::Perl'' - Основываясь на библиотеке ''Net::SSH::Expect'' Чтобы дополнить собранную информацию, будут также сделаны запросы к REST API, по умолчанию в: https://fqdn:12443/rest/api/{root_element} === Требования === Необходимые параметры, которые должны быть предоставлены областью, нуждающейся в мониторинге, следующие: * Имя пользователя для аутентификации в системе HMC (**только чтение**). * Пользователь должен иметь разрешение на подключение к REST API, вход в оболочку HMC и выполнение следующих команд (//минимальные требования//): * **lssyscfg** * **lshwres** * пароль данного пользователя. * Местоположение (FQDN/IP) HMC (например, ''myhmc.mydomain'') * Базовый URL-адрес остального API HMC, например: https://myhmc.mydomain:12443 === Модули, генерируемые плагинами === Параметры, контролируемые плагином, следующие (сгруппированы по типу элемента): * **Current logical partitions** * **Max logical partitions** * **Max memory available** * **Max memory installed** * **Proc pool DefaultPool current proc units** * **Proc pool DefaultPool max proc units** * **Proc pool DevelopmentPool current proc units** * **Proc pool DevelopmentPool max proc units** * **Proc pool ProductionPool current proc units** * **Proc pool ProductionPool max proc units** * **Proc pool TestPool current proc units** * **Proc pool TestPool max proc units** * **Proc pool VIOPool current proc units** * **Proc pool VIOPool max proc units** * **Processor pools configured** * **Processor units available** * **Processor units installed** * **State** * **uuid** * **Virtual proc units max** LPAR: * **Auto start** : Конфигурация автозапуска логического раздела. * **LPAR type** : Тип логического раздела. * **LPAR UUID** : Используется для запроса API HMC. * **Max memory** : Максимальная память. * **Max memory** : Доступная память. * **Processor units available** : Доступные процессорные блоки. * **Processor units current** : Текущие процессорные блоки * **RMC IP address** : IP-адрес RMC. * **RMC state** : Состояние RMC в LPAR * **State** : Статус логического раздела. * **Virtual proc units** : Виртуальные процессорные блоки, назначенные этой системе LPAR. Virtual IO: * **Auto start** : Конфигурация автозапуска логического раздела. * **LPAR type** : Тип логического раздела. * **LPAR UUID** : Используется для запроса API HMC. * **Max memory** : Максимальная память. * **Max memory current** : Доступная память.. * **Processor units available**//: // Доступные процессорные блоки * **Processor units current** : Текущие процессорные блоки * **RMC IP address** : IP-адрес RMC. * **RMC state RMC** : Состояние RMC в LPAR. * **State** : Статус логического раздела. * **Virtual proc units** : Виртуальные процессорные блоки, назначенные этой системе LPAR. === Конфигурация плагина IBM HMC === Доступная конфигурация для плагина Pandora FMS для IBM HMC: == Конфигурация связи с сервером Pandora FMS == **mode** Режим передачи данных, "локальный" или "tentacle". **tentacle_ip** IP-адрес сервера Pandora FMS, применяется только в режиме tentacle. **tentacle_port** Порт, на котором прослушивает служба Tentacle. **tentacle_opts** Любые дополнительные опции, которые вы настроили в службе tentacle. **tentacle_client** Полный маршрут к вашему клиенту Tentacle. **temp** Временный рабочий каталог. **local_folder** Маршрут доставки для режима передачи данных "local". == Конфигурация доступа к HMC == **hmc_host** IP или FQDN для HMC **hmc_user** Пользователь с правом чтения **hmc_pass** Пароль **as_agent_plugin** Выходные данные //плагина// возвращаются в формате XML для запланированного выполнения с помощью Агента Pandora FMS ( ''as_agent_plugin = 1'' ). Или стандартный вывод ('' as_agent_plugin = 0 '' ) для выполнения, запланированного с помощью системного cron или выполняемого как серверный //плагин//. == Конфигурация Агента == **agent_name** Необязательно, введите имя для родительского агента, по умолчанию `hostname` **agent_interval** Интервал агента, по умолчанию 300. **agent_group** Группа Агента по умолчанию IBM == Персонализация Модулей == **module_group** Группа модулей, по умолчанию IBM. **module_interval** Интервал модуля (множитель), по умолчанию 1. **module_tags** Этикетки для модулей == Переименование объектов == Для переименования объектов используется переименование по блокам: rename MyLPAR_NAME TO my new name MyLPAR_NAME2 TO my second new name rename_end