Tabla de Contenidos
Tabla de correspondencia de nombres cortos
Monitorización de entornos Virtuales
Monitorización de entornos virtuales
Los entornos virtuales tienen una gran importancia en las arquitecturas IT de todas las empresas y por ello su monitorización es esencial. Con Pandora FMS Enterprise podrá tener acceso a Amazon EC2, VMware, RHEV, Nutanix, XenServer, OpenNebula, IBM HMC, HPVM.
Amazon EC2
Para monitorizar EC2 en entornos Enterprise, por favor, diríjase a Discovery
Esta guía corresponde al componente OpenSource para la monitorización de EC2.
Esta monitorización específica utiliza el CloudWatch API para monitorizar sus instancias en el servicio Amazon EC2. Necesita tener Cloudwatch habilitado en su instancia. Puede obtener el plugin gratuito en la sección de la librería de módulos.
La idea principal de este plugin de servidor remoto es obtener información de sus instancias utilizando el servidor de plugin de Pandora FMS. Esto significa que necesitará registrar el plugin en el servidor y configurar los diferentes Módulos para que recuperen la información de sus servidores EC2.
Ejemplo de la ejecución utilizando el conector \
>
/home/slerena/ec2_plugin.sh \ -A AKIAILTVCAS26GTKLD4A \ -S CgmQ6DxUWES05txju+alJLoM57acDudHogkLotWk \ -i i_9d0b4af1 \ -n AWS/EC2 \ -m CPUUtilization
Devolverá un valor numérico (porcentaje) de la métrica CPUUtilization
en la instancia i_9d0b4af1
.
Para la instalación necesita:
1. Tener disponible JAVA en su servidor Pandora FMS con su correspondiente directorio JAVAHOME
.
2. Copiar este plugin a una ruta y fijar los permisos en 755, configurar la ruta base en la variable AWS_CLOUDWATCH_HOME
que está presente en las primeras líneas del plugin. Debe editar las primeras líneas del plugin .
El plugin tiene varios ficheros:
/ec2_plugin.sh
- El plugin en sí. /bin/*
- Componentes de Amazon CloudWatch (Monitoring) Command Line Tools, incluidos en este paquete. Estos scripts están distribuidos bajo la Licencia Apache.
Ubique el paquete completo en un directorio accesible por el servidor; por ejemplo:
/usr/share/pandora_server/plugin/ec2
Y fije el AWS_CLOUDWATCH_HOME
en /usr/share/pandora_server/plugin/ec2
.
Para confirmar la instalación ejecute:
/usr/share/pandora_server/plugin/ec2/mon-cmd --version
Debería devolver algo similar a:
Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01)
Si obtiene la misma cadena, entonces ya está listo para utilizar el plugin.
Si no, probablemente necesitará instalar y configurar adecuadamente a continuación las herramientas de línea de comandos del Amazon CloudWatch (monitorización).
Instalación
Requisitos:
- Asegúrese de tener instalada en su sistema la versión de Java 1.5 o superior, ejecute para ello:
java -version
- Descomprima el fichero
.zip
de despliegue. - Fije las siguientes variables de entorno:
AWS_CLOUDWATCH_HOME
- El directorio donde se copiaron los ficheros de despliegue para chequearlos con:
Unix: ls ${AWS_CLOUDWATCH_HOME}/bin (should list mon-list-metrics ...) Windows: dir %AWS_CLOUDWATCH_HOME%\bin (should list mon-list-metrics ...)
JAVA_HOME
- Directorio Home de la instalación de Java.- Añada a la ruta predeterminada (path) lo siguiente:
${AWS_CLOUDWATCH_HOME}/bin
- En Windows:
%AWS_CLOUDWATCH_HOME%\bin
Configuración
Establezca sus credenciales AWS de usuario en la herramienta de línea de comandos. Existen dos maneras para proporcionar las credenciales:
- Las contraseñas AWS.
- Utilizando los certificados X.509.
Utilización de Contraseñas AWS
Puede especificar de manera explícita las credenciales en la línea de comando:
-I ACCESS_KEY --S SECRET_KEY
También puede crear un fichero de credencial. El despliegue incluye un fichero de plantilla:
${AWS_CLOUDWATCH_HOME}/credential-file-path.template.
Debe editar una copia de este fichero para añadir su información. En UNIX también pasa por limitar los permisos para el propietario del fichero de credenciales ( credential-file
):
$ chmod 600 <credential-file>.
Una vez creado el archivo, referencie así:
- Fije la siguiente variable de entorno al mismo:
export AWS_CREDENTIAL_FILE=<credential-file>
- También puede proporcionar la siguiente opción con cada comando:
- -aws-credential-file <credential-file>
Utilización de certificados X.509
Grabe el certificado y contraseña privadas en los ficheros: my_cert.pem
y my-pk.pem
.
Existen dos modos de proporcionar la información certificada a la línea de comandos:
- Fije las siguientes variables de entorno:
EC2_CERT=/path/to/cert/file EC2_PRIVATE_KEY=/path/to/key/file
- Especifique los ficheros directamente en la línea de comandos para todos los comandos:
<command> \ --ec2-cert-file-path=/path/to/cert/file \ --ec2-private-key-file-path=/path/to/key/file
Instalación de las propiedades de JVM
Al fijar la variable de entorno SERVICE_JVM_ARGS
, podrá pasar arbitrariamente las propiedades JVM a la línea de comando.
Por ejemplo, la siguiente línea fija las propiedades en Linux/UNIX
export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"
Puesta en marcha
Compruebe que su instalación funcione correctamente ejecutando el siguiente comando:
$ mon-cmd --help
Debería ver la página de uso para todos los comandos de monitorización.
$ mon-list-metrics --headers
Debería ver también una línea de cabecera. Si tiene alguna métrica definida, debería aparecer también.
VMware
Con Pandora FMS Enterprise podrá tener acceso a VMware Monitoring Plugin, un plugin que permite tener bajo control la arquitectura virtual VMware de forma sencilla.
Arquitectura VMware a monitorizar
Con este sistema se pueden monitorizar arquitecturas como las que se muestran en el siguiente esquema:
Pandora FMS puede monitorizar VCenter, servidores ESXi, y los componentes que virtualizan: Datastores y Máquinas Virtuales. Pandora FMS se apoya en el API que proporciona el SDK de VMware® para Perl para la recolección de datos.
Monitorización con Discovery Application VMware
Siga los pasos descritos en Discovery para monitorizar su infraestructura VMware®.
Requisitos del plugin VMware
Los requisitos para el funcionamiento de la tarea de monitorización de VMware® son los siguientes:
- Pandora FMS v7.0NG.732 o superior.
- VMware vSphere® SDK para lenguaje Perl.
Configuración del vCenter para la monitorización
Discovery Applications VMware hace uso de las métricas que proporciona la API de los vCenter® y ESXi VMware®. La disponibilidad de estas métricas depende de los niveles configurados para recolección de estadísticas.
Estos niveles se pueden cambiar en el menú vCenter Server Settings y en la opción Statistics. Para cada opción de tiempo y cada nivel obtendrá la descripción de los contadores que recolecta el vCenter. El nivel mínimo para monitorizar con el plugin de Pandora FMS es el Nivel 2.
Dependiendo de la configuración del vCenter, es posible que algunos módulos no reporten datos en Pandora FMS. Esto puede ser porque:
- Falte instalar algún plugin en el vCenter.
- Sea necesario instalar un agente VMware® (vmware-tools) en la entidad.
- Simplemente porque la entidad esté apagada (máquina virtual o ESXi).
Para solucionar estos problemas deberá consultar la documentación de VMware.
Algunas soluciones, como por ejemplo, la monitorización del estado del hardware (Hardware Status), podrían requerir una configuración avanzada tanto del vCenter como de los host que soportan los ESX.
Despliegue de la monitorización de VMware
A partir de la versión 732 de Pandora FMS, la monitorización de VMware se realiza utilizando el sistema Discovery Applications (más información en Discovery VMware).
Si por algún motivo en particular se desea configurar manualmente el plugin fuera de esta funcionalidad, puede utilizar el modo clásico descrito a continuación.
Si requiere desplegar o actualizar su versión del plugin de VMware® por una más reciente, por favor siga los pasos descritos en los puntos siguientes:
Despliegue manual del plugin
1.- Acceda al directorio en el que se han extraído los ficheros del plugin VMWare®.
2.- Copie vmware-plugin.{pl,conf}
al directorio correspondiente.
sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/ sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} sudo chmod g+w /usr/share/pandora_server/util/plugin/vmware-plugin.conf
3.- Verifique los datos necesarios para configurar el plugin y utilizar la API de Pandora FMS.
En el menú "Configuración" de la consola de Pandora FMS asigne una contraseña a la API, así como la lista con las direcciones IP permitidas.
4.- Edite el fichero de configuración vmware-plugin.conf
.
5.- Verifique la disponibilidad de VMware® SDK para Perl.
Puede lanzar un script con el siguiente contenido para validar su instalación de VMware® SDK Perl
#!/usr/bin/perl use strict; use warnings; use VMware::VIRuntime; print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";
Ejecute el script:
perl check_vmware.pl
La salida debe ser similar a la siguiente:
VMware SDK Version: 6.5.0
Verifique que la versión del SDK es mayor o igual que la versión de sus productos VMware®.
A partir de la versión 717 del plugin para VMware® también necesitará instalar la librería Perl PluginTools.pm, (disponible junto con el servidor en /usr/lib/perl5/PandoraFMS
) en el equipo donde quiera desplegarlo (copiar a /usr/lib/perl5/PandoraFMS
en el equipo que vaya a ejecutar el plugin).
Instalación de VMware vSphere SDK para Perl
La URL del centro de descargas para el software VMware® requerido es:
https://my.vmware.com/web/vmware/details?downloadGroup=VS-PERL-SDK65&productId=614
Instalación SDK Linux para CentOS 7
Las versiones del SDK probadas con este proceso de instalación han sido la 4.1, 5.1, 6.0 y 6.5 .
Siempre se recomienda utilizar la versión SDK con su correspondiente versión de software VMware®. Por ejemplo, se recomienda utilizar el software 4.1 VMware® con la versión 4.1 del SDK.
Primero descomprima el SDK con el siguiente comando:
# tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz
Ahora compile e instale el SDK con los siguientes comandos:
# perl Makefile.PL # make # make install
Si la instalación fue correcta y no se mostró ningún error podrá conectar con el vCenter® con el siguiente comando, en este ejemplo se usa el conector de líneas \
:
# /usr/lib/vmware-viperl/apps/general/connect.pl \ --server <vcenter_ip> \ --username <vcenter_user> \ --password <vcenter_pass>
La respuesta debería ser similar a la que aparece a continuación:
Connection Successful Server Time : 2013-02-21T16:24:05.213672Z
Actualización SDK a 6.5 desde otras versiones
Si está realizando una actualización del SDK de VMware®, siga los siguientes pasos:
- Instale las herramientas para desarrolladores:
yum groupinstall "Developer Tools"
- Instale CPAN:
yum install perl-CPAN
- Instalar algunas dependencias:
yum install openssl-devel perl-Class-MethodMaker yum install epel-release
- Descomprimir los archivos de instalación de VMware® SDK Perl:
tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz
- Acceda al directorio:
cd vmware-vsphere-cli-distrib
- Lance el instalador:
./vmware-install.pl
Durante la instalación:
- Acepte la licencia.
- Indique no utilizar los módulos preconstruidos para VMware® SDK.
- Acepte la instalación automática de los módulos a través del sistema automatizado por CPAN.
- Verifique que todos los requisitos se han instalado correctamente.
- Indique el directorio donde se deberán instalar los módulos de VMware® SDK Perl
En algunas ocasiones el paquete Perl UUID puede generar errores al instalarse en CentOS 7. Realice los pasos siguientes para agregar el componente:
- Instale las dependencias necesarias para UUID-0.03:
yum install libuuid-devel perl-JSON-PP
- Descargue el paquete de código:
wget https://cpan.metacpan.org/authors/id/C/CF/CFABER/UUID-0.03.tar.gz
- Descomprima el fichero y acceda al directorio:
tar xvzf UUID-0.03.tar.gz cd UUID-0.03
- Genere los archivos necesarios para la compilación del módulo Perl:
perl Makefile.PL
- Compile el módulo Perl:
make
- Deberá recibir una respuesta similar a:
Manifying blib/man3/UUID.3pm
- Instale el nuevo módulo compilado:
make install
Una vez instalados los módulos pendientes vuelva a ejecutar el proceso de instalación de VMware® SDK Perl:
./vmware-install.pl
El desinstalador de VMware® no elimina completamente las librerías de módulos VMware® previas.
Verifique que las librerías se han instalado correctamente en:
/usr/lib/vmware-vcli/VMware/share/
antes de continuar.
Debe realizar los siguientes pasos manualmente:
- Limpiar librerías antiguas.
rm -rf /usr/share/perl5/vendor_perl/VMware rm -rf /usr/share/perl5/VMware
- Agregar las nuevas librerías VMware®
cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/
Una vez hecho esto puede lanzar un script con el siguiente contenido para validar su instalación de VMware® SDK Perl
#!/usr/bin/perl use strict; use warnings; use VMware::VIRuntime; print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";
Ejecute el script:
perl check_vmware.pl
La salida debe ser la siguiente:
VMware SDK Version: 6.5.0
Si la salida es diferente, por favor verifique que ha seguido todos los pasos correctamente o póngase en contacto con soporte en https://support.pandorafms.com/integria/
Las dependencias SDK para CentOS 7 son:
gdbm-devel glibc-devel glibc-headers kernel-headers libdb-devel libuuid-devel make openssl perl-Business-ISBN perl-Business-ISBN-Data perl-Class-Inspector perl-Class-MethodMaker perl-Convert-BinHex perl-Crypt-SSLeay perl-Digest perl-Digest-MD5 perl-Email-Date-Format perl-Encode-Locale perl-ExtUtils-Install perl-ExtUtils-MakeMaker perl-ExtUtils-Manifest perl-ExtUtils-ParseXS perl-File-Listing perl-HTML-Parser perl-HTML-Tagset perl-HTTP-Cookies perl-HTTP-Daemon perl-HTTP-Date perl-HTTP-Message perl-HTTP-Negotiate perl-IO-HTML perl-IO-SessionData perl-IO-Socket-IP perl-IO-Socket-SSL perl-JSON-PP perl-LWP-MediaTypes perl-LWP-Protocol-https perl-MIME-Lite perl-MIME-Types perl-MIME-tools perl-MailTools perl-Mozilla-CA perl-Net-HTTP perl-Net-LibIDN perl-Net-SMTP-SSL perl-Net-SSLeay perl-SOAP-Lite perl-Test-Harness perl-TimeDate perl-URI perl-WWW-RobotRules perl-XML-LibXML perl-XML-NamespaceSupport perl-XML-Parser perl-XML-SAX perl-XML-SAX-Base perl-devel perl-libwww-perl pyparsing systemtap-sdt-devel glibc glibc-common libblkid libmount libsmartcols libuuid util-linux
Puede instalar las dependencias extras para plugin con el siguiente comando:
yum install perl-Archive-Zip perl-JSON
Puede instalar las dependencias de cifrado de contraseña con el siguiente comando:
yum install openssl-devel perl-Crypt-CBC perl-Digest-SHA
También puede descargar los RMPs personalizados de perl-Crypt-OpenSSL-AES desde el repositorio de Artica:
- Para CentOS 7.
yum install https://sourceforge.net/projects/pandora/files/Tools%20and%20dependencies%20%28All%20versions%29/RPM%20CentOS%2C%20RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el7.x86_64.rpm
Instalación SDK Linux para Ubuntu 22
La versión del SDK probada con este proceso de instalación es la versión 7.
Siempre se recomienda utilizar la versión SDK con su correspondiente versión de software VMware®. Por ejemplo, se recomienda utilizar el software 7 VMware® con la versión 7 del SDK.
Instale las dependencias:
apt update apt-get install -y lib32z1 build-essential uuid \ uuid-dev libssl-dev perl-doc libxml-libxml-perl \ libcrypt-ssleay-perl libsoap-lite-perl libmodule-build-perl
Descargue desde nuestro repositorio:
wget https://firefly.artica.es/pandorafms/utils/VMware-vSphere-Perl-SDK-7.0.0-16453907.x86_64.tar.gz
Descomprima e instale:
tar xvzf VMware-vSphere-Perl-SDK-7.0.0-16453907.x86_64.tar.gz cd vmware-vsphere-cli-distrib/ sed --follow-symlinks -i -e "s/[^#].*show_EULA().*/ #show_EULA();/g" vmware-install.pl ./vmware-install.pl --default cpan Crypt::OpenSSL::AES
Instalación SDK sobre Windows
La versión de PERL que se distribuye con el vSphere® SDK no funciona con las librerías de VMware® para PERL. Para solucionar este problema siga los siguientes pasos:
- Instale el VMware vSphere® SDK.
- Instale Strawberry PERL versión 5.12 de http://strawberryperl.com/releases.html.
- Copie el directorio:
%ProgramFiles%\VMware\VMware vSphere CLI\Perl\lib\VMware
a
C:\strawberry\perl\lib
- Desinstale el VMware vSphere® SDK.
Configuración del plugin VMware
Puede configurar el plugin de VMware® manualmente o utilizando la extensión para consola disponible junto con los archivos descargables del plugin de VMware®.
Configurando el plugin manualmente
Se recomienda utilizar la extensión disponible en la Consola de Pandora FMS para administrar las múltiples configuraciones del plugin de VMware®.
Puede editar manualmente el fichero de configuración; recuerde que las líneas que empiezan por #
serán interpretadas como comentarios.
De manera predeterminada la extensión de VMware® descubre todas las entidades y añade los chequeos por defecto. Mediante el archivo de configuración podrá configurar la monitorización y escoger qué variables desea monitorizar.
El archivo de configuración contiene toda la información necesaria para realizar la monitorización, agrupada en las siguientes secciones:
Todos los errores relativos al archivo de configuración son presentados en el log de errores del servidor de Pandora FMS y además en el visor de eventos de la Consola de Pandora FMS. Por ello, podrá ver si existe cualquier error con el archivo de configuración consultando cualquiera de estas dos fuentes.
Configuración global
La configuración general está definida por el token Configuration y contiene los siguientes parámetros:
- server
FQDN o dirección IP del servidor VMware® a monitorizar.
- datacenter
Nombre del datacenter (por defecto: ha-datacenter
).
- user
Usuario con permisos de lectura en vCenter®.
- pass
Contraseña del usuario en vCenter®.
- group
Grupo de destino de los agentes generados por el plugin, por ejemplo “Servers” o “Workstations”.
- use_encrypted_password
Utilize contraseñas cifradas, use el comando:
perl vmware-plugin.pl --generate_password
Para crearlo, debe agregar token para pasar la contraseña generada; agregue en el fichero de configuración:
use_encrypted_password 1
- interval
Intervalo en segundos de los Agentes y Módulos que se generarán (ajustar conforme a la frecuencia de ejecución del plugin).
- threads
Número máximo de hilos a utilizar (por defecto 1
, recomendado 4
).
- recon_interval
Intervalo en segundos tras el que se autoeliminará el fichero temporal de caché de entidades para reexplorar la infraestructura VMware® .
- virtual_network_monitoring
Incluir la monitorización de switches virtuales ( 1
) o no ( 0
).
- logfile
Ruta y nombre del archivo para registrar datos, por defecto /tmp/vmware_plugin.log
- entities_list
Archivo de entidades a monitorizar, por defecto /tmp/vmware_entitites_list.txt
. Véase también escaneo de entidades.
- event_pointer_file
Archivo de índices auxiliar para eventos VMware, por defecto /tmp/vmware_events_pointer.txt
.
- temporal
Directorio de trabajo temporal, por defecto: /tmp
.
- transfer_mode
Modo de transferencia de XML a Pandora FMS, puede ser tentacle o local (por defecto local):
- tentacle: Envía los archivos XML al servidor de Pandora FMS usando el protocolo Tentacle.
- local: Copia los archivos a una carpeta local; el Agente debe ejecutarse en la misma máquina donde se encuentra la carpeta local.
- tentacle_client
Para utilizar Tentacle como herramienta de transferencia se debe configurar como cliente: tentacle_client tentacle_client
.
- tentacle_ip
Dirección del servidor de Pandora FMS, por defecto 127.0.0.1
.
- tentacle_port
Puerto para comunicaciones Tentacle, por defecto 41121
.
- tentacle_opts
Opciones extra para Tentacle remoto. Por defecto ninguna opción extra.
- local_folder
En transferencia local, carpeta de destino para los XML de informe /var/spool/pandora/data_in
.
- pandora_url
Dirección web de la consola de Pandora FMS, por defecto:
http://127.0.0.1/pandora_console
- api_pass
Contraseña de la API de la Consola de Pandora FMS.
- api_user
Usuario con acceso a la API de Pandora FMS.
- api_user_pass
Contraseña del usuario con acceso a la API de Pandora FMS.
- retry_send
Reintentar ( 1
) o no ( 0
) el envío de XML en caso de error (similar a buffer_xml
).
- event_mode
Recuperar información ( 1
) de eventos de VMware® o no ( 0
).
- verbosity
Nivel de debug o depurado de procesos (recomendado 1
).
- virtual_network_monitoring
Habilita ( 1
) o deshabilita ( 0
) la monitorización de switches virtuales (estándar).
- use_ds_alias_as_name
Habilita ( 1
) o deshabilita ( 0
) el uso de un alias como nombre de Agente en agentes de almacenamiento de datos.
Server
, datacenter
, user
, pass
e interval
pueden ser ajustados desde la consola de Pandora PFMS.
Si está usando Pandora FMS 5.0 o una versión superior y desea usar las extensiones del plugin o la monitorización de eventos, deberá configurar correctamente el API de Pandora FMS. Para ello deberá añadir una contraseña del API y dar acceso a las direcciones pertinentes en la lista de acceso al API. Estos campos se definen en la configuración general de la Consola de Pandora FMS.
El usuario que utilizará junto a la contraseña de la API debe tener permisos de lectura y escritura a fin de grabar los eventos. Además recuerde incluir los Agentes Datacenter en el plan de monitorización ya que los eventos para la Consola se originan en estos Agentes.
Un ejemplo de esta sección en el archivo de configuración podría ser la siguiente:
Configuration server 192.168.70.249 user Administrator pass S1stemas datacenter artica temporal /tmp logfile /tmp/vmware_plugin.log entities_list /tmp/vmware_entities_list.txt transfer_mode tentacle tentacle_ip 192.168.70.81 tentacle_port 41121 tentacle_opts local_folder /var/spool/pandora/data_in pandora_url http://192.168.70.81/pandora_console api_pass 1234 api_user admin api_user_pass pandora event_mode 0 event_pointer_file /tmp/vmware_events_pointer.txt
Si está usando el plugin en sistemas MS Windows® será necesario cambiar todas las rutas de los archivos por rutas compatibles con Windows®.
Escaneo de entidades
Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.
Debido al tamaño de las infraestructuras VMware® que caracteriza a los clientes Enterprise, un escaneo general de todas las entidades disponibles en cada ejecución podría desencadenar problemas de rendimiento.
Para evitar esta situación, el plugin de monitorización de VMware® dispone del archivo de entidades ( entities_list
) donde almacena la lista de entidades escaneadas en la primera ejecución.
Siempre que este archivo exista, la monitorización se limitará a las entidades indicadas en él.
Si necesita un escaneo periódico de su infraestructura VMware®, puede eliminar este fichero cada cierto tiempo (por ejemplo, cada hora) usando el cron de sistema.
Renombrado de entidades
Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.
El renombrado de entidades se realiza usando el token RENAME y permite cambiar el nombre a las entidades descubiertas por el plugin. Usando esta funcionalidad los Agentes creados en Pandora FMS aparecerán con el nuevo nombre asignado. La estructura de esta sección es la siguiente:
<nombre actual> TO <nombre nuevo>
Un ejemplo de configuración de esta sección podría ser el siguiente:
#Rename entities Rename Debian 11 TO Virtual Machine 1 RedHat 12 TO Web server ESX Workstation TO Host Work Sales
Descarte de entidades
Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.
El plugin permite realizar un descarte de entidades por tipo o de forma individual; a continuación se explican ambas opciones.
El descarte de tipos de entidades se realiza usando el token REJECT. En esta sección podrá descartar las entidades según su tipo; por ejemplo todas las máquinas virtuales o todos los hosts ESX. Los posibles valores que puede tomar esta sección son los siguientes:
all_datastore
all_datacenter
all_esx
all_vm
all_ipaddresses
Una configuración de esta sección que descarta todas las entidades sería la siguiente:
#Dismissed entities Reject all_datastore all_datacenter all_esx all_vm
Para realizar un descarte de entidades de forma individual será necesario borrarlas del archivo de entidades creado por el plugin. El plugin crea este archivo en la ubicación indicada en el parámetro entities_list
(por defecto /tmp/vmware_entities_list.txt
). El plugin rellena el contenido de este archivo con la primera ejecución, o siempre que no exista, creando una lista con todas las entidades descubiertas.
Un ejemplo de archivo podría ser el siguiente:
Datacenter artica Datastore datastore_1 datastore2 ESX 192.168.70.252 VM Pandora FMS 4.0.3 Debian2 Debian3 Debian4 Redhat debian5 Debian6 Debian8 Debian7 Debian11 Debian10 Debian9 NSM Pandora vcenter suse11.2
El archivo de configuración se divide en varios tokens: Datacenter, Datastore, ESX y VM, donde se listan las diferentes entidades. Una vez que esté creado el archivo de configuración, el plugin leerá de este archivo las entidades a monitorizar. Para descartar una entidad solo tiene que borrarla de este fichero. Si, por ejemplo, no se necesita monitorizar las entidades: Debian2, datastore2, NSM, suse11.2 y 192.168.70.252, el archivo de configuración quedaría así:
Datacenter artica Datastore datastore_1 ESX VM Pandora FMS 4.0.3 Debian3 Debian4 Redhat debian5 Debian6 Debian8 Debian7 Debian11 Debian10 Debian9 Pandora vcenter
Esta funcionalidad permite realizar una distribución de la carga de monitorización limitando el número de entidades monitorizadas en cada ejecución del plugin. Más adelante se explican varias técnicas de distribución de carga.
La sección Reject, del plugin de monitorización de entornos VMware® contiene, además, la siguiente opción:
all_ipaddresses
Si esta instrucción está presente, la dirección IP en el XML no será actualizada. Lo que significa que si se habilita esta opción el plugin/tarea de Discovery de VMware no actualizará el campo ip address de los agentes. Esta instrucción también es válida para las tareas de reconocimiento del Discovery sobre VMware®.
Configuración de monitorización
Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.
Las siguientes secciones del archivo configuran los Módulos creados para cada tipo de entidad. Las secciones usan los tokens Datacenter, Datastore, ESX, VM. En estas secciones podrá habilitar/deshabilitar los Módulos a monitorizar. En el siguiente ejemplo hemos realizamos una configuración seleccionando los módulos que deseamos crear para los ESX y máquinas virtuales:
... #ESX Modules ESX cpuUsagePercent disabled diskRead enabled diskWrite enabled #VM Modules VM diskReadLatency disabled diskWriteLatency disabled diskRate enabled ...
Cada línea de configuración se corresponde con un Módulo. En el ejemplo anterior los Módulos serán creados con los valores por defecto, pero es posible configurar el nombre, la descripción y los límites para los estados de Advertencia y de Crítico del Módulo. Un ejemplo de esta configuración podría ser la siguiente:
... #VM Modules ESX diskReadLatency disabled diskWriteLatency disabled diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4 ...
Las opciones disponibles para la configuración de Módulos son las siguientes:
- <modulo> disabled: El módulo NO se creará.
- <modulo> enabled: El módulo SI se creará (con los valores por defecto).
- <modulo> name = <nombre>; desc = <descripcion>; limits_warn <lim_warn>; limits_crit <lim_crit» El Módulo se creará con el nombre y la descripción proporcionados y además se definirán los umbrales para los máximos y mínimos de los estados de Advertencia y Crítico.
Es muy importante tener en cuenta la estructura de las líneas del archivo de configuración y sobre todo comprobar que el carácter ;
va pegado al nombre y la descripción del Módulo. Estas dos líneas NO SON EQUIVALENTES (véanse los espacios antes del carácter ; ):
diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4 diskRate name = Tasa Disco ; desc = Tasa Lec/Esc disco ; limits_warn = 5 10; limits_crit = 0 4
Los módulos están referenciados por su nombre corto, un nombre equivalente más sencillo de escribir en la línea de comandos. La tabla de correspondencia de nombres cortos y expandidos se encuentran en la siguiente sección.
Analice la configuración de ejemplo anterior. Se ha configurado el módulo Disk Rate que se creará con los siguientes valores:
* Nombre: Tasa Disco * Descripción: Tasa Lec/Esc disco * Min Warning: 5 * Max Warning: 10 * Min Critical: 0 * Max Critical: 4
Hay módulos que se generan de forma dinámica, por ejemplo los relativos a discos o interfaces de red. Para estas métricas el plugin crea un Módulo por cada elemento descubierto. Estos Módulos suelen tener nombres especiales en Pandora FMS, por ejemplo:
Disk Free [0] Disk Free [1] Disk Free [2] ...
En estos casos, como el nombre tiene parte dinámica se permite el uso de la macro %s
que será sustituida por la parte variable del nombre del Módulo. Un ejemplo de configuración de módulos dinámicos sería el siguiente:
diskFree name = Disk (%s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0
En este caso el nombre del módulo por defecto es:
Disk Free [0]
Y pasará a llamarse:
Disk (0) free space
También es posible configurar cadenas de texto para los límites de los estados Advertencia y Crítico de los Módulos. La configuración sería parecida a la siguiente:
powerState name = Estado funcionamiento; desc = Estado funcionamiento VM; limits_warn = .*suspended.*; limits_crit = .*poweredOff.*
Es posible configurar expresiones regulares para dotar de mayor flexibilidad al establecimiento de los límites.
Configurando la monitorización VMware
Siga los pasos descritos en VMware Discovery para configurar la monitorización de su infraestructura VMware® a través de Discovery.
Ejecución del plugin VMware
Para comprobar el funcionamiento de su configuración puede ejecutar:
perl \ /usr/share/pandora_server/util/plugin/vmware-plugin.pl \ /usr/share/pandora_server/util/plugin/vmware-plugin.conf
Nota:
- Para VMware SDK 6.5.0, si recibiera la siguiente salida durante la ejecución del plugin:
Server version unavailable at 'https://your_vmwre_fqdn:443/sdk/vimService.wsdl' at /usr/local/lib64/perl5/VMware/VICommon.pm line 734.
La solución recomendada es ajustar las versiones de las librerías LWP de Perl:
cpan install GAAS/libwww-perl-5.837.tar.gz
Se recomienda encarecidamente el utilizar Discovery Applications VMware para monitorizar su infraestructura.
Programar la ejecución desde el Agente de Pandora FMS
Para utilizar el Agente de Pandora FMS debe copiar vmware-plugin.{pl,conf}
en un punto accesible por el Agente de Pandora FMS:
sudo cp \ /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} \ /etc/pandora/plugins/
Para crear un fichero de configuración
vmware-plugin-events.conf
copie vmware-plugin.conf
y modifique manualmente event_mode
a 1.
Ahora debe añadir un nuevo Módulo de tipo plugin al archivo de configuración del Agente con la siguiente línea:
module_plugin perl \ /etc/pandora/plugins/vmware-plugin.pl \ /etc/pandora/plugins/vmware-plugin.conf
Si además desea realizar la copia de los eventos, debe crear otro Módulo plugin con un archivo de configuración diferente que habilite la copia de eventos. La sintaxis es la siguiente:
module_plugin perl \ /etc/pandora/plugins/vmware-plugin.pl \ /etc/pandora/plugins/vmware-plugin-events.conf
En sistemas Windows® es necesario especificar el intérprete usado:
module_plugin perl "%ProgramFiles%\pandora_agent\util\vmware-plugin.pl" "%ProgramFiles%\pandora_agent\util\vmware-plugin.conf"
En las siguientes secciones se explica en detalle los parámetros del archivo de configuración del plugin.
El plugin de VMware puede requerir mucho tiempo de ejecución debido al número de entidades registradas.
Recomendamos la monitorización a través de Discovery para que sea el propio DiscoveryServer quien se encargue de estas tareas.
Si decide monitorizarlo de otra manera, podría ser necesario distribuir la carga entre varios Agentes Software de Pandora FMS o elegir otro modo de programación. Toda la información al respecto está en las siguientes secciones
Programar la ejecución desde el cron de sistema
Puede programar la ejecución del plugin desde el propio cron de sistema. Recuerde que el valor de intervalo de los elementos generados ( interval
en la configuración) y la periodicidad de ejecución deben ser coherentes:
# Input to add to crontab, set a range of 600 to use this setting/10 * * * * root perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf
El ejemplo anterior ilustra la línea a agregar a crontab. Configure un intervalo de 600 para utilizar esta configuración
Monitorización de la arquitectura virtual VMware
Para ver el resultado de la ejecución del plugin acceda al submenú Agent Detail, dentro del menú Views.
En esta vista aparecerán los Agentes creados por el plugin junto con los demás Agentes de Pandora FMS.
Si pulsa en el nombre de un Agente verá la vista de Agente de Pandora FMS, donde aparecerán los Módulos monitorizados por el plugin VMware®.
Por defecto, el plugin despliega una monitorización básica para cada uno de los elementos VMware®.
Monitorización por defecto para Datacenter
- Ping
- Check 443 port
Monitorización por defecto para Datastore
- Capacity
- Free Space
- Disk Overallocation
- Free Space Bytes
Monitorización por defecto defecto para ESXi
- CPU Usage
- Memory Usage
- Data received
- Data transmitted
- Disk Read Latency
- Disk Write Latency
- Host Alive
- Disk Rate
- Net Usage
Monitorización por defecto para máquinas virtuales
- CPU Usage
- Memory Usage
- Tools Running Status
- Host Alive
- Disk Free
- Disk Read Latency
- Disk Write Latency
- Data received
- Data transmitted
- Net Usage
En la siguiente sección se explican con detalle todos los Módulos disponibles y la información que reporta cada uno de ellos.
Módulos de agentes de la arquitectura virtual VMware
Algunos Módulos podrían no estar disponibles, dependiendo de la versión de VMware® y de la configuración del entorno. En las siguientes tablas se describen los diferentes módulos disponibles y sus características de disponibilidad.
El plugin permite configurar Performance Counters personalizados para los hosts ESX y máquinas virtuales. Podrá ver cómo hacerlo en la sección que detalla el contenido del archivo de configuración.
Módulos para agentes del tipo Datacenter
Módulo | Descripción | Versión API | Disponibilidad |
---|---|---|---|
Ping | Chequeo ping a la máquina que soporta el vCenter | Todas | Siempre |
Check 443 port | Chequeo al puerto 443 de la máquina que soporta el vCenter | Todas | Siempre |
Módulos para agentes del tipo Datastore
Módulo | Descripción | Versión API | Disponibilidad |
---|---|---|---|
Capacity | Capacidad máxima del Datastore en bytes | Todas | Siempre |
Free Space | Porcentaje de espacio libre del Datastore | Todas | Siempre |
Disk Overallocation | Porcentaje de sobre asignación del disco | ≥v4.0 | Siempre |
Free Space Bytes | Cantidad de espacio libre en bytes | Todas | Siempre |
Módulos para agentes del tipo host ESXi
Módulo | Descripción | Versión API | Disponibilidad |
---|---|---|---|
Boot Time | Última fecha en la que se encendió el host | Todas | Siempre |
CPU Info [x] | Información general de la CPU (se crea un módulo por CPU del ESXi) | Todas | Si conectado |
Memory Size | Cantidad total de memoria física del host en Bytes | Todas | Si conectado |
Overall CPU Usage | Suma del uso de todas las CPUs en Mhz | Todas | Si conectado |
Overall Memory Usage | Overall Memory Usage of VMware Hosts | Todas | Si conectado |
Power State | Estado de la energía del host | ≥v2.5 | Siempre |
SSL Thumbprint | Huella SSL del host | ≥v4.0 | Si configurado |
Uptime | Uptime del host en segundos | ≥v4.1 | Si conectado |
VNIC Info [x] | Información sobre interfaces de red virtuales del host | Todas | Si conectado y configurado |
Host Alive | Módulo que vale 1 si el ESX está conectada y 0 en caso contrario | Todas | Siempre |
Connection State | Estado de la conexión del host | Todas | Siempre |
Disk Read | Tasa de Kbps leídos del disco | Todas | Nivel stats ≥2 |
Disk Write | Tasa de Kbps escritos del disco | Todas | Nivel stats ≥2 |
Disk Read Latency | Latencia de lectura del disco en milisegundos | Todas | Nivel stats ≥2 |
Disk Write Latency | Latencia de escritura del disco en milisegundos | Todas | Nivel stats ≥2 |
Data received | Tasa de Kbps recibidos del host | Todas | Nivel stats ≥2 |
Data transmitted | Tasa de Kbps enviados del host | Todas | Nivel stats ≥2 |
Packages Received | Número de paquetes recibidos en el intervalo | Todas | Nivel stats ≥2 |
Packages Transmitted | Número de paquetes enviados en el intervalo | Todas | Nivel stats ≥2 |
CPU Usage | Porcentaje de uso de CPU | Todas | Nivel stats ≥2 |
Memory Usage | Porcentaje de uso de la memoria RAM | Todas | Nivel stats ≥2 |
Net Usage | Datos de red recibidos y enviados de todas las NICs | Todas | Nivel stats ≥2 |
Disk Rate | Tasa I/O agredada en KB/seg | Todas | Nivel stats ≥2 |
Max. Disk Latency | Latencia máxima de todos los discos | Todas | Nivel stats ≥2 |
HA Status | Estado HA del host | ≥v5.0 | Si configurado |
Sensor* | Estado de los sensores de hardware (un módulo por sensor) | Todas | ESXi >= 3.5 |
Módulos para Agentes del tipo máquina virtual
Estos Módulos ofrecen la información desde el punto de vista de la arquitectura VMware®. Si se desea monitorizar otros parámetros relativos a la máquina virtual se deberían considerar otras opciones como la Monitorización con Agentes Software o la Monitorización remota
Módulo | Descripción | Versión API | Disponibilidad |
---|---|---|---|
Boot Time | Última fecha en la que se encendió la máquina virtual | Todas | Si conectado |
Connection State | Estado de la conexión | Todas | Siempre |
Consumed Overhead Memory | Cantidad de memoria consumida por la máquina virtual en MB | ≥v4.0 | Si configurado |
CPU Allocation | Información sobre los recursos asignados a la CPU de la máquina virtual | Todas | Si configurado |
Disk Free [x] | Porcentaje libre del disco de la máquina virtual. (Habrá un módulo por cada disco que contenga la máquina virtual) | Todas | Si configurado |
Guest State | Modo de operación del sistema operativo huésped | Todas | Si configurado |
Host Info | Información sobre el host VMware | Todas | Si configurado |
Host Alive | Módulo que vale 1 si la máquina virtual está en ejecución y 0 en caso contrario | Todas | Siempre |
Host Memory Usage | Memoria consumida por la máquina virtual en MB | Todas | Si conectado |
Host Name | Nombre del host asociado | Todas | Si configurado |
IP Address [x] | Dirección IP de la máquina. (Aparecerá una por interfaz de red disponible) | ≥v4.1 | Si configurado |
MAC Address [x] | Dirección MAC de la máquina. (Aparecerá una por interfaz de red disponible) | Todas | Si configurado |
Max CPU Usage | Límite superior de uso de la CPU de la máquina virtual | Todas | Si conectado |
Max Memory Usage | Límite superior de uso de la memoria RAM de la máquina virtual | Todas | Si conectado |
Memory Allocation | Límite de los recursos para la memoria | Todas | Si configurado |
Memory Overhead | Cantidad de memoria usada por la máquina virtual por encima de las necesidades del sistema operativo huésped en Bytes | Todas | Si configurado |
Overall CPU Demand | Estadísticas básicas sobre el rendimiento de la CPU en Mhz | ≥v4.0 | Si conectado |
Overall CPU Usage | Estadísticas básicas sobre el uso de la CPU en Mhz | Todas | Si conectado |
Power State | Estado actual de la máquina virtual | Todas | Siempre |
Private Memory | Cantidad de memoria en MB que se otorga a la máquina virtual de la memoria no compartida | ≥v4.0 | Si conectado |
Shared Memory | Cantidad de memoria en MB que se otorga a la máquina virtual de la memoria compartida | ≥v4.0 | Si conectado |
Tools Running Status | Estado actual de ejecución de VMware Tools instaladas en el sistema operativo huésped | ≥v4.0 | Si configurado |
Trigger Alarm State | Estado de las alarmas de VMware | Todas | Si configurado |
Uptime Seconds | Uptime de la máquina virtual en segundos | ≥v4.1 | Si conectado |
Virtual Image Path | Ruta del archivo de configuración de la máquina virtual (.vmx) | Todas | Siempre |
Disk Read | Tasa de Kbps leidos del disco | Todas | Nivel stats ≥2 |
Disk Write | Tasa de Kbps escritos del disco | Todas | Nivel stats ≥2 |
Disk Read Latency | Latencia de lectura del disco en milisegundos | Todas | Nivel stats ≥2 |
Disk Write Latency | Latencia de escritura del disco en milisegundos | Todas | Nivel stats ≥2 |
Data received | Tasa de Kbps recibidos del host | Todas | Nivel stats ≥2 |
Data transmitted | Tasa de Kbps enviados del host | Todas | Nivel stats ≥2 |
Packages Received | Número de paquetes recibidos en el intervalo | Todas | Nivel stats ≥2 |
Packages Transmitted | Número de paquetes enviados en el intervalo | Todas | Nivel stats ≥2 |
CPU Usage | Porcentaje de uso de CPU | Todas | Nivel stats ≥2 |
Memory Usage | Porcentaje de uso de la memoria RAM | Todas | Nivel stats ≥2 |
Net Usage | Datos de red recibidos y enviados de todas las NICs | Todas | Nivel stats ≥2 |
Disk Rate | Tasa I/O agredada en KB/seg | Todas | Nivel stats ≥2 |
Max. Disk Latency | Latencia máxima de todos los discos | Todas | Nivel stats ≥2 |
HeartBeat | Número de heartbeats de la máquina virtual | Todas | Nivel stats ≥2 |
CPU Ready | Porcentaje de tiempo que la máquina está en lista, pero no encolada para ejecutarse en la CPU física | Todas | Nivel stats ≥2 |
Number Snapshots | Número de snapshots para la máquina virtual (este Módulo puede afectar al rendimiento de la monitorización, por ello se recomienda ejecutarlo con un valor de intervalo alto, por ejemplo cada hora). | Todas | Si configurado |
HA Status | Estado HA para la máquina virtual | ≥v5.0 | Si configurado |
Algunos módulos requieren tener instaladas las VMware tools®.
Monitorización de eventos VMware
Esta funcionalidad realiza una copia de los eventos presentes en el vCenter de VMware® a la lista de eventos de Pandora FMS.
Estos eventos pasan a formar parte del flujo de eventos normales de Pandora FMS y quedan asociados de forma automática al Agente que representa el vCenter del que provienen (si el Agente existe en el momento de creación del evento).
En el proceso de volcado de eventos se respeta la información y severidad que VMware® indica en la creación del evento, de tal forma que los eventos con un nivel de severidad crítico, advertencia o informativo conservarán estos niveles en Pandora FMS. La siguiente imagen muestra un ejemplo de la información detallada de un evento volcado de VMware a Pandora FMS.
Con todos los eventos presentes en Pandora FMS podrá realizar todas las acciones disponibles para la gestión de eventos, como por ejemplo: creación de alertas, configuración de filtros, apertura de incidencias, etc.
Gestión y visualización de la arquitectura virtual VMware
Junto con el plugin VMware® se distribuyen dos extensiones: VMware Manager® y VMware View®. VMware View® permite visualizar todos los componentes de la arquitectura VMware® de una forma cómoda. Además, con VMware Manager® podrá gestionar máquinas virtuales parando, arrancando, reseteando o suspendiendo su actividad desde la Consola de Pandora FMS.
Usando VMware View
Para comenzar a usar el visor de arquitecturas VMware® vaya a Monitoring → VMware view.
De no tener ningún dispositivo a monitorizar o no haber configurado la API de los vCenter® y ESXi VMware® obtendrá algo parecido a la siguiente imagen:
Si el plugin se encuentra en estado operativo obtendrá este mensaje (haga clic en el botón Show):
La extensión VMware View® le mostrará un mapa similar al de abajo con toda la arquitectura VMware®.
El mapa contiene los elementos de la arquitectura VMware® (máquinas virtuales, ESX, DataStores y DataCenters) con diferentes iconos que los identifican, así como el estado de los Agentes de Pandora FMS que representan cada elemento. Además, se muestra la relación que existe entre máquinas virtuales, ESX y DataCenter. De esta manera, de un vistazo se puede ver el estado de la arquitectura VMware® de una forma sencilla.
Esta extensión tiene unas opciones que ayudan a mejorar la visualización de la arquitectura ocultando elementos, aumentando el tamaño de letra y permitiendo hacer acercamientos para poder ver los elementos con más detalle.
Usando las opciones anteriores puede mostrar solo los DataCenter y los ESX.
VMware View Dashboards
VMware View® aporta dos vistas adicionales además de la vista de mapa topológico de la arquitectura virtual. Las nuevas pestañas permiten cambiar entre las diferentes vistas de la VMware View®.
La primera vista es un dashboard general en el que podrá ver de un vistazo el estado general de la arquitectura virtual en números, es decir, cuántas máquinas virtuales, host ESXi o DataStores tienen problemas. Además podrá ver parámetros de rendimiento generales gracias a las gráficas que muestran las 5 máquinas virtuales que más memoria, CPU, disco y red consumen de toda la arquitectura virtual.
La segunda vista permite ver los parámetros de rendimiento de cada host ESX. En esta vista podrá escoger un host ESX para el que se cargará un cuadro de mando en el que se mostrará el estado del host y de las máquinas virtuales, así como unas métricas de rendimiento relativas al uso de CPU, memoria, disco y red del host ESXi. Además, esta vista también ofrece unas gráficas que muestran las máquinas virtuales que más recursos (CPU, memoria, disco y red) consumen del host seleccionado.
VMware View Options Tab
La extensión de VMWare se incluye junto con Pandora FMS Console Enterprise. Dispone de un panel de configuración para establecer las opciones de dashboards y mapas:
- Podrá ajustar los umbrales de vista (mínimos - máximos) de las gráficas de los dashboard.
- Podrá ajustar la configuración de la vista de mapa por defecto.
- Contiene un enlace al sistema de gestión de configuraciones.
Accesible en la pestaña de opciones del VMWare View®:
Usando la extensión VMware Manager desde los Agentes
Para usar la extensión VMware® Manager debe ir a la vista de operación de un Agente que se corresponda con una máquina virtual en esa arquitectura. Dentro de esta vista podrá ver un icono con el símbolo de VMware® que corresponde a la extensión.
La extensión VMware® Manager permite gestionar máquinas virtuales desde la Consola de Pandora FMS. La extensión muestra el estado actual de la máquina virtual con un código de colores:
- Verde = Encendida (máquina virtual en ejecución).
- Naranja = Suspendida (máquina virtual cuya ejecución está pausada).
- Gris = Detenida (máquina virtual no está en ejecución).
Además, en un combo muestra los estados disponibles y permite cambiar el estado de la máquina virtual al seleccionado, pulsando el botón Change Status.
Seleccionando el estado Stop y pulsando Change status:
Esto provacará que se detenga la ejecución de la máquina virtual y la vista de la extensión VMware Manage cambiará, mostrando así que la máquina virtual ahora está parada:
Esta extensión requiere la instalación del SDK de VMware® para Perl en la misma máquina que soporta la Consola de Pandora FMS; sin este requisito la extensión no funcionará.
Si ha configurado la monitorización usando RENAME esta utilidad no funcionará contra los objetivos renombrados.
Métricas de rendimiento personalizadas
Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.
En esta sección es posible configurar nuevos Módulos relativos a Performance Counters para las máquinas virtuales y los ESX. Para configurar un nuevo Módulo de rendimiento necesitará usar la siguiente estructura:
custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0
Los parámetros a configurar son:
- type: Tipo de métrica a monitorizar. Los tipos de métrica son:
- cpu: Característica de la Unidad Central de Procesamiento.
- mem: Memoria.
- disk: Disco, almacenamiento.
- net: Red.
- sys: Sistema.
- metric: Métrica a monitorizar (más adelante se explica dónde ver las métricas disponibles).
- module_type: Tipo del Módulo de Pandora FMS (por ejemplo: generic_data).
- name: Nombre del Módulo.
- desc: Descripción del Módulo.
- limits_warn: Límites para el estado Advertencia.
- limits_crit: Límites para el estado Crítico.
Podrá consultar las métricas disponibles para cada tipo en el apartado Performance de cada entidad. Esta vista se encuentra dentro del vCenter y muestra las métricas de rendimiento que es posible monitorizar con el plugin VMware®. Por ejemplo, la siguiente imagen muestra la vista de Performance para un host ESX.
Para ver el listado completo de todas las métricas según su tipo deberá hacer clic en el botón Advanced y luego en el botón Char option. Verá una lista con todos los tipos de métricas y las respectivas métricas de cada tipo:
Para cada tipo de métrica aparecerán una serie de contadores que son las variables que podremos monitorizar con Pandora FMS. Para monitorizar una variable necesitamos su Internal Name. Además debe asegurarse de que el nivel de estadísticas, configurado en el vCenter, permite mostrar la variable que buscamos, comparándolo con el campo Collection Level de la métrica.
Por ejemplo, si necesita ver el uso de CPU de un host ESX, buscaremos las variables tipo cpu para un ESX y de las disponibles escogeremos utilization. La línea que tiene que añadir al archivo de configuración (en este caso dentro de la sección ESX) será la siguiente:
custom_performance type = cpu; metric = utilization; module_type = generic_data; name = CPU Utilization; desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0
Monitorización de varios Datacenter con un mismo agente
Cada Módulo plugin configurado en el Agente monitoriza un Datacenter, por lo que si se quiere monitorizar varios Datacenter con un mismo Agente Software de Pandora FMS será necesario tomar las siguientes consideraciones.
- Es necesario añadir un
module_plugin
por cada Datacenter a monitorizar; por ejemplo:
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
- En cada archivo de configuración será necesario cambiar los parámetros: logfile, entities_list, event_pointer_file. Los archivos de configuración quedarían como los siguientes:
vmware-plugin-datacenter1.conf
... logfile /tmp/vmware_plugin_datacenter1.log entities_list /tmp/vmware_entities_list_datacenter1.txt event_pointer_file /tmp/vmware_events_pointer_datacenter1.txt ...
vmware-plugin-datacenter2.conf
... logfile /tmp/vmware_plugin_datacenter2.log entities_list /tmp/vmware_entities_list_datacenter2.txt event_pointer_file /tmp/vmware_events_pointer_datacenter2.txt ...
- Si además desea realizar la copia de eventos, deberá tener dos Módulos plugin más con los respectivos archivos de configuración y activando la flag
event_mode
. La configuración de los module_plugin sería como la siguiente:
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf
Dividir la carga de la monitorización entre varios servidores de Pandora FMS
Las opciones del archivo de configuración del plugin permiten distribuir la carga de monitorización fácilmente entre varios servidores de Pandora FMS. Tome por ejemplo la siguiente estructura de un entorno de virtualización:
DC | |- Datastore_1 |- DataStore_2 | |- ESX_1 |- mv1.1 |- mv1.2 |- mv1.3 |- ESX_2 |- mv2.1 |- mv2.2 |- mv2.3
Dispone de dos servidores Pandora FMS para realizar la monitorización. Una manera sencilla de dividir la carga sería monitorizar el Datacenter, los Datastores y los ESX en el primer servidor y todas las máquinas virtuales en el segundo. Los archivos de configuración del plugin serían los siguientes:
Servidor 1:
Reject all_vm
Servidor 2:
Reject all_datacenter all_datastore all_esx
El Servidor 1 monitoriza todo excepto las máquinas virtuales y el Server 2 solo monitoriza las máquinas virtuales.
Otra forma de distribuir la carga sería dividiendo la monitorización por ESX; el primer servidor de Pandora FMS monitorizará todo lo relativo al primer servidor ESX y el segundo todo lo perteneciente al segundo ESX. Para ello, dividiremos el archivo entities_list.txt
en dos archivos y configuraremos dos ejecuciones del plugin en diferentes agentes. Los archivos entities_list.txt
quedarían así:
Servidor 1:
Datacenter DC Datastore Datastore_1 ESX ESX_1 VM mv1.1 mv1.2 mv1.3
El Servidor 1 omite todo lo relacionado con el segundo grupo de entidades VMware, por lo que se encarga de monitorizar la mitad del entorno.
Servidor 2:
Datastore DataStore_2 ESX ESX_2 VM mv2.1 mv2.2 mv2.3
El Servidor 2 omite todo lo relacionado con el primer grupo de entidades VMware además del Datacenter, ya que esto está siendo monitorizado por el Servidor 1.
La configuración de entidades descartadas es muy flexible y permite dividir la carga asignando unas pocas entidades a cada agente de Pandora FMS.
Ejemplos archivo configuración
Archivo con todos los módulos desactivados
#These lines are comments #Datacenter Modules Datacenter ping disabled check443 disabled #Datastore Modules Datastore capacity disabled freeSpace disabled overallocation disabled freeSpaceBytes disabled #ESX Modules ESX bootTime disabled cpuInfo disabled memorySize disabled overallCpuUsage disabled overallMemoryUsage disabled powerState disabled sslThumbprint disabled uptime disabled vnicInfo disabled hostAlive disabled connectionState disabled diskRead disabled diskWrite disabled diskReadLatency disabled diskWriteLatency disabled netReceived disabled netTransmitted disabled netPkgRx disabled netPkgTx disabled cpuUsagePercent disabled memoryUsagePercent disabled netUsage disabled diskRate disabled maxDiskLatency disabled haStatus disabled #VM Modules VM bootTime disabled connectionState disabled consumedOverheadMemory disabled cpuAllocation disabled diskFree disabled guestState disabled host disabled hostAlive disabled diskUsed provisioningUsed totalReadLatency totalWriteLatency hostMemoryUsage disabled hostName disabled ipAddress disabled macAddress disabled maxCpuUsage disabled maxMemoryUsage disabled memoryAllocation disabled memoryOverhead disabled overallCpuDemand disabled overallCpuUsage disabled powerState disabled privateMemory disabled sharedMemory disabled toolsRunningStatus disabled triggeredAlarmState disabled virtualImagePath disabled uptimeSeconds disabled diskRead disabled diskWrite disabled diskReadLatency disabled diskWriteLatency disabled netReceived disabled netTransmitted disabled netPkgRx disabled netPkgTx disabled cpuUsagePercent disabled memoryUsagePercent disabled netUsage disabled diskRate disabled maxDiskLatency disabled heartbeat disabled cpuReady disabled snapshotCounter disabled
Tabla de correspondencia de nombres cortos
Datacenter
Nombre expandido | Nombre corto |
---|---|
Ping | ping |
Check 443 port | check443 |
Datastores
Nombre expandido | Nombre corto |
---|---|
Capacity | capacity |
Free Space | freeSpace |
Disk Overallocation | overallocation |
Free Space Bytes | freeSpaceBytes |
ESX
Nombre expandido | Nombre corto |
---|---|
Boot Time | bootTime |
CPU Info | cpuInfo |
Memory Size | memorySize |
Overall CPU Usage | overallCpuUsage |
Overall Memory Usage | overallMemoryUsage |
Power State | powerState |
SSL Thumbprint | sslThumbprint |
Uptime | uptime |
VNIC Info | vnicInfo |
Host Alive | hostAlive |
Connection State | connectionState |
Disk Read | diskRead |
Disk Write | diskWrite |
Disk Read Latency | diskReadLatency |
Disk Write Latency | diskWriteLatency |
Data received | netReceived |
Data transmitted | netTransmitted |
Packages Received | netPkgRx |
Packages Transmitted | netPkgTx |
CPU Usage | cpuUsagePercent |
Memory Usage | memoryUsagePercent |
Net Usage | netUsage |
Disk Rate | diskRate |
Max Disk Latency | maxDiskLatency |
HA Status | haStatus |
Sensor* | systemHealthInfo |
Máquinas Virtuales
Nombre expandido | Nombre corto |
---|---|
Boot Time | bootTime |
Connection State | connectionState |
Consumed Overhead Memory | consumedOverheadMemory |
CPU Allocation | cpuAllocation |
Disk Free | diskFree |
Guest State | guestState |
Host Info | host |
Host Alive | hostAlive |
Disk Used | diskUsed |
Provisioning Used | provisioningUsed |
Total Read Latency | totalReadLatency |
Total Write Latency | totalWriteLatency |
Host Memory Usage | hostMemoryUsage |
Host Name | hostName |
IP Address | ipAddress |
MAC Address | macAddress |
Max CPU Usage | maxCpuUsage |
Max Memory Usage | maxMemoryUsage |
Memory Allocation | memoryAllocation |
Memory Overhead | memoryOverhead |
Overall CPU Demand | overallCpuDemand |
Overall CPU Usage | overallCpuUsage |
Power State | powerState |
Private Memory | privateMemory |
Shared Memory | sharedMemory |
Tools Running Status | toolsRunningStatus |
Trigger Alarm State | triggeredAlarmState |
Uptime Seconds | uptimeSeconds |
Virtual Image Path | virtualImagePath |
Disk Read | diskRead |
Disk Write | diskWrite |
Disk Read Latency | diskReadLatency |
Disk Write Latency | diskWriteLatency |
Data received | netReceived |
Data transmitted | netTransmitted |
Packages Received | netPkgRx |
Packages Transmitted | netPkgTx |
CPU Usage | cpuUsagePercent |
Memory Usage | memoryUsagePercent |
Net Usage | netUsage |
Disk Rate | diskRate |
Max Disk Latency | maxDiskLatency |
HeartBeat | heartbeat |
CPU Ready | cpuReady |
Number Snapshots | snapshotCounter |
HA Status | haStatus |
Tabla de eventos
Esta lista de eventos se facilita para hacer más sencilla la tarea de configuración de alertas de eventos en Pandora FMS. Para obtener una referencia completa y actualizada de todos los posibles eventos deberá consultar la documentación que VMware® tenga al respecto
Evento | Severidad | Tipo de evento | Grupo | |
---|---|---|---|---|
An account was created on host {host.name} | Informational | System | All | |
Account {account} was removed on host {host.name} | Informational | System | All | |
An account was updated on host {host.name} | Informational | System | All | |
The default password for the root user on the host {host.name} has not been changed | Informational | System | All | |
Alarm '{alarm.name}' on {entity.name} triggered an action | Informational | System | All | |
Created alarm '{alarm.name}' on {entity.name} | Informational | System | All | |
Alarm '{alarm.name}' on {entity.name} sent email to {to} | Informational | System | All | |
Alarm '{alarm.name}' on {entity.name} cannot send email to {to} | Critical | System | All | |
Reconfigured alarm '{alarm.name}' on {entity.name} | Informational | System | All | |
Removed alarm '{alarm.name}' on {entity.name} | Informational | System | All | |
Alarm '{alarm.name}' on {entity.name} ran script {script} | Informational | System | All | |
Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} | Critical | System | All | |
Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent | Informational | System | All | |
Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} | Critical | System | All | |
Alarm '{alarm.name}' on {entity.name} changed from {[email protected]} to {[email protected]} | Informational | System | All | |
All running virtual machines are licensed | Informational | System | All | |
User cannot logon since the user is already logged on | Informational | System | All | |
Cannot login {userName}@{ipAddress} | Critical | System | All | |
The operation performed on host {host.name} in {datacenter.name} was canceled | Informational | System | All | |
Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. | Informational | System | All | |
Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. | Critical | System | All | |
Checked cluster for compliance | Informational | System | All | |
Created cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
Removed cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All | |
Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} | Critical | System | All | |
Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All | |
Configuration status on cluster {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} | Informational | System | All | |
Created new custom field definition {name} | Informational | System | All | |
Removed field definition {name} | Informational | System | All | |
Renamed field definition from {name} to {newName} | Informational | System | All | |
Changed custom field {name} on {entity.name} in {datacenter.name} to {value} | Informational | System | All | |
Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. | Informational | System | All | |
An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. | Critical | System | All | |
An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. | Critical | System | All | |
Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. | Informational | System | All | |
Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. | Informational | System | All | |
The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. | Critical | System | All | |
An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. | Critical | System | All | |
dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. | Informational | System | All | |
dvPort group {net.name} in {datacenter.name} was deleted. | Informational | System | All | |
Informational | System | All | ||
dvPort group {net.name} in {datacenter.name} was reconfigured. | Informational | System | All | |
dvPort group {oldName} in {datacenter.name} was renamed to {newName} | Informational | System | All | |
HA admission control disabled on cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
HA admission control enabled on cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
Re-established contact with a primary host in this HA cluster | Informational | System | All | |
Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} | Critical | System | All | |
All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. | Critical | System | All | |
HA disabled on cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
HA enabled on cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} | Critical | System | All | |
Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} | Warning | System | All | |
Created datacenter {datacenter.name} in folder {parent.name} | Informational | System | All | |
Renamed datacenter from {oldName} to {newName} | Informational | System | All | |
Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} | Informational | System | All | |
Removed unconfigured datastore {datastore.name} | Informational | System | All | |
Discovered datastore {datastore.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} | Critical | System | All | |
<internal> | Informational | System | All | |
File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} | Informational | System | All | |
File or directory {targetFile} deleted from {datastore.name} | Informational | System | All | |
File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} | Informational | System | All | |
Reconfigured Storage I/O Control on datastore {datastore.name} | Informational | System | All | |
Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} | Informational | System | All | |
Removed datastore {datastore.name} from {host.name} in {datacenter.name} | Informational | System | All | |
Renamed datastore from {oldName} to {newName} in {datacenter.name} | Informational | System | All | |
Renamed datastore from {oldName} to {newName} in {datacenter.name} | Informational | System | All | |
Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All | |
Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} | Informational | System | All | |
DRS put {host.name} into standby mode | Informational | System | All | |
DRS is putting {host.name} into standby mode | Informational | System | All | |
DRS cannot move {host.name} out of standby mode | Critical | System | All | |
DRS moved {host.name} out of standby mode | Informational | System | All | |
DRS is moving {host.name} out of standby mode | Informational | System | All | |
DRS invocation not completed | Critical | System | All | |
DRS has recovered from the failure | Informational | System | All | |
Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. | Critical | System | All | |
Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule | Informational | System | All | |
DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
DRS powered On {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} | Informational | System | All | |
A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. | Informational | System | All | |
vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. | Informational | System | All | |
vNetwork Distributed Switch event | Informational | System | All | |
The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. | Informational | System | All | |
The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. | Warning | System | All | |
vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. | Informational | System | All | |
dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} | Informational | System | All | |
New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. | Informational | System | All | |
dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. | Informational | System | All | |
The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} | Informational | System | All | |
The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} | Informational | System | All | |
Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. | Informational | System | All | |
The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. | Informational | System | All | |
The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. | Informational | System | All | |
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. | Informational | System | All | |
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. | Informational | System | All | |
Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} | Informational | System | All | |
vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. | Informational | System | All | |
Host {host.name} in {datacenter.name} has entered maintenance mode | Informational | System | All | |
The host {host.name} is in standby mode | Informational | System | All | |
Host {host.name} in {datacenter.name} has started to enter maintenance mode | Informational | System | All | |
The host {host.name} is entering standby mode | Informational | System | All | |
{message} | Critical | System | All | |
Host {host.name} in {datacenter.name} has exited maintenance mode | Informational | System | All | |
The host {host.name} could not exit standby mode | Critical | System | All | |
The host {host.name} is no longer in standby mode | Informational | System | All | |
The host {host.name} is exiting standby mode | Informational | System | All | |
Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
General event: {message} | Informational | System | All | |
Error detected on {host.name} in {datacenter.name}: {message} | Critical | System | All | |
Issue detected on {host.name} in {datacenter.name}: {message} | Informational | System | All | |
Issue detected on {host.name} in {datacenter.name}: {message} | Warning | System | All | |
User logged event: {message} | Informational | System | All | |
Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} | Critical | System | All | |
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} | Informational | System | All | |
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} | Warning | System | All | |
The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. | Informational | System | All | |
A ghost proxy switch {switchUuid} on the host {host.name} was resolved. | Informational | System | All | |
The message changed: {message} | Informational | System | All | |
{componentName} status changed from {oldStatus} to {newStatus} | Informational | System | All | |
Cannot add host {hostname} to datacenter {datacenter.name} | Critical | System | All | |
Added host {host.name} to datacenter {datacenter.name} | Informational | System | All | |
Administrator access to the host {host.name} is disabled | Warning | System | All | |
Administrator access to the host {host.name} has been restored | Warning | System | All | |
Cannot connect {host.name} in {datacenter.name}: cannot configure management account | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} | Critical | System | All | |
Cannot connect host {host.name} in {datacenter.name} : server agent is not responding | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: incorrect user name or password | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: incompatible version | Critical | System | All | |
Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: error connecting to host | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: network error | Critical | System | All | |
Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges | Critical | System | All | |
Cannot connect host {host.name} in {datacenter.name} | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: incorrect host name | Critical | System | All | |
Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response | Critical | System | All | |
Host {host.name} checked for compliance. | Informational | System | All | |
Host {host.name} is in compliance with the attached profile | Informational | System | All | |
Host configuration changes applied. | Informational | System | All | |
Connected to {host.name} in {datacenter.name} | Informational | System | All | |
Host {host.name} in {datacenter.name} is not responding | Critical | System | All | |
dvPort connected to host {host.name} in {datacenter.name} changed status | Informational | System | All | |
HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All | |
HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} | Warning | System | All | |
HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {[email protected]} | Critical | System | All | |
HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly | Informational | System | All | |
Disconnected from {host.name} in {datacenter.name}. Reason: {[email protected]} | Informational | System | All | |
Cannot restore some administrator permissions to the host {host.name} | Critical | System | All | |
Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage | Critical | System | All | |
Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format | Critical | System | All | |
Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached | Critical | System | All | |
The virtual machine inventory file on host {host.name} is damaged or unreadable. | Informational | System | All | |
IP address of the host {host.name} changed from {oldIP} to {newIP} | Informational | System | All | |
Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} | Critical | System | All | |
Cannot resolve IP address to short name on host {host.name} | Critical | System | All | |
Host {host.name} could not reach isolation address: {isolationIp} | Critical | System | All | |
A host license for {host.name} has expired | Critical | System | All | |
Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage | Critical | System | All | |
Host monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} | Informational | System | All | |
Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} | Critical | System | All | |
Host {host.name} has no port groups enabled for HA communication. | Critical | System | All | |
Host {host.name} currently has no management network redundancy | Critical | System | All | |
Host {host.name} is not in compliance with the attached profile | Critical | System | All | |
Host {host.name} is not a cluster member in {datacenter.name} | Critical | System | All | |
Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} | Critical | System | All | |
Primary agent {primaryAgent} was not specified as a short name to host {host.name} | Critical | System | All | |
Profile is applied on the host {host.name} | Informational | System | All | |
Cannot reconnect to {host.name} in {datacenter.name} | Critical | System | All | |
Removed host {host.name} in {datacenter.name} | Informational | System | All | |
Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries | Critical | System | All | |
Cannot resolve short name {shortName} to IP address on host {host.name} | Critical | System | All | |
Shut down of {host.name} in {datacenter.name}: {reason} | Informational | System | All | |
Configuration status on host {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} | Informational | System | All | |
Cannot synchronize host {host.name}. {reason.msg} | Critical | System | All | |
Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} | Critical | System | All | |
The userworld swap is not enabled on the host {host.name} | Warning | System | All | |
Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. | Informational | System | All | |
WWNs are changed for {host.name} | Warning | System | All | |
The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN | Critical | System | All | |
Host {host.name} did not provide the information needed to acquire the correct set of licenses | Critical | System | All | |
{message} | Informational | System | All | |
Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} | Critical | System | All | |
The license edition '{feature}' is invalid | Critical | System | All | |
License {feature.featureName} has expired | Critical | System | All | |
License inventory is not compliant. Licenses are overused | Critical | System | All | |
Unable to acquire licenses due to a restriction in the option file on the license server. | Critical | System | All | |
License server {licenseServer} is available | Informational | System | All | |
License server {licenseServer} is unavailable | Critical | System | All | |
Created local datastore {datastore.name} on {host.name} in {datacenter.name} | Informational | System | All | |
The Local Tech Support Mode for the host {host.name} has been enabled | Informational | System | All | |
Datastore {datastore} which is configured to back the locker does not exist | Warning | System | All | |
Locker was reconfigured from {oldDatastore} to {newDatastore} datastore | Informational | System | All | |
Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} | Critical | System | All | |
Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} | Critical | System | All | |
Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} | Warning | System | All | |
Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} | Critical | System | All | |
Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} | Warning | System | All | |
Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} | Warning | System | All | |
Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Cannot login user {userName}@{ipAddress}: no permission | Critical | System | All | |
No datastores have been configured on the host {host.name} | Informational | System | All | |
A required license {feature.featureName} is not reserved | Critical | System | All | |
Unable to automatically migrate {vm.name} from {host.name} | Informational | System | All | |
Non-VI workload detected on datastore {datastore.name} | Critical | System | All | |
Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} | Informational | System | All | |
The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. | Warning | System | All | |
Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} | Informational | System | All | |
Permission rule removed for {principal} on {entity.name} | Informational | System | All | |
Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} | Informational | System | All | |
Profile {profile.name} attached. | Informational | System | All | |
Profile {profile.name} was changed. | Informational | System | All | |
Profile is created. | Informational | System | All | |
Profile {profile.name} detached. | Informational | System | All | |
Profile {profile.name} reference host changed. | Informational | System | All | |
Profile was removed. | Informational | System | All | |
Remote Tech Support Mode (SSH) for the host {host.name} has been enabled | Informational | System | All | |
Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} | Informational | System | All | |
Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} | Informational | System | All | |
Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} | Informational | System | All | |
Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} | Informational | System | All | |
Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} | Critical | System | All | |
New role {role.name} created | Informational | System | All | |
Role {role.name} removed | Informational | System | All | |
Modifed role {role.name} | Informational | System | All | |
Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully | Informational | System | All | |
Created task {scheduledTask.name} on {entity.name} in {datacenter.name} | Informational | System | All | |
Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} | Informational | System | All | |
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} | Critical | System | All | |
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} | Critical | System | All | |
Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} | Informational | System | All | |
Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} | Informational | System | All | |
Running task {scheduledTask.name} on {entity.name} in {datacenter.name} | Informational | System | All | |
A vCenter Server license has expired | Critical | System | All | |
vCenter started | Informational | System | All | |
A session for user '{terminatedUsername}' has stopped | Informational | System | All | |
Task: {info.descriptionId} | Informational | System | All | |
Task: {info.descriptionId} time-out | Informational | System | All | |
Upgrading template {legacyTemplate} | Informational | System | All | |
Cannot upgrade template {legacyTemplate} due to: {reason.msg} | Informational | System | All | |
Template {legacyTemplate} upgrade completed | Informational | System | All | |
The operation performed on {host.name} in {datacenter.name} timed out | Warning | System | All | |
There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available | Informational | System | All | |
{unlicensed} unlicensed virtual machines found on host {host} | Informational | System | All | |
The agent on host {host.name} is updated and will soon restart | Informational | System | All | |
User {userLogin} was added to group {group} | Informational | System | All | |
User {userName}@{ipAddress} logged in | Informational | System | All | |
User {userName} logged out | Informational | System | All | |
Password was changed for account {userLogin} on host {host.name} | Informational | System | All | |
User {userLogin} removed from group {group} | Informational | System | All | |
{message} | Informational | System | All | |
Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} | Informational | System | All | |
A vMotion license for {host.name} has expired | Critical | System | All | |
Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {[email protected]} | Critical | System | All | |
vCenter agent has been uninstalled from {host.name} in {datacenter.name} | Informational | System | All | |
Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {[email protected]} | Critical | System | All | |
vCenter agent has been upgraded on {host.name} in {datacenter.name} | Informational | System | All | |
VIM account password was changed on host {host.name} | Informational | System | All | |
Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened | Informational | System | All | |
A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired | Informational | System | All | |
Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} | Informational | System | All | |
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} | Informational | System | All | |
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} | Informational | System | All | |
Creating {vm.name} on host {host.name} in {datacenter.name} | Informational | System | All | |
Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} | Informational | System | All | |
Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} | Informational | System | All | |
Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} | Informational | System | All | |
Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} | Informational | System | All | |
Cannot clone {vm.name}: {reason.msg} | Critical | System | All | |
Clone of {sourceVm.name} completed | Informational | System | All | |
Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found | Informational | System | All | |
Virtual machine {vm.name} is connected | Informational | System | All | |
Created virtual machine {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status | Informational | System | All | |
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]} | Informational | System | All | |
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]}. A screenshot is saved at {screenshotFilePath}. | Informational | System | All | |
Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} | Warning | System | All | |
Unable to update HA agents given the state of {vm.name} | Critical | System | All | |
HA agents have been updated with the current state of the virtual machine | Informational | System | All | |
Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back | Critical | System | All | |
Cannot deploy template: {reason.msg} | Critical | System | All | |
Template {srcTemplate.name} deployed on host {host.name} | Informational | System | All | |
{vm.name} on host {host.name} in {datacenter.name} is disconnected | Informational | System | All | |
Discovered {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Cannot create virtual disk {disk} | Critical | System | All | |
Migrating {vm.name} off host {host.name} in {datacenter.name} | Informational | System | All | |
End a recording session on {vm.name} | Informational | System | All | |
End a replay session on {vm.name} | Informational | System | All | |
Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} | Critical | System | All | |
Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} | Critical | System | All | |
Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. | Critical | System | All | |
vCenter cannot start the Secondary VM {vm.name}. Reason: {[email protected]} | Critical | System | All | |
Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} | Critical | System | All | |
Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} | Critical | System | All | |
Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} | Critical | System | All | |
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} | Critical | System | All | |
{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} | Critical | System | All | |
{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} | Critical | System | All | |
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} | Critical | System | All | |
vCenter cannot update the Secondary VM {vm.name} configuration | Critical | System | All | |
Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} | Warning | System | All | |
Fault Tolerance state on {vm.name} changed from {[email protected]} to {[email protected]} | Informational | System | All | |
Fault Tolerance protection has been turned off for {vm.name} | Informational | System | All | |
The Fault Tolerance VM ({vm.name}) has been terminated. {[email protected]} | Informational | System | All | |
Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Guest OS standby for {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
VM monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} | Informational | System | All | |
Assign a new instance UUID ({instanceUuid}) to {vm.name} | Informational | System | All | |
The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) | Informational | System | All | |
The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} | Critical | System | All | |
New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} | Informational | System | All | |
Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} | Warning | System | All | |
The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} | Critical | System | All | |
Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. | Warning | System | All | |
Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. | Warning | System | All | |
Error message on {vm.name} on {host.name} in {datacenter.name}: {message} | Critical | System | All | |
Message on {vm.name} on {host.name} in {datacenter.name}: {message} | Informational | System | All | |
Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} | Warning | System | All | |
Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed | Informational | System | All | |
No compatible host for the Secondary VM {vm.name} | Critical | System | All | |
Not all networks for {vm.name} are accessible by {destHost.name} | Warning | System | All | |
{vm.name} does not exist on {host.name} in {datacenter.name} | Warning | System | All | |
{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is powered off | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is powered on | Informational | System | All | |
Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. | Informational | System | All | |
VM ({vm.name}) failed over to {host.name}. {[email protected]} | Critical | System | All | |
Reconfigured {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Registered {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Relayout of {vm.name} on {host.name} in {datacenter.name} completed | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary | Informational | System | All | |
{vm.name} on {host.name} reloaded from new configuration {configPath}. | Informational | System | All | |
{vm.name} on {host.name} could not be reloaded from {configPath}. | Critical | System | All | |
Cannot relocate virtual machine '{vm.name}' in {datacenter.name} | Critical | System | All | |
Completed the relocation of the virtual machine | Informational | System | All | |
Remote console connected to {vm.name} on host {host.name} | Informational | System | All | |
Remote console disconnected from {vm.name} on host {host.name} | Informational | System | All | |
Removed {vm.name} on {host.name} from {datacenter.name} | Informational | System | All | |
Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} | Warning | System | All | |
{vm.name} on {host.name} in {datacenter.name} is reset | Informational | System | All | |
Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} | Informational | System | All | |
Changed resource allocation for {vm.name} | Informational | System | All | |
Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is resumed | Informational | System | All | |
A Secondary VM has been added for {vm.name} | Informational | System | All | |
vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. | Critical | System | All | |
Disabled Secondary VM for {vm.name} | Informational | System | All | |
Enabled Secondary VM for {vm.name} | Informational | System | All | |
Started Secondary VM for {vm.name} | Informational | System | All | |
{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {[email protected]} | Informational | System | All | |
Start a recording session on {vm.name} | Informational | System | All | |
Start a replay session on {vm.name} | Informational | System | All | |
{vm.name} on host {host.name} in {datacenter.name} is starting | Informational | System | All | |
Starting Secondary VM for {vm.name} | Informational | System | All | |
The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} | Critical | System | All | |
{vm.name} on {host.name} in {datacenter.name} is stopping | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is suspended | Informational | System | All | |
{vm.name} on {host.name} in {datacenter.name} is being suspended | Informational | System | All | |
Starting the Secondary VM {vm.name} timed out within {timeout} ms | Critical | System | All | |
Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} | Warning | System | All | |
Virtual hardware upgraded to version {version} | Informational | System | All | |
Cannot upgrade virtual hardware | Critical | System | All | |
Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} | Informational | System | All | |
Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} | Informational | System | All | |
Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} | Warning | System | All | |
BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} | Critical | System | All | |
New WWNs assigned to {vm.name} | Informational | System | All | |
WWNs are changed for {vm.name} | Warning | System | All | |
The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN | Critical | System | All | |
{message} | Warning | System | All | |
Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. | Warning | System | All | |
com.vmware.license.AddLicenseEvent | License {licenseKey} added to VirtualCenter | Informational | System | All |
com.vmware.license.AssignLicenseEvent | License {licenseKey} assigned to asset {entityName} with id {entityId} | Informational | System | All |
com.vmware.license.DLFDownloadFailedEvent | Failed to download license information from the host {hostname} due to {[email protected]ownloadFailedReason} | Warning | System | All |
com.vmware.license.LicenseAssignFailedEvent | License assignment on the host fails. Reasons: {[email protected]}. | Informational | System | All |
com.vmware.license.LicenseExpiryEvent | Your host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. | Warning | System | All |
com.vmware.license.LicenseUserThresholdExceededEvent | Current license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) | Warning | System | All |
com.vmware.license.RemoveLicenseEvent | License {licenseKey} removed from VirtualCenter | Informational | System | All |
com.vmware.license.UnassignLicenseEvent | License unassigned from asset {entityName} with id {entityId} | Informational | System | All |
com.vmware.vc.HA.ClusterFailoverActionCompletedEvent | HA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All |
com.vmware.vc.HA.ClusterFailoverActionInitiatedEvent | HA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} | Warning | System | All |
com.vmware.vc.HA.DasAgentRunningEvent | HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running | Informational | System | All |
com.vmware.vc.HA.DasFailoverHostFailedEvent | HA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed | Critical | System | All |
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent | All shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} | Critical | System | All |
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent | All VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} | Critical | System | All |
com.vmware.vc.HA.DasHostFailedEvent | A possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} | Critical | System | All |
com.vmware.vc.HA.DasHostMonitoringDisabledEvent | No virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} | Warning | System | All |
com.vmware.vc.HA.DasTotalClusterFailureEvent | HA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} | Warning | System | All |
com.vmware.vc.HA.HostDasAgentHealthyEvent | HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy | Informational | System | All |
com.vmware.vc.HA.HostDasErrorEvent | HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {[email protected]} | Critical | System | All |
com.vmware.vc.VCHealthStateChangedEvent | vCenter Service overall health changed from '{oldState}' to '{newState}' | Informational | System | All |
com.vmware.vc.cim.CIMGroupHealthStateChanged | Health of [data.group] changed from [data.oldState] to [data.newState]. | Informational | System | All |
com.vmware.vc.datastore.UpdateVmFilesFailedEvent | Failed to update VM files on datastore {ds.name} using host {hostName} | Critical | System | All |
com.vmware.vc.datastore.UpdatedVmFilesEvent | Updated VM files on datastore {ds.name} using host {hostName} | Informational | System | All |
com.vmware.vc.datastore.UpdatingVmFilesEvent | Updating VM files on datastore {ds.name} using host {hostName} | Informational | System | All |
com.vmware.vc.ft.VmAffectedByDasDisabledEvent | VMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. | Warning | System | All |
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent | Network passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} | Informational | System | All |
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent | Network passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} | Informational | System | All |
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent | HA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled | Informational | System | All |
com.vmware.vc.vcp.FtFailoverEvent | FT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure | Informational | System | All |
com.vmware.vc.vcp.FtFailoverFailedEvent | FT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary | Critical | System | All |
com.vmware.vc.vcp.FtSecondaryRestartEvent | HA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure | Informational | System | All |
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent | FT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart | Critical | System | All |
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent | HA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long | Informational | System | All |
com.vmware.vc.vcp.TestEndEvent | VM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All |
com.vmware.vc.vcp.TestStartEvent | VM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All |
com.vmware.vc.vcp.VcpNoActionEvent | HA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting | Informational | System | All |
com.vmware.vc.vcp.VmDatastoreFailedEvent | Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} | Critical | System | All |
com.vmware.vc.vcp.VmNetworkFailedEvent | Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} | Critical | System | All |
com.vmware.vc.vcp.VmPowerOffHangEvent | HA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying | Critical | System | All |
com.vmware.vc.vcp.VmRestartEvent | HA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} | Informational | System | All |
com.vmware.vc.vcp.VmRestartFailedEvent | Virtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart | Critical | System | All |
com.vmware.vc.vcp.VmWaitForCandidateHostEvent | HA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying | Critical | System | All |
com.vmware.vc.vmam.AppMonitoringNotSupported | Application monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} | Warning | System | All |
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent | Application heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} | Warning | System | All |
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent | Application heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} | Warning | System | All |
esx.clear.net.connectivity.restored | Network connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. | Informational | System | All |
esx.clear.net.dvport.connectivity.restored | Network connectivity restored on DVPorts: {1}. Physical NIC {2} is up. | Informational | System | All |
esx.clear.net.dvport.redundancy.restored | Uplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. | Informational | System | All |
esx.clear.net.redundancy.restored | Uplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. | Informational | System | All |
esx.clear.net.vmnic.linkstate.up | Physical NIC {1} linkstate is up. | Informational | System | All |
esx.clear.storage.connectivity.restored | Connectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. | Informational | System | All |
esx.clear.storage.redundancy.restored | Path redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. | Informational | System | All |
esx.problem.apei.bert.memory.error.corrected | A corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} | Critical | System | All |
esx.problem.apei.bert.memory.error.fatal | A fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} | Critical | System | All |
esx.problem.apei.bert.memory.error.recoverable | A recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} | Critical | System | All |
esx.problem.apei.bert.pcie.error.corrected | A corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. | Critical | System | All |
esx.problem.apei.bert.pcie.error.fatal | Platform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. | Critical | System | All |
esx.problem.apei.bert.pcie.error.recoverable | A recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. | Critical | System | All |
esx.problem.iorm.nonviworkload | An external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. | Informational | System | All |
esx.problem.net.connectivity.lost | Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. | Critical | System | All |
esx.problem.net.dvport.connectivity.lost | Lost network connectivity on DVPorts: {1}. Physical NIC {2} is down. | Critical | System | All |
esx.problem.net.dvport.redundancy.degraded | Uplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. | Warning | System | All |
esx.problem.net.dvport.redundancy.lost | Lost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. | Warning | System | All |
esx.problem.net.e1000.tso6.notsupported | Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. | Critical | System | All |
esx.problem.net.migrate.bindtovmk | The ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. | Warning | System | All |
esx.problem.net.proxyswitch.port.unavailable | Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. | Warning | System | All |
esx.problem.net.redundancy.degraded | Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. | Warning | System | All |
esx.problem.net.redundancy.lost | Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. | Warning | System | All |
esx.problem.net.uplink.mtu.failed | VMkernel failed to set the MTU value {1} on the uplink {2}. | Warning | System | All |
esx.problem.net.vmknic.ip.duplicate | A duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. | Warning | System | All |
esx.problem.net.vmnic.linkstate.down | Physical NIC {1} linkstate is down. | Informational | System | All |
esx.problem.net.vmnic.watchdog.reset | Uplink {1} has recovered from a transient failure due to watchdog timeout | Informational | System | All |
esx.problem.scsi.device.limitreached | The maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. | Critical | System | All |
esx.problem.scsi.device.thinprov.atquota | Space utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. | Warning | System | All |
esx.problem.scsi.scsipath.limitreached | The maximum number of supported paths of {1} has been reached. Path {2} could not be added. | Critical | System | All |
esx.problem.storage.connectivity.devicepor | Frequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} | Warning | System | All |
esx.problem.storage.connectivity.lost | Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. | Critical | System | All |
esx.problem.storage.connectivity.pathpor | Frequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} | Warning | System | All |
esx.problem.storage.connectivity.pathstatechanges | Frequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} | Warning | System | All |
esx.problem.storage.redundancy.degraded | Path redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. | Warning | System | All |
esx.problem.storage.redundancy.lost | Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. | Warning | System | All |
esx.problem.vmfs.heartbeat.recovered | Successfully restored access to volume {1} ({2}) following connectivity issues. | Informational | System | All |
esx.problem.vmfs.heartbeat.timedout | Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. | Informational | System | All |
esx.problem.vmfs.heartbeat.unrecoverable | Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. | Critical | System | All |
esx.problem.vmfs.journal.createfailed | No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. | Critical | System | All |
esx.problem.vmfs.lock.corruptondisk | At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. | Critical | System | All |
esx.problem.vmfs.nfs.mount.connect.failed | Failed to mount to the server {1} mount point {2}. {3} | Critical | System | All |
esx.problem.vmfs.nfs.mount.limit.exceeded | Failed to mount to the server {1} mount point {2}. {3} | Critical | System | All |
esx.problem.vmfs.nfs.server.disconnect | Lost connection to server {1} mount point {2} mounted as {3} ({4}). | Critical | System | All |
esx.problem.vmfs.nfs.server.restored | Restored connection to server {1} mount point {2} mounted as {3} ({4}). | Informational | System | All |
esx.problem.vmfs.resource.corruptondisk | At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. | Critical | System | All |
esx.problem.vmfs.volume.locked | Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. | Critical | System | All |
vim.event.LicenseDowngradedEvent | License downgrade: {licenseKey} removes the following features: {lostFeatures} | Warning | System | All |
vprob.net.connectivity.lost | Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. | Critical | System | All |
vprob.net.e1000.tso6.notsupported | Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. | Critical | System | All |
vprob.net.migrate.bindtovmk | The ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. | Warning | System | All |
vprob.net.proxyswitch.port.unavailable | Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. | Warning | System | All |
vprob.net.redundancy.degraded | Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. | Warning | System | All |
vprob.net.redundancy.lost | Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. | Warning | System | All |
vprob.scsi.device.thinprov.atquota | Space utilization on thin-provisioned device {1} exceeded configured threshold. | Warning | System | All |
vprob.storage.connectivity.lost | Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. | Critical | System | All |
vprob.storage.redundancy.degraded | Path redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. | Warning | System | All |
vprob.storage.redundancy.lost | Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. | Warning | System | All |
vprob.vmfs.heartbeat.recovered | Successfully restored access to volume {1} ({2}) following connectivity issues. | Informational | System | All |
vprob.vmfs.heartbeat.timedout | Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. | Informational | System | All |
vprob.vmfs.heartbeat.unrecoverable | Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. | Critical | System | All |
vprob.vmfs.journal.createfailed | No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. | Critical | System | All |
vprob.vmfs.lock.corruptondisk | At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. | Critical | System | All |
vprob.vmfs.nfs.server.disconnect | Lost connection to server {1} mount point {2} mounted as {3} ({4}). | Critical | System | All |
vprob.vmfs.nfs.server.restored | Restored connection to server {1} mount point {2} mounted as {3} ({4}). | Informational | System | All |
vprob.vmfs.resource.corruptondisk | At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. | Critical | System | All |
vprob.vmfs.volume.locked | Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. | Critical | System | All |
RHEV
Red Hat® Enterprise Virtualization (RHEV) es una de las tecnologías más usadas por empresas que tienen como base el sistema operativo Red Hat en su Data Center. Pandora FMS Enterprise ofrece la posibilidad de monitorizar las arquitecturas virtuales basadas en RHEV mediante el plugin RHEV Monitoring Plugin, que permite controlar de forma sencilla todos los aspectos relacionados con la arquitectura virtual RHEV.
Arquitectura a monitorizar
Con el plugin es posible monitorizar la arquitectura completa de un sistema RHEV: Data Centers, Host Clusters, Storage Domains, Networks, Hosts y Virtual Machines, ofreciendo una visión global del estado del entorno virtual.
Para ello, Pandora FMS usa la API oficial que provee el sistema de virtualización RHEV.
Monitorización con RHEV Monitoring Plugin
La monitorización de entornos virtuales RHEV se basa en dos componentes:
- Un plugin de Agente que realiza las tareas de autodescubrimiento y recogida datos. El plugin de Agente es el encargado de enviar la información a Pandora FMS.
- Un script de reconocimiento que actualiza diversos valores para las entidades descubiertas. Este guión es necesario para el correcto funcionamiento de las extensiones del plugin.
- Extensión RHEV Viewer y RHEV Manager. Son extensiones que aportan un valor añadido permitiendo ver la infraestructura monitorizada y operar apagando/encendiendo máquinas virtuales, todo ello desde la consola web de Pandora FMS.
Para poder usar el script de reconocimiento es necesario tener activado el Reconserver
Para que ciertas variables de la API reflejen el valor real de la máquina virtual asociada es necesario instalar el Agente de RHEV; podrá encontrar todo al respecto en la documentación de su versión de RHEV.
Para la monitorización del sistema operativo instalado en las máquinas virtuales se recomienda usar un Agente de Pandora FMS en lugar del API RHEV.
Funcionamiento interno del plugin
El plugin RHEV Monitoring Plugin extrae la información mediante la API web que sirve el entorno de virtualización RHEV.
Si solo necesita la información de monitorización lo único que tiene que configurar es el plugin de Agente que realizará esta tarea.
El plugin de Agente realiza un descubrimiento de dispositivos y compone los XML con los Módulos para cada uno de ellos. La configuración del plugin permite escoger qué elementos van a ser monitorizados y la configuración de sus Módulos. Los Módulos creados por el plugin son configurables, y es posible cambiar el nombre y la descripción y añadir valores máximos y mínimos para los estados Warning
y Critical
del Módulo.
Una vez creados los XML, el plugin de Agente envía los archivos, bien usando Tentacle o bien los copia a un directorio local, según el método de transferencia escogido.
Si además va a usar las extensiones RHEV Viewer y RHEV Manager necesitará usar el script de reconocimiento.
El guión de reconocimiento es el encargado de actualizar unas variables para cada uno de los Agentes detectados en Pandora FMS según los valores configurados en RHEV. Estas variables son necesarias para poder visualizar las entidades correctamente en la extensión RHEV Viewer y gestionar adecuadamente las máquinas virtuales con la extensión RHEV Manager.
Requisitos previos a la instalación
El plugin de Agente requiere el siguiente software:
- curl.
- perl-XML-Simple.
- Agente Software de Pandora FMS.
- tentacle_client (si se quiere usar tentacle para enviar los archivos, tentacle_client se instala junto con el Agente Software de Pandora FMS).
Red Hat
En sistemas basados en Red Hat® puede instalar las dependencias con el comando:
yum install perl-XML-Simple curl
SLES
En sistemas basados en SUSE puede instalar las dependencias con el comando:
zypper install perl-XML-Simple curl
Debian/Ubuntu
En sistemas basados en Debiand/Ubuntu puede instalar las dependencias con el comando:
apt-get install libxml-simple-perl curl
Instalación del Agente Software de Pandora FMS
La instalación del Agente Software de Pandora FMS se explica en la sección Instalación de Pandora FMS, ahí encontrará todo lo necesario para realizar la instalación de dicho Agente en su plataforma.
Descarga del certificado de RHEV
Antes de usar el plugin será necesario descargar el certificado que permite la conexión por HTTPS al API de RHEV. Para ello, ejecute el siguiente comando:
curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt
Donde [rhevm-host]
es el nombre del servidor que sirve el API de RHEV. Un ejemplo concreto podría ser:
curl -o rhevm.cer http://rhevm.server:8080/ca.crt
Una vez descargado el certificado puede comprobar que la conexión a la API se realiza de forma correcta con el siguiente comando mediante el uso de conectores de línea >
curl -X GET \ -H "Accept: application/xml" \ -u [USER:PASS] \ --cacert [CERT] https://[RHEVM-HOST]:8443/api
Con los siguientes valores:
- USER: user @domain para conectarse al API.
- PASS: contraseña del usuario con el que se conectará al API.
- CERT: ruta al certificado descargado en el paso anterior.
- RHEVM-HOST: dirección del host que sirve el API.
Un ejemplo con datos concretos del comando sería como el siguiente:
curl -X GET \ -H "Accept: application/xml" \ -u [[email protected]:12345] \ --cacert /home/user/ca.crt https://rhevm.server:8443/api
Si la ejecución de comando es positiva, devolverá una salida en formato XML con información general sobre la API de RHEV.
Consideraciones previas sobre la configuración de RHEV
En el entorno de virtualización RHEV es posible que varias entidades tengan un mismo nombre. Esto supone un problema, ya que en Pandora FMS esas entidades se transformarán en Agentes en los que no se permite duplicidad en los nombres. Además, también generará problemas a la hora de parsear el resultado devuelto por la API en formato XML, mostrando un error parecido al siguiente:
Warning: <data_center> element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199
Para solucionar el problema lo único necesario es seguir una nomenclatura de nombres para las entidades del entorno de virtualización RHEV en el que no se repitan los nombres.
Instalación del plugin de Agente
Para instalar el plugin de Agente solo tiene que copiar el script rhev-plugin.pl
y el archivo de configuración rhev-plugin.conf
en un directorio de la máquina donde está instalado el Agente de Pandora FMS que ejecutará el plugin. El plugin se puede ejecutar en un Agente instalado en las mismas máquina que el servidor de Pandora FMS o en otra máquina distinta.
Para ejecutar el plugin debe añadir al archivo de configuración del Agente (por defecto /etc/pandora/pandora_agent.conf
) la siguiente línea:
module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf
Añadiendo esta línea el plugin de Agente realizará sus funciones en cada ejecución.
Monitorizando la arquitectura virtual RHEV
Para ver el resultado de la ejecución del plugin de Agente vaya a Monitoring → Views → Agent Detail.
El plugin crea un Agente en Pandora FMS por cada una de las entidades detectadas en el descubrimiento de la arquitectura RHEV.
Al pulsar el nombre de un Agente podrá ver los Módulos de monitorización creados por el plugin, además de otros datos relativos:
Para cada tipo de entidad se crean automáticamente una serie de Módulos determinados, monitorizando la información importante de cada una de ellas.
Si el Agente seleccionado correspondiera a un Host en lugar de una Máquina Virtual, los módulos de monitorización serían distintos.
El plugin RHEV también monitoriza los eventos ocurridos dentro de la arquitectura virtual. El plugin creará un Módulo para cada evento monitorizado dentro de cada entidad afectada:
Los datos para los Módulos creados a partir de eventos son datos del evento: hora del suceso, descripción del evento. Ejemplo de datos:
Además de los Agentes y los Módulos relativos a la arquitectura RHEV propiamente dicha, se genera un Módulo en el Agente que ejecuta el plugin. Este Módulo se llama, por defecto, RHEV Plugin:
El contenido del Módulo será el resultado de ejecución del plugin; podrá ser OK si todo es correcto o mostrará una cadena de error con la explicación del mismo si algo inesperado ocurre. Esta información además de en el Módulo del plugin se podrá consultar en un archivo de log.
Monitorizando el estado de las entidades
Los Módulos de estado de las diferentes entidades devuelven los valores predefinidos en la arquitectura RHEV. Esto significa que los valores serán cadenas de texto cuyo contenido será up
, down
, error
, maintenance
, non_operational
, etc., dependiendo del estado y la entidad monitorizada.
Para asignar valores warning
y critical
será necesario definir una expresión regular en la configuración del Módulo. Por ejemplo, para definir un estado crítico en un Módulo que está determinado por los valores error, down y non_operational, insertamos en el campo Str. del valor critical del módulo la siguiente expresión regular:
error|down|non_operational
Módulos de agente de la arquitectura virtual RHEV
A continuación se detallan los Módulos disponibles para cada elemento de la arquitectura RHEV.
Data Center
- Status: Estado del Data Center.
Storage Domain
- Available Space: Espacio disponible en el Storage Domain.
- Committed Space: Espacio comprometido en el Storage Domain.
- Used Space: Espacio usado en el Storage Domain.
- Percent Free Space: Porcentaje de espacio libre en el Storage Domain.
Network
- Status: Estado de la red virtual.
- STP Status: Estado de la funcionalidad Spanning Tree Protocol.
Cluster
- Overcommit Percent: Porcentaje de sobreasignación del clúster.
- Transparent HugePages: Estado de la funcionalidad Transparent HugePages.
- High threshold: Límite superior en las políticas de planificación.
- Low threshold: Límite inferior en las políticas de planificación.
- Threshold duration: Duración de los límites en las políticas de planificación.
Host
- Status: Estado del Host.
- Buffers size: Tamaño de los buffers.
- Cache size: Tamaño de la cache.
- Cached swap: Cantidad de memoria Swap caching (en bytes).
- Free memory: Cantidad de memoria libre (en bytes).
- Percent free memory: Porcentaje de memoria libre.
- Swap cached percent: Porcentaje de memoria Swap caching.
- Swap free: Cantidad de memoria Swap libre (en bytes).
- Swap free percent: Porcentaje de memoria Swap libre.
- Total Memory: Cantidad total de memoria del Host (en bytes).
- Total Swap: Cantidad total de memoria Swap (en bytes).
- Used memory: Cantidad total de memoria usada (en bytes).
- Used Swap: Cantidad total de memoria Swap usada (en bytes).
- Nic [x] TX: Ratio de transferencia de la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
- Nic [x] RX: Ratio de recepción de la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
- Nic [x] erros TX: Número de errores de transmisión de la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
- Nic [x] erros RX: Número de errores de recepción de la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
- User CPU: Porcentaje de CPU usada por el usuario.
- System CPU: Porcentaje de CPU usada por el sistema.
- CPU Idle: Porcentaje de CPU ociosa.
- CPU Load: Carga media de CPU de los últimos 5 minutos.
- KSM CPU: Porcentaje de CPU usado por KSM.
- Active VM: Número de máquinas virtuales activas en el Host.
- Migrating VM: Número de máquinas virtuales en migración en el Host.
- Total VM: Número total de máquinas virtuales del Host.
- Fence Status: Estado del fencing del host.
Virtual Machine
- Status: Estado de la máquina virtual.
- Disk [x] read: Tasa de lectura del disco x (bytes/segundo). Se genera uno por cada disco (almacenamiento) detectado.
- Disk [x] write: Tasa de escritura del disco x (bytes/segundo). Se genera uno por cada disco detectado.
- Disk [x] size: Tamaño del disco x (en bytes). Se genera uno por cada disco detectado.
- Disk [x] status: Estado del disco x. Se genera uno por cada disco detectado.
- Nic [x] TX: Ratio de transferencia para la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
- Nic [x] RX: Ratio de recepción para la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
- Nic [x] erros TX: Número de errores de transmisión para el la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
- Nic [x] erros RX: Número de errores de recepción para el la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
- Installed memory: Cantidad de memoria instalada (en bytes).
- Percent free memory: Porcentaje de memoria libre.
- Used memory: Cantidad de memoria usada (en bytes).
- Stateless: Estado de la funcionalidad Stateless.
- HA Status: Estado de la funcionalidad de HA.
- Total CPU: Porcentaje total de CPU usada por la máquina virtual.
- Hypervisor CPU: Porcentaje de CPU del Hypervisor usado por la máquina virtual.
- Guest CPU: Porcentaje de CPU del Host que usa la máquina virtual.
Eventos
- Event [x]: Descripción del evento x ocurrido en el sistema. Se creará uno por cada evento detectado en los Agentes afectados.
Gestión y visualización de la arquitectura RHEV
En esta sección se explica la instalación, configuración y funcionamiento de las extensiones RHEV View y RHEV Manager.
Tareas de reconocimiento
Existe la posibilidad de crear tareas personalizadas de reconocimiento gracias al Discovery server.
Instalación de extensiones RHEV View y RHEV Manager
Para instalar las extensiones simplemente debe copiar el contenido de la carpeta extensions
, que encontrará al descomprimir el plugin, en la correspondiente carpeta extensions
de la parte Enterprise de la Consola de Pandora FMS. El comando a ejecutar es el siguiente:
cp -R extensions/* <pandora_console_dir>/enterprise/extensions/
Desde ese momento estarán disponibles las extensiones de monitorización RHEV.
Usado la extensión RHEV View
Para usar la extensión RHEV View solo tiene que pulsar en la opción RHEV View dentro del submenú Monitoring.
La extensión mostrará un mapa como el siguiente, con todos los componentes de la arquitectura RHEV descubiertos por el plugin:
En el mapa aparecen representados los diferentes elementos de la arquitectura RHEV (Data Centers, Storage Domains, Clusters, Networks, Hosts y Virtual machines). Cada elemento está representado por un icono, distinto para cada tipo de elemento de la arquitectura. También quedan representadas las relaciones entre los diferentes elementos de la arquitectura RHEV. Con esta vista es muy sencillo ver el estado de los elementos y cómo se interrelacionan.
La extensión cuenta con un menú que permite configurar la vista ocultando o mostrando entidades, ampliando o reduciendo el tamaño del texto y realizando zoom para ver la imagen con más detalle.
Por ejemplo, en la siguiente imagen del mapa se ha ocultado los elementos Networks, Hosts y Virtual Machine de la arquitectura porque se necesita ver en detalle las relaciones de Clusters y Storage Domains con los Data Center.
Usado la extensión RHEV Manager
La extensión RHEV Manager está disponible en la vista de operación de los agentes de Pandora FMS que se correspondan con máquinas virtuales dentro de la arquitectura de virtualización RHEV.
Esta extensión usa el comando curl, por lo que será necesario que esté instalado y sea accesible para el servidor web que soporte la Consola de Pandora FMS.
Para acceder a la extensión pulse en el botón con el logo de Red Hat que encontrará junto con los demás tabs del agente.
La extensión permite gestionar máquinas virtuales (encender, apagar y suspender) sin necesidad de abrir la consola de gestión de RHEV. En la extensión se muestra el estado actual de la máquina virtual con un código de colores:
- Verde = Encendida.
- Naranja = Suspendida.
- Gris = Detenida.
Con un combo con los estados disponibles a los estados que se puede llevar la máquina virtual al pulsar el botón Change Status.
Si escoge el estado Stop para detener la máquina virtual, la extensión conectará con la API RHEV y enviará la orden. El resultado será el cambio de estado en la máquina virtual y las opciones del combo:
El paso entre algunos estados no es automático, como por ejemplo del estado Stop a Start. En este caso, la extensión irá mostrando el estado de la máquina virtual según vaya cambiando en la arquitectura de virtualización. Ejemplo:
Configuración del plugin de Agente
La configuración del plugin de Agente se realiza mediante un archivo de configuración cuyo nombre por defecto es rhev-plugin.conf
.
Por defecto, el plugin de Agente selecciona todas las entidades y crea todos los Módulos correspondientes con unos valores predeterminados para el nombre y la descripción. Todos estos aspectos, así como variables generales del plugin, se pueden configurar a través del archivo de configuración.
Archivo de configuración
El archivo de configuración tiene dos áreas bien diferenciadas: las variables globales y la configuración de la monitorización.
La sección de variables globales comienza con el token Configuration y contiene la información de configuración del plugin. Los parámetros permitidos en esta sección son:
- module_name : Nombre del Módulo del Agente con el estado de la ejecución del plugin.
- server : Nombre del host que sirve la API de RHEV.
- user : Usuario en formato user @domain para conectarse a la API.
- pass : Contraseña para conectarse a la API.
- cert : Ruta del certificado para conectarse a la API.
- temporal : Directorio temporal.
- logfile : Archivo de registro o log.
- transfer_mode : Modo de transferencia. Puede tomar los valores:
local
otentacle
. - tentacle_ip : Dirección IP del servidor Tentacle al cual enviar la información. Típicamente estará situado en la misma máquina que el servidor de Pandora FMS. Esta opción solo se usa si
transfer_mode
tiene el valortentacle
. - tentacle_port : Puerto del servidor Tentacle. Esta opción solo se usa si
transfer_mode
tiene el valortentacle
. - tentacle_opts : Opciones de envío de datos para Tentacle. Esta opción solo se usa si
transfer_mode
tiene el valortentacle
.
La sección de configuración de la monitorización se divide en varias subsecciones. La primera subsección tiene como token Reject y sirve para listar las entidades del entorno de virtualización que serán descartadas de la monitorización. Para descartar una entidad será necesario poner el nombre de la misma en esta lista. Por ejemplo:
#Dismissed entities Reject mv1 mv_Windows10 mv_WebServer1 ...
Es posible descartar todas las entidades de un mismo tipo, por ejemplo todos los hosts, todas las máquinas virtuales, etc. Los token para cada entidad son: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (Máquinas Virtuales). Ejemplo de uso de estos tokens:
#Dismissed entities Reject all_dc all_host all_network all_storage all_cluster all_vm
La segunda sección tiene como token Rename y sirve para cambiar los nombres de las entidades monitorizadas a través del plugin. Esta funcionalidad es muy útil si se quiere combinar la monitorización de agentes software con datos extraídos de la API en el mismo Agente de Pandora FMS. La configuración de esta sección se realiza poniendo primero el nombre antiguo y a continuación el nuevo separado por un espacio; por ejemplo:
#Rename entities Rename mv_WebServer1 WebServer1 mv_Windows10 Windows10 Test ...
Las siguientes subsecciones se corresponden con la configuración de monitorización para cada entidad. Cada entidad tiene su propio token, siendo los siguientes: DataCenter, StorageDomain, Network, Cluster, Host y VM. Para cada una de estas entidades es posible definir los Módulos que estarán deshabilitados o definir unos valores personalizados para el nombre, la descripción y los rangos de máximos y mínimos para los estados Warning
y Critical
. Un ejemplo sería el siguiente:
#VM Modules VM status disabled errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100 memory_used name = Memoria en uso; desc = Memoria usada por la maquina virtual; limits = 256 1024 1025 2048 ...
Cada línea de configuración de los módulos de monitorización se corresponde dos opciones disponibles:
- <modulo> disabled: El Módulo NO se creará.
- <modulo> name = <nombre>; desc = <descripcion>; limits = <min_warning> <max_warning> <min_critical> <max_critical» El Módulo se creará con el nombre y la descripción proporcionados y además se definirán los umbrales para los máximos y mínimos de los valores
Warning
yCritical
.
Es muy importante tener en cuenta la estructura de las líneas del archivo de configuración y sobre todo ver que el carácter ;
va pegado al nombre y la descripción del módulo. Estas dos líneas NO SON EQUIVALENTES (véanse los espacios antes del carácter ;
):
errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100 #Correcto errors_total_tx name = Errores TX Net [%s] ; desc = Errores totales TX de red ; limits = 60 70 71 100 #Incorrecto
Los Módulos están referenciados por su nombre corto, un nombre equivalente más sencillo de escribir en la línea de comandos. La tabla de correspondencia entre nombres cortos y expandidos está en la siguiente sección.
Ejemplo de configuración para las máquinas virtuales, sección VM:
Para la monitorización de las máquinas virtuales se han definido una serie de Módulos habilitados o no en la sección VM del archivo de configuración. Más concretamente: el Módulo status ha sido deshabilitado y para los Módulos errors_total_tx y memory_used se han definido unos valores personalizados. Los demás Módulos que no aparecen en el listado se crearán con los valores por defecto. Con esta configuración, el Módulo memory_used tomará los siguientes valores:
- Nombre: Memoria en uso.
- Descripción: Memoria usada por la máquina virtual.
- Min Warning: 256.
- Max Warning: 1024.
- Min Critical: 1025.
- Max Critical: 2048.
Los Módulos se generan dinámicamente; por ejemplo, dos relativos a discos o interfaces de los cuales se crea uno por cada elemento detectado. Tienen una sintaxis especial para el nombre del Módulo, que es la siguiente:
errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100
En estos casos, como el nombre tiene parte dinámica, lo que se permite es usar la macro %s
que será sustituida por el plugin por la parte variable del nombre del Módulo.
Por ejemplo, el Módulo errors_total_tx tiene por nombre por defecto:
Nic [nic1] errors TX
Pasará a llamarse
Errores TX Net [nic1]
Siendo nic1 la parte dinámica del nombre del módulo.
Todos los errores relativos al archivo de configuración son presentados en el log definido en el archivo de configuración y además son enviados como un Módulo asíncrono a Pandora FMS que quedará reflejado como un Módulo dentro del Agente que ejecuta el plugin.
Además de las secciones propias de cada elemento de la arquitectura, el archivo de configuración tiene una sección común para los Eventos. Esta sección se define con el token EventCodes y en él se listarán los códigos de los eventos a monitorizar; por ejemplo:
EventCodes 30 920 980 509 956
Si no define esta sección, no se realizará la monitorización de eventos.
Dividir la carga de la monitorización entre varios Agentes Software
Mediante el archivo de configuración del plugin de Agente es posible dividir la carga de monitorización de la infraestructura de virtualización RHEV.
Para ello se repartirán las entidades a monitorizar entre los distintos Agentes. Suponga que tiene la siguiente arquitectura:
DC1 | |- Cluster 1.1 |- c1.1mv1 |- c1.1mv2 |- c1.1mv3 |- Cluster 1.2 |- c1.2mv1 |- c1.2mv2 |- c1.2mv3 DC2 | |- Cluster 2.1 |- c2.1mv1 |- c2.1mv2 |- c2.1mv3 |- Cluster 2.2 |- c2.2mv1 |- c2.2mv2 |- c2.2mv3
Una forma de dividir la carga sería asignando una Datacenter a cada uno de los Agentes Software; para ello usaríamos la funcionalidad para descartar entidades a monitorizar (token Reject).
El primer Agente Software monitoriza el Datacenter DC1 y descarta las entidades de DC2.
Reject DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3
El segundo Agente Software monitoriza el Datacenter DC2 y descarta las entidades de DC1.
Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3
También podríamos dividir la carga basándonos en los clústeres, por ejemplo. Para cada clúster de los dos Datacenters se asignará un agente de los cuatro primeros.
Agente Software 1, monitorizar Cluster 1.1
y descarta las demás entidades.
Reject DC1 Cluster 1.2 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3
Agente Software 2, monitorizar Cluster 1.2
y descarta las demás entidades.
Reject DC1 Cluster 1.1 c1.1mv1 c1.1mv2 c1.1mv3 DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3
Agente Software 3, monitorizar Cluster 2.1
y descarta las demás entidades.
Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.2 c2.2mv1 c2.2mv2 c2.2mv3
Agente Software 4, monitorizar Cluster 2.2
y descarta las demás entidades.
Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.1 c2.1mv1 c2.1mv2 c2.1mv3
La configuración de entidades descartadas es totalmente flexible y se podría llegar a dividir la carga asignando varias entidades a cada Agente Software.
Ejemplos de archivos de configuración
Archivo con todos los Módulos deshabilitados
#These lines are comments #Plugin configuration parameters Configuration server rhevm.server user [email protected] pass 12345 cert /home/user/rhevm.cer temporal /tmp logfile /tmp/plugin-rhev.log transfer_mode local tentacle_ip 127.0.0.1 tentacle_port 41121 tentacle_opts #Dismissed entities Reject #Data Center modules DataCenter status disabled #StorageDomain modules StorageDomain available disabled used disabled committed disabled free_percent disabled #Networks modules Network status disabled stp disabled #Clusters modules Cluster overcommit disabled hugepages disabled threshold_low disabled threshold_high disabled threshold_duration disabled #Host Modules Host status disabled vm_active disabled vm_migrating disabled vm_total disabled data_current_rx disabled data_current_tx disabled errors_total_rx disabled errors_total_tx disabled memory_cached disabled memory_total disabled swap_free_percent disabled swap_cached_percent disabled swap_free disabled cpu_current_idle disabled cpu_current_user disabled memory_used disabled ksm_cpu_current disabled memory_free_percent disabled swap_total disabled memory_buffers disabled cpu_current_system disabled cpu_load_avg_5m disabled swap_cached disabled swap_used disabled memory_free disabled fence_status disabled #VM Modules VM status disabled stateless disabled ha disabled cpu_current_guest disabled cpu_current_hypervisor disabled memory_free_percent disabled memory_installed disabled memory_used disabled cpu_current_total disabled data_current_read disabled data_current_write disabled size disabled disk_status disabled data_current_rx disabled data_current_tx disabled errors_total_rx disabled errors_total_tx disabled
Tabla correspondencia nombres de Módulos
Data Center
Nombre Expandido | Nombre Corto |
---|---|
Status | status |
Storage Domain
Nombre Expandido | Nombre Corto |
---|---|
Available Space | available |
Used Space | used |
Committed Space | committed |
Percent Free Space | free_percent |
Network
Nombre Expandido | Nombre Corto |
---|---|
Status | status |
STP Status | stp |
Cluster
Nombre Expandido | Nombre Corto |
---|---|
Overcommit Percent | overcommit |
Transparent HugePages | hugepages |
Low Threshold | threshold_low |
High Threshold | threshold_high |
Threshold duration | threshold_duration |
Host
Nombre Expandido | Nombre Corto |
---|
Status | status |
Active VM | vm_active |
Migrating VM | vm_migrating |
Total VM | vm_total |
Nic [x] RX | data_current_rx |
Nic [x] TX | data_current_tx |
Nic [x] errors RX | errors_total_rx |
Nic [x] errors TX | errors_total_tx |
Cache size | memory_cached |
Total memory | memory_total |
Swap free percent | swap_free_percent |
Swap cached percent | swap_cached_percent |
Swap free | swap_free |
CPU Idle | cpu_current_idle |
User CPU | cpu_current_user |
Used memory | memory_used |
KSM CPU | ksm_cpu_current |
Percent free memory | memory_free_percent |
Total swap | swap_total |
Buffers size | memory_buffers |
System CPU | cpu_current_system |
CPU Load | cpu_load_avg_5m |
Cached swap | swap_cached |
Used swap | swap_used |
Free memory | memory_free |
Fence Status | fence_status |
Virtual Machine
Nombre Expandido | Nombre Corto |
---|---|
Status | status |
Stateless | stateless |
HA Status | ha |
Guest CPU | cpu_current_guest |
Hypervisor CPU | cpu_current_hypervisor |
Percent free memory | memory_free_percent |
Installed memory | memory_installed |
Used memory | memory_used |
Total CPU | cpu_current_total |
Disk [x] read | data_current_read |
Disk [x] write | data_current_write |
Disk [x] size | size |
Disk [x] status | disk_status |
Nic [x] RX | data_current_rx |
Nic [x] TX | data_current_tx |
Nic [x] errors RX | errors_total_rx |
Nic [x] errors TX | errors_total_tx |
Nutanix
La solución de hiperconvergencia Nutanix® ofrece la posibilidad de gestionar todos los recursos de red, disco, procesamiento y memoria desde un único punto.
El plugin de monitorización de Pandora FMS para Nutanix® permite controlar en todo momento el estado de nuestra solución Nutanix®.
Funcionamiento del plugin Nutanix
El plugin Nutanix® es un programa escrito en Perl, que se conectará a la API REST de Nutanix PRISM®, recuperando las métricas necesarias para monitorizar los siguientes elementos:
- Clústeres Nutanix®.
- Dispositivos de almacenamiento.
- Contenedores.
- Máquinas Virtuales.
- Hosts.
- Estado de los procesos de replicación.
Requisitos del plugin Nutanix
Para poder recuperar la información de la API REST, necesita:
- La dirección IP/ FQDN del portal.
- Un usuario con permisos de lectura sobre la API.
- La contraseña de dicho usuario.
En cuanto a la comunicación de los resultados de la monitorización a su Pandora FMS necesita:
- El modo de transferencia de la información, sea local o vía Tentacle.
- En caso de ser local, la dirección del directorio donde han de entregarse los ficheros XML con los resultados, así como permisos de escritura en dicho directorio.
- En caso de ser comunicación vía Tentacle, será necesario poder conectar contra la dirección IP o FQDN del servidor Pandora FMS, el puerto utilizado por su instalación Tentacle, la localización del cliente de Tentacle así como cualquier opción extraordinaria que haya definido.
Instalación del plugin Nutanix
Descargue los archivos requeridos por el plugin de la librería de Módulos. Transfiera los archivos al equipo remoto desde donde desea realizar la monitorización de su infraestructura Nutanix® y extraiga los archivos del plugin:
tar xvzf pandora_nutanix.tar.gz
Configuración del plugin Nutanix
Se declaran los siguientes campos:
Nutanix API configuration
nx_fqdn
Dirección del servidor principal Prism.
nx_port
Puerto en el que la API REST está publicada (por defecto 9440).
nx_user
Usuario con privilegios de lectura sobre la API REST.
nx_pass
Contraseña de dicho usuario.
use_https
Usar https (1) o no (0)
nx_rest_version
Versión del API Rest (por defecto 'v1').
Nutanix agent configuration
agent_interval
Intervalo de los Agentes generados por el plugin (por defecto 300)
agent_group
Grupo al que pertenecerán los Agentes generados (si se comenta 'autocreate_group' en la configuración de su PandoraServer), por defecto Nutanix
.
module_interval
Intervalo de los Módulos de los agentes generados (factor de multiplicación, por defecto 1).
module_tags
Etiquetas asociadas a los nuevos módulos de los agentes generados.
module_group
Grupo al que pertenecerán los nuevos Módulos.
Configuración de la comunicación hacia el servidor de Pandora FMS
mode
Modo de transferencia de datos, “local” o “tentacle”.
tentacle_ip
dirección IP del servidor Pandora FMS, solo aplica en modo Tentacle
tentacle_port
Puerto en el que el servicio Tentacle está escuchando.
tentacle_opts
Cualquier opción extra que haya configurado en su servicio Tentacle.
tentacle_client
Ruta completa a su cliente Tentacle.
temp
Directorio de trabajo temporal.
local_folder
Ruta de entrega para el modo de transferencia de datos “local”.
Filtros
cluster_monitoring
Habilitar (1) o no (0) la monitorización de clústeres.
storage_monitoring
Habilitar (1) o no (0) la monitorización de dispositivos de almacenamiento.
container_monitoring
Habilitar (1) o no (0) la monitorización de los contenedores de almacenamiento.
vm_monitoring
Habilitar (1) o no (0) la monitorización de máquinas virtuales.
host_monitoring
Habilitar (1) o no (0) la monitorización de servidores de máquinas virtuales (nodos Nutanix).
pd_monitoring
Habilitar (1) o no (0) la monitorización de dominios de protección.
Personalizaciones
cluster_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo clúster.
storage_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo dispositivo de almacenamiento.
host_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo servidor de máquinas virtuales (nodos Nutanix).
container_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo contenedores de almacenamiento.
vm_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo máquina virtual.
pd_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo dominio de protección
Reglas de generación de Módulos
vm_stat
Regla para agregado de Módulos para la monitorización de máquinas virtuales, por defecto hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*
, esto indica los Módulos extraordinarios que se generarán, cuando el nombre de la métrica coincida con las expresiones regulares indicadas en este campo. Agregue el valor .*
para monitorizar todas las métricas disponibles.
host_stat
Regla para agregado de Módulos para la monitorización de servidores de máquinas virtuales (nodos Nutanix), por defecto hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*
, esto indica los Módulos extraordinarios que se generarán, cuando el nombre de la métrica coincida con las expresiones regulares indicadas en este campo. Agregue el valor .*
para monitorizar todas las métricas disponibles.
pd_stat
Regla para agregado de Módulos para la monitorización de dominios de protección, por defecto replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes
, esto indica los Módulos extraordinarios que se generarán, cuando el nombre de la métrica coincida con las expresiones regulares indicadas en este campo. Agregue el valor .*
para monitorizar todas las métricas disponibles.
Renombrado de entidades
RENAME aaa TO bbb
Regla para el renombrado de entidades, puede definir tantas directivas como elementos necesite renombrar.
Exclusión de entidades
REJECT aaa
Regla para la exclusión de monitorización de entidades, puede definir tantas directivas como elementos necesite excluir.
Ejecución del plugin Nutanix
Se recomienda ejecutar el plugin de forma remota desde un equipo con acceso tanto a Pandora Server como a su infraestructura Nutanix® a monitorizar.
Ejecución manual:
./pandora_nutanix-linux-x64 pandora_nutanix.conf
Puede automatizar la ejecución del plugin en el cron de sistema agregando la siguiente línea a /etc/crontab
>
- /5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf
Resultados del plugin Nutanix
Capturas con los resultados obtenidos por el plugin:
Ejemplo de mapa de arquitectura Nutanix®:
Ejemplo de vista de Agente de arquitectura Nutanix®:
Ejemplo de vista de módulos para Agentes de tipo Host Nutanix®:
XenServer
Xen es un monitor de máquina virtual de código abierto desarrollado por la Universidad de Cambridge.
La meta del diseño es poder ejecutar instancias de sistemas operativos con todas sus características, de forma completamente funcional en un equipo sencillo. Usted puede obtener información interesante acerca de «Cómo monitorizar Citrix XenServer con Pandora FMS» en el blog de Pandora FMS.
Xen proporciona aislamiento seguro, control de recursos, garantías de calidad de servicio y migración de máquinas virtuales en caliente. Los sistemas operativos pueden ser modificados explícitamente para correr Xen (aunque manteniendo la compatibilidad con aplicaciones de usuario). Esto permite a Xen alcanzar virtualización de alto rendimiento sin un soporte especial de hardware.
Intel ha realizado diversas contribuciones a Xen que han permitido añadir soporte para sus extensiones de arquitectura VT-X Vanderpool. Esta tecnología permite que sistemas operativos sin modificar actúen como hosts dentro de las máquinas virtuales de Xen, siempre y cuando el servidor físico soporte las extensiones VT de Intel o Pacifica de AMD.
Funcionamiento del plugin XenServer
El plugin Pandora FMS para la monitorización de entornos Xen está escrito en Python. Utiliza XenAPI para recuperar toda la información necesaria. Permite la monitorización de los siguientes tipos de elementos:
- Sistemas virtualizados en Xen.
- Recursos de almacenamiento.
- Propio servidor Xen (host).
Requisitos del plugin XenServer
Es imprescindible que el sistema que ejecute el plugin disponga de los siguientes requisitos:
- Python instalado
- Librerías Python instaladas:
- XenAPI
- xmltodict
- Acceso a la API de su XenServer (web, habilite el tráfico desde el equipo que ejecuta el plugin al puerto 443 o el 80 del XenServer).
- Se recomienda que las máquinas virtuales tengan Xen Server Tools instalada, ya que la información disponible en caso contrario es bastante escasa.
El funcionamiento del plugin se ha probado satisfactoriamente en sistemas XenServer 6.5 y 7.2
Instalación del plugin
Descargue su copia del plugin de Pandora FMS para XenServer de la librería de módulos Puede desplegarlo en el equipo que prefiera (Windows® o Linux®), extrayendo el contenido del archivo en un directorio no volátil desde donde pueda ejecutarlo, ya bien sea utilizando el Agente de Pandora FMS o el cron de sistema.
Configuración del plugin
Configuración disponible para el plugin Pandora FMS para Xen:
Bloque de configuración [CONF]
xen_server_ip
Dirección IP/FQDN del servidor Xen
user
Usuario con permisos de consulta sobre la API de Xen
password
Contraseña del usuario
temporal
Directorio de trabajo temporal
Bloque de configuración [PANDORA]
tentacle_client
Ubicación del binario del cliente de Tentacle
tentacle_ip
Dirección IP donde el servicio Tentacle está escuchando.
tentacle_port
Puerto donde el servicio Tentacle está escuchando.
logfile
Ruta completa al fichero de log
interval
Intervalo de los agentes generados
group
Grupo asignado a los agentes generados.
Bloque de configuración [TUNNING]
time_adjustment
Parámetro que permite el ajuste de las posibles diferencias de tiempo entre el equipo que ejecuta el plugin y el servidor Xen. (por defecto=10, medido en segundos)
scan_vm_ip
Parámetro que permite definir si el plugin tratará de obtener las IPs de las VMs del servidor de Xen. Solo se pueden tomar las IPs de aquellas VMs con las XenTools instaladas. Se puede habilitar (scan_vm_ip=true) o deshabilitar (scan_vm_ip=false). Si no se especifica se considera habilitado.
Bloque de configuración [RENAME]
xen_element_name = pandora_agent_name
En este bloque se pueden definir tantas entradas como se quiera con este formato. Permite cambiar los nombres de los elementos del Xen Server a otros distintos para ser usados como nombres de agentes en Pandora FMS. Se pueden renombrar las VMs, los SRs y el propio Xen Server. Por ejemplo:
[RENAME] example-xen-server=Example Xen Server Example Xen Server 2=example-xen-server-2 example-vm=Example VM Example VM 2=example-vm-2 example-sr=Example SR Example SR 2=example-sr-2**
Aunque los nombres tengan espacios en blanco, no se deben poner comillas.
Ejecución del plugin
Puede programar la ejecución del plugin desde cualquier agente de Pandora FMS, agregando lo siguiente a la configuración del mismo:
module_plugin python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"
Para programarlo a través del cron de sistema puede añadir la línea siguiente a /etc/crontab:
/5 * * * * root python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"> /dev/null 2>&1
Si ejecuta el plugin manualmente la salida debe ser similar a la que sigue:
python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf" <module> <name><![CDATA[XenServer Plugin]]></name> <type><![CDATA[async_string]]></type> <description><![CDATA[Result of XenServer Plugin execution]]></description> <data><![CDATA[OK]]></data> </module>
Resultados del plugin XenServer
Capturas con los resultados obtenidos por el plugin:
Ejemplo de mapa de arquitectura Xen:
Ejemplo de vista de agente de arquitectura Xen:
Ejemplo de vista de módulos para agentes de tipo Host Xen:
OpenNebula
OpenNebula es una plataforma para computación en la nube orientada a centros de datos distribuidos y heterogéneos, proporcionando la infraestructura virtual para construir nubes privadas, públicas, e implementaciones híbridas de infraestructura como servicio (IaaS).
OpenNebula es software open source amparado en la Licencia Apache 2.
Funcionamiento del plugin OpenNebula
El plugin Pandora FMS para la monitorización de entornos OpenNebula está escrito en Perl. Se ejecuta de manera local en el servidor OpenNebula y recuperará toda la información necesaria utilizando los propios comandos de gestión de OpenNebula. Permite la monitorización de los siguientes tipos de elementos:
- Clústeres.
- Hosts.
- Máquinas virtuales.
- Recursos de almacenamiento.
Requisitos del plugin OpenNebula
Es imprescindible que el sistema que ejecute el plugin disponga de los siguientes requisitos:
- Perl disponible en el equipo
- Usuario con privilegios para ejecutar los siguientes comandos:
onehost
.onecluster
.onedatastore
.
El funcionamiento del plugin se ha probado satisfactoriamente en sistemas OpenNebula 5.X.X .
Instalación del plugin
Descargue su copia del plugin de Pandora FMS para OpenNebula de la librería de módulos. Debe extraer el contenido del archivo en un directorio no volátil desde donde pueda ejecutarlo, ya bien sea utilizando el agente de Pandora FMS o el cron de sistema.
unzip pandora_OpenNebula.zip
Configuración del plugin
Configuración disponible para el plugin Pandora FMS para OpenNebula.
Configuración de la comunicación hacia el servidor de Pandora FMS
mode
Modo de transferencia de datos, “local” o “tentacle”.
tentacle_ip
Dirección IP del servidor Pandora FMS, solo aplica en modo tentacle.
tentacle_port
Puerto en el que el servicio Tentacle está escuchando.
tentacle_opts
Cualquier opción extra que haya configurado en su servicio Tentacle.
tentacle_client
Ruta completa a su cliente Tentacle.
temp
Directorio de trabajo temporal.
local_folder
Ruta de entrega para el modo de transferencia de datos “local”.
Configuración del Agente
agent_interval
Intervalo del agente, por defecto 300.
agent_group
Grupo del Agente, por defecto OpenNebula.
Personalización de los Módulos
MODULE_GROUP
Grupo de los módulos, por defecto OpenNebula.
MODULE_INTERVAL
Intervalo de los módulos (multiplicador), por defecto 1.
MODULE_TAGS
Etiquetas para los Módulos.
Personalización de nombres
cluster_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo clúster.
host_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo servidor de máquinas virtuales.
storage_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo dispositivo de almacenamiento.
vm_agent_header
Cabecera para el nombre del Agente de dispositivos de tipo máquina virtual.
Filtros
cluster_monitoring
Habilitar (1) o no (0) la monitorización de clústeres.
host_monitoring
Habilitar (1) o no (0) la monitorización de servidores de máquinas virtuales.
storage_monitoring
Habilitar (1) o no (0) la monitorización de dispositivos de almacenamiento.
vm_monitoring
Habilitar (1) o no (0) la monitorización de máquinas virtuales
Renombrado de entidades
RENAME aaa TO bbb
Regla para el renombrado de entidades, puede definir tantas directivas como elementos necesite renombrar.
Exclusión de entidades
REJECT aaa
Regla para la exclusión de monitorización de entidades, puede definir tantas directivas como elementos necesite excluir.
Ejecución del plugin
Para programarlo a través del cron de sistema puede añadir la línea siguiente a /etc/crontab:
/5 * * * * root "<ruta>/pandora_opennebula" "<ruta>/pandora_opennebula.conf"> /dev/null 2>&1
Si ejecuta el plugin manualmente la salida debe ser similar a la que sigue:
[[email protected] ~]# ./pandora_opennebula pandora_opennebula.conf [[email protected] ~]# echo $? 0
Resultados del plugin OpenNebula
Lista de módulos generados por el plugin OpenNebula:
Para Hosts:
- Available CPU
- Available Disk
- Available memory
- Error reported by OpenNebula
- State
- Total zombies
- VMs running
Para dispositivos de almacenamiento:
- Disk Free %
Para máquinas virtuales:
- Assigned CPU
- Assigned Memory
- Network RX
- Network TX
- State
- Time running
Ejemplo de mapa de arquitectura OpenNebula:
IBM HMC
Este plugin permite monitorizar equipos de virtualización IBM AIX a través de la consola de administración de hardware HMC. Este plugin recolectará información de todas las particiones lógicas creadas en un entorno AIX administrado por un sistema HMC, creando un Agente por cada servidor administrado, cada partición lógica y cada servidor IO virtual.
Para recoger la información vía SSH, el plugin puede utilizar tres modos de trabajo:
- Basado en expect utilizando el
script ssh_launcher.sh
. - Basado en la librería
Net::SSH::Perl
- Basado en la librería
Net::SSH::Expect
Para complementar la información capturada también se realizarán consultas contra la API REST, por defecto en:
https://fqdn:12443/rest/api/{root_element}
Requisitos
Los parámetros necesarios que tiene que proporcionar el área que requiere los servicios de monitorización son:
- Nombre de usuario para autenticarse en el sistema HMC (solo lectura).
- El usuario debe tener permiso para poder conectarse a la API REST y para hacer login en la shell del HMC y ejecutar los siguientes comandos (como mínimo):
- lssyscfg
- lshwres
- Contraseña de dicho usuario.
- Ubicación (FQDN/IP) del HMC (p.e.
myhmc.mydomain
) - URL base de la API rest del HMC, por ejemplo:
https://myhmc.mydomain:12443
Módulos generados por el plugin
Los parámetros que monitoriza el plugin son (agrupados por tipo de elemento):
- Current logical partitions
- Max logical partitions
- Max memory available
- Max memory installed
- Proc pool DefaultPool current proc units
- Proc pool DefaultPool max proc units
- Proc pool DevelopmentPool current proc units
- Proc pool DevelopmentPool max proc units
- Proc pool ProductionPool current proc units
- Proc pool ProductionPool max proc units
- Proc pool TestPool current proc units
- Proc pool TestPool max proc units
- Proc pool VIOPool current proc units
- Proc pool VIOPool max proc units
- Processor pools configured
- Processor units available
- Processor units installed
- State
- UUID
- Virtual proc units max
LPAR:
- Auto start : Configuración de particiones lógicas autoinicio.
- LPAR type : Tipo de partición lógica.
- LPAR UUID : Usado para consultar los HMC API.
- Max memory : Memoria máxima.
- Max memory : Memoria disponible.
- Processor units available : Unidades de procesamiento disponibles.
- Processor units current : Unidades de procesamiento instaladas
- RMC IP address : Dirección IP RMC.
- RMC state : Estado del RMC en LPAR
- State : Estado de la partición lógica.
- Virtual proc units : Unidades de procesamiento virtual asignadas a este LPAR.
Virtual IO:
- Auto start : Configuración de particiones lógicas autoinicio.
- LPAR type : Tipo de partición lógica.
- LPAR UUID : Usado para consultar los HMC API.
- Max memory : Memoria máxima.
- Max memory current : Memoria disponible.
- Processor units available: Unidades de procesamiento disponibles
- Processor units current : Unidades de procesamiento instaladas
- RMC IP address : Dirección IP RMC.
- RMC state RMC : Estado del RMC en LPAR.
- State : Estado de la partición lógica.
- Virtual proc units : Unidades de procesamiento virtual asignadas a este LPAR.
Configuración del plugin IBM HMC
Configuración disponible para el plugin Pandora FMS para IBM HMC:
Configuración de la comunicación hacia el servidor de Pandora FMS
mode
Modo de transferencia de datos, “local” o “tentacle”.
tentacle_ip
Dirección IP del servidor Pandora FMS, solo aplica en modo tentacle.
tentacle_port
Puerto en el que el servicio tentacle está escuchando.
tentacle_opts
Cualquier opción extra que haya configurado en el servicio tentacle.
tentacle_client
Ruta completa a su cliente tentacle.
temp
Directorio de trabajo temporal.
local_folder
Ruta de entrega para el modo de transferencia de datos “local”.
Configuración de acceso a HMC
hmc_host
IP o FQDN de la HMC
hmc_user
Usuario con permiso de lectura
hmc_pass
Contraseña
as_agent_plugin
La salida del plugin se devolverá en formato XML para ejecuciones programadas con el Agente de Pandora FMS ( as_agent_plugin = 1
). O salida estándar ( as_agent_plugin = 0
) para ejecuciones programadas con el cron de sistema o realizadas como plugin de servidor.
Configuración del agente
agent_name
Opcional, indicar un nombre para el Agente padre, por defecto `hostname`
agent_interval
Intervalo del Agente, por defecto 300.
agent_group
Grupo del Agente, por defecto IBM
Personalización de los módulos
module_group
Grupo de los Módulos, por defecto IBM.
module_interval
Intervalo de los Módulos (multiplicador), por defecto 1.
module_tags
Etiquetas para los módulos
Renombrado de entidades
Para el renombrado de entidades se utiliza un renombrado por bloque:
rename MyLPAR_NAME TO my new name MyLPAR_NAME2 TO my second new name rename_end
Ejecución del plugin IBM HMC
El plugin de Pandora FMS para la monitorización de sistemas IBM AIX a través de HMC se despliega de la siguiente manera:
Configurando el parámetro as_agent_plugin a 1 (ejecución como plugin de agente):
module_plugin /usr/bin/perl pandora_hmc.pl pandora_hmc.conf
Configurando el parámetro as_agent_plugin a 0 (ejecución como plugin de servidor):
# /etc/crontab */5 * * * * root /usr/bin/perl /root/hmc/pandora_hmc.pl /root/vmware/pandora_hmc .conf
HPVM
La virtualización de máquinas provista por Hewlett-Packard® permite correr concurrentemente múltiples máquinas virtuales en cualquier servidor Itanium® corriendo HP-UX®. Es un producto optimizado para servidores.
Funcionamiento del plugin HPVM
Este plugin permite monitorizar equipos de virtualización HPVM. Se lanza como un plugin de Agente, generando en paralelo un agente más por cada equipo virtualizado alojado en el sistema monitorizado.
Para recoger la información se utilizan comandos locales.
Requisitos del plugin HPVM
Verifique cada uno de los siguientes pasos:
- Desplegar un Agente de Pandora FMS en el equipo que se desee monitorizar.
- Disponer de un usuario con permisos para ejecutar el plugin
- Este usuario debe disponer de permisos para ejecutar el comando
hpvmstatus
para poder interpretar la salida:
hpvmstatus
.hpvmstatus -X
.hpvmstatus -r -X
.
Instalación del plugin HPVM
Descargue su copia del plugin de Pandora FMS para HPVM HP Virtualization Manager monitoring de la librería de módulos. Puede programar la ejecución utilizando colecciones y el Agente de Pandora FMS desplegado o bien extraer el contenido del archivo en un directorio no volátil desde donde pueda ejecutarlo a través del cron de su sistema.
unzip pandora_HPVM.zip
Configuración del plugin HPVM
Configuración disponible para el plugin Pandora FMS para HPVM.
Configuración de la comunicación hacia el servidor de Pandora FMS
mode
Modo de transferencia de datos, “local” o “tentacle”.
tentacle_ip
Dirección IP del servidor Pandora FMS, solo aplica en modo tentacle.
tentacle_port
Puerto en el que el servicio Tentacle está escuchando.
tentacle_opts
Cualquier opción extra que haya configurado en su servicio Tentacle.
tentacle_client
Ruta completa a su cliente Tentacle.
temp
Directorio de trabajo temporal.
local_folder
Ruta de entrega para el modo de transferencia de datos “local”.
Configuración del Agente
agent_name
Opcional, indicar un nombre para el Agente padre, por defecto hostname
agent_interval
Intervalo del Agente, por defecto 300.
agent_group
Grupo al que pertenecerán los agentes, por defecto HPVM.
Personalización de los módulos
module_group
Grupo de los Módulos.
module_interval
Intervalo de los Módulos (multiplicador), por defecto 1.
module_tags
Etiquetas para los Módulos.
Ejecución del plugin
Ejecutando el plugin desde el Agente de Pandora FMS, aparecerá en el fichero de configuración del Agente:
module_plugin /usr/bin/perl pandora_hpvm.pl pandora_hpvm.conf
Para una prueba manual, configure el plugin siguiendo los pasos descritos, puede lanzarlo como sigue:
perl pandora_hpvm.pl pandora_hpvm.conf
Resultados del plugin HPVM
Lista de Módulos generados por el plugin por tipo de elemento.
Agentes del servidor:
- Available VMs : Máquinas virtuales disponibles.
- HPVM Plugin : Estado de ejecución del plugin HPVM.
- HPVM Service : Presencia de hpvmctrld (X instancias).
- HPVM Service CPU usage CPU : Uso de CPU del hpvmctrld (X instancias).
- HPVM Service RAM : Uso de RAM del hpvmctrld (X instancias).
- hpvmapp : Presencia de hpvmapp (X instancias).
- hpvmapp CPU : Uso de CPU del hpvmapp (X instancias).
- hpvmapp RAM : Uso de RAM del hpvmapp (X instancias)
Máquinas virtuales:
- boot_type
- console_type
- CPU usage
- device_number
- direct_io_number
- distributed
- effective_serverid
- guest_type
- Host RAM available
- Host RAM free
- local_id
- memory total
- model_name
- networks_number
- run_pid
- run_serverid
- serial_number
- uuid
- vcpu_number
- vm_condition
- vm_config_label
- vm_config_version
- vm_state
- vm_version
- vm_version_label