Tabla de Contenidos

Monitorización de entornos Virtuales

Monitorización de entornos virtuales

Los entornos virtuales tienen una gran importancia en las arquitecturas IT de todas las empresas y por ello su monitorización es esencial. Con Pandora FMS Enterprise podrá tener acceso a Amazon EC2, VMware, RHEV, Nutanix, XenServer, OpenNebula, IBM HMC, HPVM.

Amazon EC2

Para monitorizar EC2 en entornos Enterprise, por favor, diríjase a Discovery

Esta guía corresponde al componente OpenSource para la monitorización de EC2.

Esta monitorización específica utiliza el CloudWatch API para monitorizar sus instancias en el servicio Amazon EC2. Necesita tener Cloudwatch habilitado en su instancia. Puede obtener el plugin gratuito en la sección de la librería de módulos.

La idea principal de este plugin de servidor remoto es obtener información de sus instancias utilizando el servidor de plugin de Pandora FMS. Esto significa que necesitará registrar el plugin en el servidor y configurar los diferentes Módulos para que recuperen la información de sus servidores EC2.

Ejemplo de la ejecución utilizando el conector \>

 /home/slerena/ec2_plugin.sh \
          -A AKIAILTVCAS26GTKLD4A \
          -S CgmQ6DxUWES05txju+alJLoM57acDudHogkLotWk \
          -i i_9d0b4af1 \
          -n AWS/EC2 \
          -m CPUUtilization

Devolverá un valor numérico (porcentaje) de la métrica CPUUtilization en la instancia i_9d0b4af1.

Para la instalación necesita:

1. Tener disponible JAVA en su servidor Pandora FMS con su correspondiente directorio JAVAHOME.

2. Copiar este plugin a una ruta y fijar los permisos en 755, configurar la ruta base en la variable AWS_CLOUDWATCH_HOME que está presente en las primeras líneas del plugin. Debe editar las primeras líneas del plugin.

El plugin tiene varios ficheros:

/ec2_plugin.sh - El plugin en sí. /bin/* - Componentes de Amazon CloudWatch (Monitoring) Command Line Tools, incluidos en este paquete. Estos scripts están distribuidos bajo la Licencia Apache.

Ubique el paquete completo en un directorio accesible por el servidor; por ejemplo:

/usr/share/pandora_server/plugin/ec2 

Y fije el AWS_CLOUDWATCH_HOME en /usr/share/pandora_server/plugin/ec2.

Para confirmar la instalación ejecute:

/usr/share/pandora_server/plugin/ec2/mon-cmd --version 

Debería devolver algo similar a:

Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01) 

Si obtiene la misma cadena, entonces ya está listo para utilizar el plugin.

Si no, probablemente necesitará instalar y configurar adecuadamente a continuación las herramientas de línea de comandos del Amazon CloudWatch (monitorización).

Instalación

Requisitos:

  • Asegúrese de tener instalada en su sistema la versión de Java 1.5 o superior, ejecute para ello:
java -version
  • Descomprima el fichero .zip de despliegue.
  • Fije las siguientes variables de entorno:
    • AWS_CLOUDWATCH_HOME - El directorio donde se copiaron los ficheros de despliegue para chequearlos con:
 Unix: ls ${AWS_CLOUDWATCH_HOME}/bin (should list mon-list-metrics ...)
 Windows: dir %AWS_CLOUDWATCH_HOME%\bin (should list mon-list-metrics ...)
  • JAVA_HOME - Directorio Home de la instalación de Java.
  • Añada a la ruta predeterminada (path) lo siguiente:
${AWS_CLOUDWATCH_HOME}/bin
  • En Windows:
%AWS_CLOUDWATCH_HOME%\bin

Configuración

Establezca sus credenciales AWS de usuario en la herramienta de línea de comandos. Existen dos maneras para proporcionar las credenciales:

  1. Las contraseñas AWS.
  2. Utilizando los certificados X.509.

Utilización de Contraseñas AWS

Puede especificar de manera explícita las credenciales en la línea de comando:

  1. -I ACCESS_KEY –S SECRET_KEY

También puede crear un fichero de credencial. El despliegue incluye un fichero de plantilla:

${AWS_CLOUDWATCH_HOME}/credential-file-path.template.

Debe editar una copia de este fichero para añadir su información. En UNIX también pasa por limitar los permisos para el propietario del fichero de credenciales ( credential-file ):

$ chmod 600 <credential-file>.

Una vez creado el archivo referencie así:

  • Fije la siguiente variable de entorno al mismo:
export AWS_CREDENTIAL_FILE=<credential-file>
  • También puede proporcionar la siguiente opción con cada comando:
  1. -aws-credential-file <credential-file>

Utilización de certificados X.509

Grabe el certificado y contraseña privadas en los ficheros: my_cert.pem y my-pk.pem.

Existen dos modos de proporcionar la información certificada a la línea de comandos:

*Fije las siguientes variables de entorno:

 EC2_CERT=/path/to/cert/file
 EC2_PRIVATE_KEY=/path/to/key/file

*Especifique los ficheros directamente en la línea de comandos para todos los comandos:

 <command> \
      --ec2-cert-file-path=/path/to/cert/file \
      --ec2-private-key-file-path=/path/to/key/file

Instalación de las propiedades de JVM

Al fijar la variable de entorno SERVICE_JVM_ARGS, podrá pasar arbitrariamente las propiedades JVM a la línea de comando.

Por ejemplo, la siguiente línea fija las propiedades en Linux/UNIX

export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"

Puesta en marcha

Compruebe que su instalación funcione correctamente ejecutando el siguiente comando:

 $ mon-cmd --help

Debería ver la página de uso para todos los comandos de monitorización.

 $ mon-list-metrics --headers

Debería ver también una línea de cabecera. Si tiene alguna métrica definida, debería aparecer también.

VMware

Versión Enterprise.

Con Pandora FMS Enterprise podrá tener acceso a VMware Monitoring Plugin, un plugin que permite tener bajo control la arquitectura virtual VMware de forma sencilla.

Arquitectura VMware a monitorizar

Con este sistema se pueden monitorizar arquitecturas como la que se muestra en el siguiente esquema:

Pandora FMS puede monitorizar VCenter, servidores ESXi, y los componentes que virtualizan: Datastores y Máquinas Virtuales. Pandora FMS se apoya en el API que proporciona el SDK de VMware® para Perl para la recolección de datos.

Monitorización con Discovery Application VMware

Siga los pasos descritos en Discovery para monitorizar su infraestructura VMware®.

Requisitos del plugin VMware

Los requisitos para el funcionamiento de la tarea de monitorización de VMware® son los siguientes:

  • Pandora FMS v7.0NG.732 o superior.
  • VMware vSphere® SDK para lenguaje Perl.

En la ISO de Pandora FMS tiene disponibles todos los componentes necesarios para monitorizar VMware®.

Configuración del vCenter para la monitorización

Discovery Applications VMware hace uso de las métricas que proporciona la API de los vCenter® y ESXi VMware®. La disponibilidad de estas métricas depende de los niveles configurados para recolección de estadísticas.

Estos niveles se pueden cambiar en el menú vCenter Server Settings y en la opción Statistics. Para cada opción de tiempo y cada nivel obtendrá la descripción de los contadores que recolecta el vCenter. El nivel mínimo para monitorizar con el plugin de Pandora FMS es el Nivel 2.

Dependiendo de la configuración del vCenter, es posible que algunos módulos no reporten datos en Pandora FMS. Esto puede ser porque:

  • Falte instalar algún plugin en el vCenter.
  • Sea necesario instalar un agente VMware® (vmware-tools) en la entidad.
  • Simplemente porque la entidad esté apagada (máquina virtual o ESXi).

Para solucionar estos problemas deberá consultar la documentación de VMware.

Algunas soluciones, como por ejemplo, la monitorización del estado del hardware (Hardware Status), podrían requerir una configuración avanzada tanto del vCenter como de los host que soportan los ESX.

Despliegue de la monitorización de VMware

A partir de la versión 732 de Pandora FMS, la monitorización de VMware se realiza utilizando el sistema Discovery Applications (más información en Discovery VMware).

Si por algún motivo en particular se desea configurar manualmente el plugin fuera de esta funcionalidad, puede utilizar el modo clásico descrito a continuación.

En la imagen ISO de Pandora FMS el plugin de VMware®, junto con las extensiones, viene preinstalado. Si requiere desplegar o actualizar su versión del plugin de VMware® por una más reciente, por favor siga los pasos descritos en los puntos siguientes:

Despliegue manual del plugin

1.- Acceda al directorio en el que se han extraído los ficheros del plugin VMWare®.

2.- Copie vmware-plugin.{pl,conf} al directorio correspondiente.

 sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/
 sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf}
 sudo chmod g+w /usr/share/pandora_server/util/plugin/vmware-plugin.conf

3.- Verifique los datos necesarios para configurar el plugin.

En el menú "Configuración" de la consola de Pandora FMS asigne una contraseña a la API, así como los orígenes permitidos.

vmware_api_settings.jpg

4.- Edite el fichero de configuración vmware-plugin.conf.

5.- Verifique la disponibilidad de VMware® SDK para Perl.

Puede lanzar un script con el siguiente contenido para validar su instalación de VMware® SDK Perl

 #!/usr/bin/perl

 use strict;
 use warnings;

 use VMware::VIRuntime;

 print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Ejecute el script:

perl check_vmware.pl

La salida debe ser similar a la siguiente:

VMware SDK Version: 6.5.0

Verifique que la versión del SDK es mayor o igual que la versión de sus productos VMware®.

A partir de la versión 717 del plugin para VMware® también necesitará instalar la librería Perl PluginTools.pm, (disponible junto con el servidor en /usr/lib/perl5/PandoraFMS) en el equipo donde quiera desplegarlo (copiar a /usr/lib/perl5/PandoraFMS en el equipo que vaya a ejecutar el plugin).

Instalación de VMware vSphere SDK para Perl

La URL del centro de descargas para el software VMware® requerido es:

https://my.vmware.com/web/vmware/details?downloadGroup=VS-PERL-SDK65&productId=614

Si ha instalado Pandora FMS utilizando el appliance (ISO Centos) no es necesario instalar software adicional, siempre y cuando la versión a monitorizar de VMware® sea inferior a 6.5.

Instalación SDK Linux

Las versiones del SDK probadas con este proceso de instalación han sido la 4.1, 5.1, 6.0 y 6.5

Siempre se recomienda utilizar la versión SDK con su correspondiente versión de software VMware®. Por ejemplo, se recomienda utilizar el software 4.1 VMware® con la versión 4.1 del SDK.

Primero descomprima el SDK con el siguiente comando:

# tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz

Ahora compile e instale el SDK con los siguientes comandos:

 # perl Makefile.PL
 # make
 # make install

Si la instalación fue correcta y no se mostró ningún error podrá conectar con el vCenter® con el siguiente comando usando el conector de líneas \>

 # /usr/lib/vmware-viperl/apps/general/connect.pl \
      --server <vcenter_ip> \
      --username <vcenter_user> \
      --password <vcenter_pass>

La respuesta debería ser similar a la que aparece a continuación:

 Connection Successful
 Server Time : 2013-02-21T16:24:05.213672Z

Actualización SDK a 6.5 desde otras versiones

Si está realizando una actualización del SDK de VMware®, siga los siguientes pasos:

  • Instale las herramientas para desarrolladores:
yum groupinstall "Developer Tools"
  • Instale CPAN:
yum install perl-CPAN
  • Instalar algunas dependencias:
 yum install openssl-devel perl-Class-MethodMaker
 yum install epel-release
  • Descomprimir los archivos de instalación de VMware® SDK Perl:
tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz
  • Acceda al directorio:
cd vmware-vsphere-cli-distrib
  • Lance el instalador:
./vmware-install.pl

Para CentOS 8 también deberá seguir los siguientes pasos:

# Enable epel repo: 
yum install epel-release
# Enable powertools: 
yum install dnf-utils
yum config-manager --set-enabled PowerTools
# Note: For centos 8 install custom made RPMs from Artica repo: 
`yum install http://firefly.artica.es/centos8/perl-Crypt-SSLeay-0.73_07-1.gf.el8.x86_64.rpm` before install SDK
# Install the vmware SDK -- Custom RPM 6.5:
`yum install http://firefly.artica.es/centos8/VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.rpm`

Durante la instalación:

  • Acepte la licencia.
  • Indique no utilizar los módulos preconstruidos para VMware® SDK.
  • Acepte la instalación automática de los módulos a través del sistema automatizado por CPAN.
  • Verifique que todos los requisitos se han instalado correctamente.
  • Indique el directorio donde se deberán instalar los módulos de VMware® SDK Perl

Nota: En ocasiones el paquete Perl UUID puede generar errores al instalarse en CentOS 7. Realice los pasos siguientes para agregar el componente:

  • Instale las dependencias necesarias para UUID-0.03:
yum install libuuid-devel perl-JSON-PP
  • Descargue el paquete de código:
wget https://cpan.metacpan.org/authors/id/C/CF/CFABER/UUID-0.03.tar.gz
  • Descomprima el fichero y acceda al directorio:
 tar xvzf UUID-0.03.tar.gz
 cd UUID-0.03
  • Genere los archivos necesarios para la compilación del módulo Perl:
perl Makefile.PL
  • Compile el módulo Perl:
make
  • Deberá recibir una respuesta similar a:
Manifying blib/man3/UUID.3pm
  • Instale el nuevo módulo compilado:
make install

Una vez instalados los módulos pendientes vuelva a ejecutar el proceso de instalación de VMware® SDK Perl:

./vmware-install.pl

Nota: el desinstalador de VMware® no elimina completamente las librerías de módulos VMware previas.

Verifique que las librerías se han instalado correctamente en /usr/lib/vmware-vcli/VMware/share/ antes de continuar

Debe realizar los siguientes pasos manualmente:

  • Limpiar librerías antiguas.
 rm -rf /usr/share/perl5/vendor_perl/VMware
 rm -rf /usr/share/perl5/VMware
  • Agregar las nuevas librerías VMware®
cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/

Una vez hecho esto puede lanzar un script con el siguiente contenido para validar su instalación de VMware® SDK Perl

 #!/usr/bin/perl
 
 use strict;
 use warnings; 
 
 use VMware::VIRuntime;
 
 print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Ejecute el script:

perl check_vmware.pl

La salida debe ser la siguiente:

VMware SDK Version: 6.5.0

Si la salida es diferente, por favor verifique que ha seguido todos los pasos correctamente o póngase en contacto con soporte en https://support.pandorafms.com/integria/

Las dependencias SDK para CentOS 7 y CentOS 8 son:

 gdbm-devel
 glibc-devel
 glibc-headers
 kernel-headers
 libdb-devel
 libuuid-devel
 make
 openssl
 perl-Business-ISBN
 perl-Business-ISBN-Data
 perl-Class-Inspector
 perl-Class-MethodMaker
 perl-Convert-BinHex
 perl-Crypt-SSLeay  
 perl-Digest
 perl-Digest-MD5
 perl-Email-Date-Format
 perl-Encode-Locale
 perl-ExtUtils-Install
 perl-ExtUtils-MakeMaker
 perl-ExtUtils-Manifest
 perl-ExtUtils-ParseXS
 perl-File-Listing
 perl-HTML-Parser
 perl-HTML-Tagset
 perl-HTTP-Cookies
 perl-HTTP-Daemon
 perl-HTTP-Date
 perl-HTTP-Message
 perl-HTTP-Negotiate
 perl-IO-HTML
 perl-IO-SessionData
 perl-IO-Socket-IP
 perl-IO-Socket-SSL
 perl-JSON-PP
 perl-LWP-MediaTypes
 perl-LWP-Protocol-https
 perl-MIME-Lite
 perl-MIME-Types
 perl-MIME-tools
 perl-MailTools
 perl-Mozilla-CA
 perl-Net-HTTP
 perl-Net-LibIDN
 perl-Net-SMTP-SSL
 perl-Net-SSLeay
 perl-SOAP-Lite
 perl-Test-Harness
 perl-TimeDate
 perl-URI
 perl-WWW-RobotRules
 perl-XML-LibXML
 perl-XML-NamespaceSupport
 perl-XML-Parser
 perl-XML-SAX
 perl-XML-SAX-Base
 perl-devel
 perl-libwww-perl
 pyparsing
 systemtap-sdt-devel
 glibc
 glibc-common
 libblkid
 libmount
 libsmartcols
 libuuid
 util-linux

Para CentOS 8 instale los RPMs perl-Crypt-SSLeay del repositorio de Artica:

yum install `http://firefly.artica.es/centos8/perl-Crypt-SSLeay-0.73_07-1.gf.el8.x86_64.rpm`

Puede instalar las dependencias extras para plugin con el siguiente comando:

`yum install perl-Archive-Zip perl-JSON`

Puede instalar las dependencias de cifrado de contraseña con el siguiente comando:

`yum install openssl-devel perl-Crypt-CBC perl-Digest-SHA`

Puede descargar los RMPs personalizados de perl-Crypt-OpenSSL-AES desde el repositorio de Artica:

  • Para CentOS 7.
`yum install https://sourceforge.net/projects/pandora/files/Tools%20and%20dependencies%20%28All%20versions%29/RPM%20CentOS%2C%20RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el7.x86_64.rpm`
  • Para CentOS 8.
`yum install https://sourceforge.net/projects/pandora/files/Tools%20and%20dependencies%20%28All%20versions%29/RPM%20CentOS%2C%20RHEL/perl-Crypt-OpenSSL-AES-0.02-1.el8.x86_64.rpm`
Instalación SDK sobre Windows

La versión de PERL que se distribuye con el vSphere® SDK no funciona con las librerías de VMware® para PERL. Para solucionar este problema siga los siguientes pasos:

%ProgramFiles%\VMware\VMware vSphere CLI\Perl\lib\VMware

a

C:\strawberry\perl\lib
  • Desinstale el VMware vSphere® SDK.

Configuración del plugin VMware

Puede configurar el plugin de VMware® manualmente o utilizando la extensión para consola disponible junto con los archivos descargables del plugin de VMware®.

Configurando el plugin manualmente

Se recomienda utilizar la extensión disponible en la Consola de Pandora FMS para administrar las múltiples configuraciones del plugin de VMware®.

Puede editar manualmente el fichero de configuración; recuerde que las líneas que empiezan por # serán interpretadas como comentarios.

El archivo de configuración del plugin de monitorización de entornos VMware® contiene los siguientes elementos generales:

server

FQDN o IP del servidor VMware® a monitorizar.

user

Usuario con permisos en vCenter®.

pass

Contraseña del usuario.

datacenter

Nombre del datacenter (por defecto: ha-datacenter).

temporal

Directorio de trabajo temporal, por defecto: /tmp

logfile

Archivo de log, por defecto /tmp/vmware_plugin.log

entities_list

Archivo de entidades a monitorizar, por defecto /tmp/vmware_entitites_list.txt

transfer_mode

Modo de transferencia de XML a Pandora, por defecto local.

tentacle_ip

Dirección del servidor de Pandora FMS, por defecto 127.0.0.1

tentacle_port

Puerto para comunicaciones Tentacle, por defecto 41121.

tentacle_opts

Opciones extra para Tentacle remoto

local_folder

En transferencia local, carpeta de destino para los XML de informe /var/spool/pandora/data_in

pandora_url

Dirección web de la consola de Pandora FMS, por defecto http://127.0.0.1/pandora_console.

api_pass

Contraseña de la API de la consola de Pandora FMS.

api_user

Usuario con acceso a la API de Pandora FMS.

api_user_pass

Contraseña del usuario con acceso a la API.

retry_send

Reintentar ( 1 ) o no ( 0 ) el envío de XML en caso de error (similar a buffer_xml).

event_mode

Recuperar información ( 1 ) de eventos de VMware o no ( 0 ).

event_pointer_file

Archivo de índices auxiliar para eventos VMware, por defecto /tmp/vmware_events_pointer.txt

Virtual network monitoring

Incluir la monitorización de switches virtuales

Encrypt passwords

Usar contraseñas encriptadas en el fichero de configuración.

verbosity

Nivel de debug (recomendado 1 ).

threads

Número máximo de hilos a utilizar (recomendado 4 ).

interval

Intervalo en segundos de los agentes y módulos que se generarán (ajustar conforme a la frecuencia de ejecución del plugin).

Recon Interval

Intervalo en segundos tras el que se auto eliminará el fichero temporal de caché de entidades para re-explorar la infraestructura VMware® de nuevo.

group

Servers Grupo de destino de los agentes generados por el plugin.

virtual_network_monitoring

Habilita ( 1 ) o deshabilita ( 0 ) la monitorización de switches virtuales (estándar).

use_ds_alias_as_name

Habilita ( 1 ) o deshabilita ( 0 ) el uso de un alias como nombre de Agente en agentes de almacenamiento de datos.

Server, datacenter, user, pass e interval pueden ser ajustados desde la consola de Pandora.

Si está usando Pandora FMS 5.0 o una versión superior y desea usar las extensiones del plugin o la monitorización de eventos, deberá configurar correctamente el API de Pandora FMS. Para ello deberá añadir una contraseña del API y dar acceso a las direcciones pertinentes en la lista de acceso al API. Estos campos se definen en la configuración general de la Consola de Pandora FMS.

El usuario que utilizará junto a la contraseña de la API debe tener permisos de lectura y escritura a fin de grabar los eventos. Además recuerde incluir los Agentes Datacenter en el plan de monitorización ya que los eventos para la Consola se originan en estos Agentes.

Configurando la monitorización VMware

Siga los pasos descritos en VMware Discovery para configurar la monitorización de su infraestructura VMware® a través de Discovery.

Ejecución del plugin VMware

Para comprobar el funcionamiento de su configuración puede ejecutar:

 perl \
    /usr/share/pandora_server/util/plugin/vmware-plugin.pl \ 
    /usr/share/pandora_server/util/plugin/vmware-plugin.conf

Nota:

  • Para VMware SDK 6.5.0, si recibiera la siguiente salida durante la ejecución del plugin:
Server version unavailable at 'https://your_vmwre_fqdn:443/sdk/vimService.wsdl' at /usr/local/lib64/perl5/VMware/VICommon.pm line 734.

La solución recomendada es ajustar las versiones de las librerías LWP de Perl:

cpan install GAAS/libwww-perl-5.837.tar.gz

Se recomienda encarecidamente el utilizar Discovery Applications VMware para monitorizar su infraestructura.

Programar la ejecución desde el Agente de Pandora FMS

Para utilizar el Agente de Pandora FMS debe copiar vmware-plugin.{pl,conf} en un punto accesible por el Agente de Pandora FMS:

  sudo cp \
    /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} \
    /etc/pandora/plugins/

Para crear un fichero de configuración

vmware-plugin-events.conf

copie vmware-plugin.conf y modifique manualmente event_mode a 1.

Ahora debe añadir un nuevo Módulo de tipo plugin al archivo de configuración del Agente con la siguiente línea:

 module_plugin perl \
     /etc/pandora/plugins/vmware-plugin.pl \ 
     /etc/pandora/plugins/vmware-plugin.conf

Si además desea realizar la copia de los eventos, debe crear otro Módulo plugin con un archivo de configuración diferente que habilite la copia de eventos. La sintaxis es la siguiente:

 module_plugin perl \
    /etc/pandora/plugins/vmware-plugin.pl \
    /etc/pandora/plugins/vmware-plugin-events.conf

En sistemas Windows® es necesario especificar el intérprete usado:

module_plugin perl "%ProgramFiles%\pandora_agent\util\vmware-plugin.pl" "%ProgramFiles%\pandora_agent\util\vmware-plugin.conf"

En las siguientes secciones se explica en detalle los parámetros del archivo de configuración del plugin.

El plugin de VMware puede requerir mucho tiempo de ejecución debido al número de entidades registradas.

Recomendamos la monitorización a través de Discovery para que sea el propio DiscoveryServer quien se encargue de estas tareas.

Si decide monitorizarlo de otra manera, podría ser necesario distribuir la carga entre varios Agentes Software de Pandora FMS o elegir otro modo de programación. Toda la información al respecto está en las siguientes secciones

Programar la ejecución desde el cron de sistema

Puede programar la ejecución del plugin desde el propio cron de sistema. Recuerde que el valor de intervalo de los elementos generados ( interval en la configuración) y la periodicidad de ejecución deben ser coherentes:

  • /10 * * * * root perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf

El ejemplo anterior ilustra la línea a agregar a crontab. Configure un intervalo de 600 para utilizar esta configuración

Monitorización de la arquitectura virtual VMware

Para ver el resultado de la ejecución del plugin acceda al submenú Agent Detail, dentro del menú Views.

En esta vista aparecerán los Agentes creados por el plugin junto con los demás Agentes de Pandora FMS.

vmware_agent_detail.jpg

Si pulsa en el nombre de un Agente verá la vista de Agente de Pandora FMS, donde aparecerán los Módulos monitorizados por el plugin VMware®.

agent_detail_screen.jpg

Por defecto, el plugin despliega una monitorización básica para cada uno de los elementos VMware®.

Monitorización por defecto para Datacenter
  • Ping
  • Check 443 port
Monitorización por defecto para Datastore
  • Capacity
  • Free Space
  • Disk Overallocation
  • Free Space Bytes
Monitorización por defecto defecto para ESXi
  • CPU Usage
  • Memory Usage
  • Data received
  • Data transmitted
  • Disk Read Latency
  • Disk Write Latency
  • Host Alive
  • Disk Rate
  • Net Usage
Monitorización por defecto para máquinas virtuales
  • CPU Usage
  • Memory Usage
  • Tools Running Status
  • Host Alive
  • Disk Free
  • Disk Read Latency
  • Disk Write Latency
  • Data received
  • Data transmitted
  • Net Usage

En la siguiente sección se explican con detalle todos los Módulos disponibles y la información que reporta cada uno de ellos.

Módulos de agentes de la arquitectura virtual VMware

Algunos Módulos podrían no estar disponibles, dependiendo de la versión de VMware® y de la configuración del entorno. En las siguientes tablas se describen los diferentes módulos disponibles y sus características de disponibilidad.

El plugin permite configurar Performance Counters personalizados para los hosts ESX y máquinas virtuales. Podrá ver cómo hacerlo en la sección que detalla el contenido del archivo de configuración.

Módulos para agentes del tipo Datacenter
Módulo Descripción Versión API Disponibilidad
Ping Chequeo ping a la máquina que soporta el vCenter Todas Siempre
Check 443 port Chequeo al puerto 443 de la máquina que soporta el vCenter Todas Siempre
Módulos para agentes del tipo Datastore
Módulo Descripción Versión API Disponibilidad
Capacity Capacidad máxima del Datastore en bytes Todas Siempre
Free Space Porcentaje de espacio libre del Datastore Todas Siempre
Disk Overallocation Porcentaje de sobre asignación del disco ≥v4.0 Siempre
Free Space Bytes Cantidad de espacio libre en bytes Todas Siempre
Módulos para agentes del tipo host ESXi
Módulo Descripción Versión API Disponibilidad
Boot Time Última fecha en la que se encendió el host Todas Siempre
CPU Info [x] Información general de la CPU (se crea un módulo por CPU del ESXi) Todas Si conectado
Memory Size Cantidad total de memoria física del host en Bytes Todas Si conectado
Overall CPU Usage Suma del uso de todas las CPUs en Mhz Todas Si conectado
Overall Memory Usage Overall Memory Usage of VMware Hosts Todas Si conectado
Power State Estado de la energía del host ≥v2.5 Siempre
SSL Thumbprint Huella SSL del host ≥v4.0 Si configurado
Uptime Uptime del host en segundos ≥v4.1 Si conectado
VNIC Info [x] Información sobre interfaces de red virtuales del host Todas Si conectado y configurado
Host Alive Módulo que vale 1 si el ESX está conectada y 0 en caso contrario Todas Siempre
Connection State Estado de la conexión del host Todas Siempre
Disk Read Tasa de Kbps leídos del disco Todas Nivel stats ≥2
Disk Write Tasa de Kbps escritos del disco Todas Nivel stats ≥2
Disk Read Latency Latencia de lectura del disco en milisegundos Todas Nivel stats ≥2
Disk Write Latency Latencia de escritura del disco en milisegundos Todas Nivel stats ≥2
Data received Tasa de Kbps recibidos del host Todas Nivel stats ≥2
Data transmitted Tasa de Kbps enviados del host Todas Nivel stats ≥2
Packages Received Número de paquetes recibidos en el intervalo Todas Nivel stats ≥2
Packages Transmitted Número de paquetes enviados en el intervalo Todas Nivel stats ≥2
CPU Usage Porcentaje de uso de CPU Todas Nivel stats ≥2
Memory Usage Porcentaje de uso de la memoria RAM Todas Nivel stats ≥2
Net Usage Datos de red recibidos y enviados de todas las NICs Todas Nivel stats ≥2
Disk Rate Tasa I/O agredada en KB/seg Todas Nivel stats ≥2
Max. Disk Latency Latencia máxima de todos los discos Todas Nivel stats ≥2
HA Status Estado HA del host ≥v5.0 Si configurado
Sensor* Estado de los sensores de hardware (un módulo por sensor) Todas ESXi >= 3.5
Módulos para Agentes del tipo máquina virtual

Estos Módulos ofrecen la información desde el punto de vista de la arquitectura VMware®. Si se desea monitorizar otros parámetros relativos a la máquina virtual se deberían considerar otras opciones como la Monitorización con Agentes Software o la Monitorización remota

Módulo Descripción Versión API Disponibilidad
Boot Time Última fecha en la que se encendió la máquina virtual Todas Si conectado
Connection State Estado de la conexión Todas Siempre
Consumed Overhead Memory Cantidad de memoria consumida por la máquina virtual en MB ≥v4.0 Si configurado
CPU Allocation Información sobre los recursos asignados a la CPU de la máquina virtual Todas Si configurado
Disk Free [x] Porcentaje libre del disco de la máquina virtual. (Habrá un módulo por cada disco que contenga la máquina virtual) Todas Si configurado
Guest State Modo de operación del sistema operativo huésped Todas Si configurado
Host Info Información sobre el host VMware Todas Si configurado
Host Alive Módulo que vale 1 si la máquina virtual está en ejecución y 0 en caso contrario Todas Siempre
Host Memory Usage Memoria consumida por la máquina virtual en MB Todas Si conectado
Host Name Nombre del host asociado Todas Si configurado
IP Address [x] Dirección IP de la máquina. (Aparecerá una por interfaz de red disponible) ≥v4.1 Si configurado
MAC Address [x] Dirección MAC de la máquina. (Aparecerá una por interfaz de red disponible) Todas Si configurado
Max CPU Usage Límite superior de uso de la CPU de la máquina virtual Todas Si conectado
Max Memory Usage Límite superior de uso de la memoria RAM de la máquina virtual Todas Si conectado
Memory Allocation Límite de los recursos para la memoria Todas Si configurado
Memory Overhead Cantidad de memoria usada por la máquina virtual por encima de las necesidades del sistema operativo huésped en Bytes Todas Si configurado
Overall CPU Demand Estadísticas básicas sobre el rendimiento de la CPU en Mhz ≥v4.0 Si conectado
Overall CPU Usage Estadísticas básicas sobre el uso de la CPU en Mhz Todas Si conectado
Power State Estado actual de la máquina virtual Todas Siempre
Private Memory Cantidad de memoria en MB que se otorga a la máquina virtual de la memoria no compartida ≥v4.0 Si conectado
Shared Memory Cantidad de memoria en MB que se otorga a la máquina virtual de la memoria compartida ≥v4.0 Si conectado
Tools Running Status Estado actual de ejecución de VMware Tools instaladas en el sistema operativo huésped ≥v4.0 Si configurado
Trigger Alarm State Estado de las alarmas de VMware Todas Si configurado
Uptime Seconds Uptime de la máquina virtual en segundos ≥v4.1 Si conectado
Virtual Image Path Ruta del archivo de configuración de la máquina virtual (.vmx) Todas Siempre
Disk Read Tasa de Kbps leidos del disco Todas Nivel stats ≥2
Disk Write Tasa de Kbps escritos del disco Todas Nivel stats ≥2
Disk Read Latency Latencia de lectura del disco en milisegundos Todas Nivel stats ≥2
Disk Write Latency Latencia de escritura del disco en milisegundos Todas Nivel stats ≥2
Data received Tasa de Kbps recibidos del host Todas Nivel stats ≥2
Data transmitted Tasa de Kbps enviados del host Todas Nivel stats ≥2
Packages Received Número de paquetes recibidos en el intervalo Todas Nivel stats ≥2
Packages Transmitted Número de paquetes enviados en el intervalo Todas Nivel stats ≥2
CPU Usage Porcentaje de uso de CPU Todas Nivel stats ≥2
Memory Usage Porcentaje de uso de la memoria RAM Todas Nivel stats ≥2
Net Usage Datos de red recibidos y enviados de todas las NICs Todas Nivel stats ≥2
Disk Rate Tasa I/O agredada en KB/seg Todas Nivel stats ≥2
Max. Disk Latency Latencia máxima de todos los discos Todas Nivel stats ≥2
HeartBeat Número de heartbeats de la máquina virtual Todas Nivel stats ≥2
CPU Ready Porcentaje de tiempo que la máquina está en lista, pero no encolada para ejecutarse en la CPU física Todas Nivel stats ≥2
Number Snapshots Número de snapshots para la máquina virtual (este Módulo puede afectar al rendimiento de la monitorización, por ello se recomienda ejecutarlo con un valor de intervalo alto, por ejemplo cada hora). Todas Si configurado
HA Status Estado HA para la máquina virtual ≥v5.0 Si configurado

Algunos módulos requieren tener instaladas las VMware tools®.

Monitorización de eventos VMware

Esta funcionalidad realiza una copia de los eventos presentes en el vCenter de VMware® a la lista de eventos de Pandora FMS.

Estos eventos pasan a formar parte del flujo de eventos normales de Pandora FMS y quedan asociados de forma automática al Agente que representa el vCenter del que provienen (si el Agente existe en el momento de creación del evento).

En el proceso de volcado de eventos se respeta la información y severidad que VMware® indica en la creación del evento, de tal forma que los eventos con un nivel de severidad crítico, advertencia o informativo conservarán estos niveles en Pandora FMS. La siguiente imagen muestra un ejemplo de la información detallada de un evento volcado de VMware a Pandora FMS.

Con todos los eventos presentes en Pandora FMS podrá realizar todas las acciones disponibles para la gestión de eventos, como por ejemplo: creación de alertas, configuración de filtros, apertura de incidencias, etc.

Gestión y visualización de la arquitectura virtual VMware

Junto con el plugin VMware® se distribuyen dos extensiones: VMware Manager® y VMware View®. VMware View® permite visualizar todos los componentes de la arquitectura VMware® de una forma cómoda. Además, con VMware Manager® podrá gestionar máquinas virtuales parando, arrancando, reseteando o suspendiendo su actividad desde la Consola de Pandora FMS.

Usando VMware View

Para comenzar a usar el visor de arquitecturas VMware® vaya a MonitoringVMware view.

De no tener ningún dispositivo a monitorizar o no haber configurado la API de los vCenter® y ESXi VMware® obtendrá algo parecido a la siguiente imagen:

Si el plugin se encuentra en estado operativo obtendrá este mensaje (haga clic en el botón Show):

La extensión VMware View® le mostrará un mapa similar al de abajo con toda la arquitectura VMware®.

El mapa contiene los elementos de la arquitectura VMware® (máquinas virtuales, ESX, DataStores y DataCenters) con diferentes iconos que los identifican, así como el estado de los Agentes de Pandora FMS que representan cada elemento. Además, se muestra la relación que existe entre máquinas virtuales, ESX y DataCenter. De esta manera, de un vistazo se puede ver el estado de la arquitectura VMware® de una forma sencilla.

Esta extensión tiene unas opciones que ayudan a mejorar la visualización de la arquitectura ocultando elementos, aumentando el tamaño de letra y permitiendo hacer acercamientos para poder ver los elementos con más detalle.

Usando las opciones anteriores puede mostrar solo los DataCenter y los ESX.

VMware View Dashboards

VMware View® aporta dos vistas adicionales además de la vista de mapa topológico de la arquitectura virtual. Las nuevas pestañas permiten cambiar entre las diferentes vistas de la VMware View®.

La primera vista es un dashboard general en el que podrá ver de un vistazo el estado general de la arquitectura virtual en números, es decir, cuántas máquinas virtuales, host ESXi o DataStores tienen problemas. Además podrá ver parámetros de rendimiento generales gracias a las gráficas que muestran las 5 máquinas virtuales que más memoria, CPU, disco y red consumen de toda la arquitectura virtual.

La segunda vista permite ver los parámetros de rendimiento de cada host ESX. En esta vista podrá escoger un host ESX para el que se cargará un cuadro de mando en el que se mostrará el estado del host y de las máquinas virtuales, así como unas métricas de rendimiento relativas al uso de CPU, memoria, disco y red del host ESXi. Además, esta vista también ofrece unas gráficas que muestran las máquinas virtuales que más recursos (CPU, memoria, disco y red) consumen del host seleccionado.

VMware View Options Tab

Versión Enterprise.

La extensión de VMWare se incluye junto con Pandora FMS Console Enterprise. Dispone de un panel de configuración para establecer las opciones de dashboards y mapas:

  • Podrá ajustar los umbrales de vista (mínimos - máximos) de las gráficas de los dashboard.
  • Podrá ajustar la configuración de la vista de mapa por defecto.
  • Contiene un enlace al sistema de gestión de configuraciones.

Accesible en la pestaña de opciones del VMWare View®:

Usando la extensión VMware Manager desde los Agentes

Para usar la extensión VMware® Manager debe ir a la vista de operación de un Agente que se corresponda con una máquina virtual en esa arquitectura. Dentro de esta vista podrá ver un icono con el símbolo de VMware® que corresponde a la extensión.

La extensión VMware® Manager permite gestionar máquinas virtuales desde la Consola de Pandora FMS. La extensión muestra el estado actual de la máquina virtual con un código de colores:

  • Verde = Encendida.
  • Naranja = Suspendida.
  • Gris = Detenida.

Además, en un combo muestra los estados disponibles y permite cambiar el estado de la máquina virtual al seleccionado, pulsando el botón Change Status.

Seleccionando el estado Stop y pulsando Change status:

Provocaría que la máquina se parase y la vista de la extensión VMware Manage cambiara mostrando que la máquina ahora está parada:

Esta extensión requiere la instalación del SDK de VMware® para Perl en la misma máquina que soporta la Consola de Pandora FMS; sin este requisito la extensión no funcionará.

Si ha configurado la monitorización usando RENAME esta utilidad no funcionará contra los objetivos renombrados.

Configuración del plugin VMware

Por defecto, el plugin de VMware® descubre todas las entidades y añade los chequeos por defecto. Mediante el archivo de configuración podrá configurar la monitorización y escoger qué variables desea monitorizar.

El archivo de configuración contiene toda la información necesaria para realizar la monitorización, agrupada en las siguientes secciones: Configuration, Rename, Reject, Datacenter, Datastore, ESX, VM.

Todos los errores relativos al archivo de configuración son presentados en el log de errores del servidor de Pandora FMS y además en el visor de eventos de la Consola de Pandora FMS. Por ello, podrá ver si existe cualquier error con el archivo de configuración consultando cualquiera de estas dos fuentes.

Archivo de configuración

Configuración global

La configuración general está definida por el token Configuration y contiene los siguientes parámetros:

  • server: Dirección IP del vCenter.
  • user: Usuario del vCenter.
  • pass: Contraseña de acceso al vCenter.
  • datacenter: Datacenter a monitorizar.
  • temporal: Directorio temporal.
  • logfile: Ubicación del fichero de log.
  • entities_list: Ubicación del fichero que contiene la lista de entidades que son monitorizadas.
  • transfer_mode: Modo de transferencia para los XML, puede ser tentacle o local.
    • tentacle: Envía los archivos XML al servidor de Pandora FMS usando el protocolo Tentacle.
    • local: Copia los archivos a una carpeta local; el Agente debe ejecutarse en la misma máquina donde se encuentra la carpeta local.
  • tentacle_ip: Diección IP del servidor de Pandora FMS al cual enviar la información.
  • tentacle_port: Puerto del servidor de Pandora FMS al cual enviar la información (por defecto 41121).
  • tentacle_opts: Opciones adicionales para el envío con Tentacle (por defecto ninguna).
  • local_folder: Directorio destino para realizar la copia de los XML con el modo local activado.
  • pandora_url: URL de la Consola de Pandora FMS (por ejemplo:

http://192.168.70.81/pandora_console ).

  • api_pass: Password de la API de la Consola de Pandora FMS.
  • api_user: Usuario de la Consola de Pandora FMS.
  • api_user_pass: Contraseña del usuario de la Consola de Pandora FMS.
  • retry_send: Activa (1) o desactiva (0) el reenvío de ficheros .data en el directorio <i>temporal</i>
  • event_mode: Flag que activa el modo de recolección de eventos. Si vale 1 está activado, si vale 0 desactivado.
  • event_pointer_file: Ubicación del archivo temporal que guarda el puntero para recolección de eventos.
  • verbosity: Nivel de log (0 solo errores que impiden el funcionamiento del plugin, 1 todos los errores).
  • threads: Número de hilos del plugin (por defecto 1).
  • interval: Intervalo de los agentes que representan las entidades VMware®.

Un ejemplo de esta sección en el archivo de configuración podría ser la siguiente:

 Configuration
 server 192.168.70.249
 user Administrator
 pass S1stemas
 datacenter artica
 temporal /tmp
 logfile /tmp/vmware_plugin.log
 entities_list /tmp/vmware_entities_list.txt
 transfer_mode tentacle
 tentacle_ip 192.168.70.81
 tentacle_port 41121
 tentacle_opts
 local_folder /var/spool/pandora/data_in
 pandora_url http://192.168.70.81/pandora_console
 api_pass 1234
 api_user admin
 api_user_pass pandora
 event_mode 0
 event_pointer_file /tmp/vmware_events_pointer.txt

Si está usando el plugin en sistemas MS Windows® será necesario cambiar todas las rutas de los archivos por rutas compatibles con Windows®.

Escaneo de entidades

Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.

Debido al tamaño de las infraestructuras VMware® que caracteriza a los clientes Enterprise, un escaneo general de todas las entidades disponibles en cada ejecución podría desencadenar problemas de rendimiento.

Para evitar esta situación, el plugin de monitorización de VMware® dispone del archivo de entidades ( entities_list ) donde almacena la lista de entidades escaneadas en la primera ejecución.

Siempre que este archivo exista, la monitorización se limitará a las entidades indicadas en él.

Si necesita un escaneo periódico de su infraestructura VMware®, puede eliminar este fichero cada cierto tiempo (por ejemplo, cada hora) usando el cron de sistema.

Renombrado de entidades

Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.

El renombrado de entidades se realiza usando el token RENAME y permite cambiar el nombre a las entidades descubiertas por el plugin. Usando esta funcionalidad los Agentes creados en Pandora FMS aparecerán con el nuevo nombre asignado. La estructura de esta sección es la siguiente:

<nombre actual> TO <nombre nuevo>

Un ejemplo de configuración de esta sección podría ser el siguiente:

 #Rename entities
 Rename
 Debian 11 TO Virtual Machine 1
 RedHat 12 TO Web server 
 ESX Workstation TO Host Work Sales

Descarte de entidades

Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.

El plugin permite realizar un descarte de entidades por tipo o de forma individual; a continuación se explican ambas opciones.

El descarte de tipos de entidades se realiza usando el token REJECT. En esta sección podrá descartar las entidades según su tipo; por ejemplo todas las máquinas virtuales o todos los hosts ESX. Los posibles valores que puede tomar esta sección son los siguientes: all_datastore, all_datacenter, all_esx, all_vm.

Una configuración de esta sección que descarta todas las entidades sería la siguiente:

 #Dismissed entities
 Reject
 all_datastore
 all_datacenter
 all_esx
 all_vm

Para realizar un descarte de entidades de forma individual será necesario borrarlas del archivo de entidades creado por el plugin. El plugin crea este archivo en la ubicación indicada en el parámetro entities_list (por defecto /tmp/vmware_entities_list.txt). El plugin rellena el contenido de este archivo con la primera ejecución, o siempre que no exista, creando una lista con todas las entidades descubiertas. Un ejemplo de archivo podría ser el siguiente:

 Datacenter
 artica
 Datastore
 datastore_1
 datastore2
 ESX
 192.168.70.252
 VM
 Pandora FMS 4.0.3
 Debian2
 Debian3
 Debian4
 Redhat
 debian5
 Debian6
 Debian8
 Debian7
 Debian11
 Debian10
 Debian9
 NSM
 Pandora
 vcenter
 suse11.2

El archivo de configuración se divide en varios tokens: Datacenter, Datastore, ESX y VM, donde se listan las diferentes entidades. Una vez que esté creado el archivo de configuración, el plugin leerá de este archivo las entidades a monitorizar. Para descartar una entidad solo tiene que borrarla de este fichero. Si, por ejemplo, no se necesita monitorizar las entidades: Debian2, datastore2, NSM, suse11.2 y 192.168.70.252, el archivo de configuración quedaría así:

 Datacenter
 artica
 Datastore
 datastore_1
 ESX
 VM
 Pandora FMS 4.0.3
 Debian3
 Debian4
 Redhat
 debian5
 Debian6
 Debian8
 Debian7
 Debian11
 Debian10
 Debian9
 Pandora
 vcenter

Esta funcionalidad permite realizar una distribución de la carga de monitorización limitando el número de entidades monitorizadas en cada ejecución del plugin. Más adelante se explican varias técnicas de distribución de carga.

Configuración de monitorización

Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.

Las siguientes secciones del archivo configuran los Módulos creados para cada tipo de entidad. Las secciones usan los tokens Datacenter, Datastore, ESX, VM. En estas secciones podrá habilitar/deshabilitar los Módulos a monitorizar. En el siguiente ejemplo hemos realizamos una configuración seleccionando los módulos que deseamos crear para los ESX y máquinas virtuales:

 ...
 #ESX Modules
 ESX
 cpuUsagePercent disabled
 diskRead enabled
 diskWrite enabled
 
 #VM Modules
 VM
 diskReadLatency disabled
 diskWriteLatency disabled
 diskRate enabled
 ...

Cada línea de configuración se corresponde con un Módulo. En el ejemplo anterior los Módulos serán creados con los valores por defecto, pero es posible configurar el nombre, la descripción y los límites para los estados de Advertencia y de Crítico del Módulo. Un ejemplo de esta configuración podría ser la siguiente:

 ...
 #VM Modules
 ESX
 diskReadLatency disabled
 diskWriteLatency disabled
 diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
 ...

Las opciones disponibles para la configuración de Módulos son las siguientes:

  • <modulo> disabled: El módulo NO se creará.
  • <modulo> enabled: El módulo SI se creará (con los valores por defecto).
  • <modulo> name = <nombre>; desc = <descripcion>; limits_warn <lim_warn>; limits_crit <lim_crit» El Módulo se creará con el nombre y la descripción proporcionados y además se definirán los umbrales para los máximos y mínimos de los estados de Advertencia y Crítico.

Es muy importante tener en cuenta la estructura de las líneas del archivo de configuración y sobre todo comprobar que el carácter ; va pegado al nombre y la descripción del Módulo. Estas dos líneas NO SON EQUIVALENTES (véanse los espacios antes del carácter ; ):

diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
diskRate name = Tasa Disco    ; desc = Tasa Lec/Esc disco    ; limits_warn = 5 10; limits_crit    = 0    4

Los módulos están referenciados por su nombre corto, un nombre equivalente más sencillo de escribir en la línea de comandos. La tabla de correspondencia de nombres cortos y expandidos se encuentran en la siguiente sección.

Analice la configuración de ejemplo anterior. Se ha configurado el módulo Disk Rate que se creará con los siguientes valores:

 * Nombre: Tasa Disco
 * Descripción: Tasa Lec/Esc disco
 * Min Warning: 5
 * Max Warning: 10
 * Min Critical: 0
 * Max Critical: 4

Hay módulos que se generan de forma dinámica, por ejemplo los relativos a discos o interfaces de red. Para estas métricas el plugin crea un Módulo por cada elemento descubierto. Estos Módulos suelen tener nombres especiales en Pandora FMS, por ejemplo:

Disk Free [0]
Disk Free [1]
Disk Free [2]
...

En estos casos, como el nombre tiene parte dinámica se permite el uso de la macro %s que será sustituida por la parte variable del nombre del Módulo. Un ejemplo de configuración de módulos dinámicos sería el siguiente:

diskFree name = Disk (%s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0

En este caso el nombre del módulo por defecto es:

Disk Free [0]

Y pasará a llamarse:

Disk (0) free space

También es posible configurar cadenas de texto para los límites de los estados Advertencia y Crítico de los Módulos. La configuración sería parecida a la siguiente:

powerState name = Estado funcionamiento; desc = Estado funcionamiento VM; limits_warn = .*suspended.*; limits_crit = .*poweredOff.*

Es posible configurar expresiones regulares para dotar de mayor flexibilidad al establecimiento de los límites.

Métricas de rendimiento personalizadas

Para utilizar esta funcionalidad en Discovery, agregue la configuración deseada dentro de Extra settings.

En esta sección es posible configurar nuevos Módulos relativos a Performance Counters para las máquinas virtuales y los ESX. Para configurar un nuevo Módulo de rendimiento necesitará usar la siguiente estructura:

custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0

Los parámetros a configurar son:

  • type: Tipo de métrica a monitorizar. Los tipos de métrica son:
    • cpu: Característica de la Unidad Central de Procesamiento.
    • mem: Memoria.
    • disk: Disco, almacenamiento.
    • net: Red.
    • sys: Sistema.
  • metric: Métrica a monitorizar (más adelante se explica dónde ver las métricas disponibles).
  • module_type: Tipo del Módulo de Pandora FMS (por ejemplo: generic_data).
  • name: Nombre del Módulo.
  • desc: Descripción del Módulo.
  • limits_warn: Límites para el estado Advertencia.
  • limits_crit: Límites para el estado Crítico.

Podrá consultar las métricas disponibles para cada tipo en el apartado Performance de cada entidad. Esta vista se encuentra dentro del vCenter y muestra las métricas de rendimiento que es posible monitorizar con el plugin VMware®. Por ejemplo, la siguiente imagen muestra la vista de Performance para un host ESX.

Haga clic para ampliar

Para ver el listado completo de todas las métricas según su tipo deberá hacer clic en el botón Advanced y luego en el botón Char option. Verá una lista con todos los tipos de métricas y las respectivas métricas de cada tipo:

Para cada tipo de métrica aparecerán una serie de contadores que son las variables que podremos monitorizar con Pandora FMS. Para monitorizar una variable necesitamos su Internal Name. Además debe asegurarse de que el nivel de estadísticas, configurado en el vCenter, permite mostrar la variable que buscamos, comparándolo con el campo Collection Level de la métrica.

Por ejemplo, si necesita ver el uso de CPU de un host ESX, buscaremos las variables tipo cpu para un ESX y de las disponibles escogeremos utilization. La línea que tiene que añadir al archivo de configuración (en este caso dentro de la sección ESX) será la siguiente:

custom_performance type = cpu; metric = utilization; module_type = generic_data; name = CPU Utilization; desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0
Monitorización de varios Datacenter con un mismo agente

Cada Módulo plugin configurado en el Agente monitoriza un Datacenter, por lo que si se quiere monitorizar varios Datacenter con un mismo Agente Software de Pandora FMS será necesario tomar las siguientes consideraciones.

  • Es necesario añadir un module_plugin por cada Datacenter a monitorizar; por ejemplo:
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
  • En cada archivo de configuración será necesario cambiar los parámetros: logfile, entities_list, event_pointer_file. Los archivos de configuración quedarían como los siguientes:

vmware-plugin-datacenter1.conf

 ...
 logfile /tmp/vmware_plugin_datacenter1.log
 entities_list /tmp/vmware_entities_list_datacenter1.txt
 event_pointer_file /tmp/vmware_events_pointer_datacenter1.txt
 ...

vmware-plugin-datacenter2.conf

 ...
 logfile /tmp/vmware_plugin_datacenter2.log
 entities_list /tmp/vmware_entities_list_datacenter2.txt
 event_pointer_file /tmp/vmware_events_pointer_datacenter2.txt
 ...
  • Si además desea realizar la copia de eventos, deberá tener dos Módulos plugin más con los respectivos archivos de configuración y activando la flag event_mode. La configuración de los module_plugin sería como la siguiente:
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
 module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf
Dividir la carga de la monitorización entre varios servidores de Pandora FMS

Las opciones del archivo de configuración del plugin permiten distribuir la carga de monitorización fácilmente entre varios servidores de Pandora FMS. Tome por ejemplo la siguiente estructura de un entorno de virtualización:

 DC
 |
 |- Datastore_1
 |- DataStore_2
 |
 |- ESX_1
       |- mv1.1
       |- mv1.2
       |- mv1.3
 
 |- ESX_2
       |- mv2.1
       |- mv2.2
       |- mv2.3

Dispone de dos servidores Pandora FMS para realizar la monitorización. Una manera sencilla de dividir la carga sería monitorizar el Datacenter, los Datastores y los ESX en el primer servidor y todas las máquinas virtuales en el segundo. Los archivos de configuración del plugin serían los siguientes:

Servidor 1:

 Reject
 all_vm

Servidor 2:

 Reject
 all_datacenter
 all_datastore
 all_esx

El Servidor 1 monitoriza todo excepto las máquinas virtuales y el Server 2 solo monitoriza las máquinas virtuales.

Otra forma de distribuir la carga sería dividiendo la monitorización por ESX; el primer servidor de Pandora FMS monitorizará todo lo relativo al primer servidor ESX y el segundo todo lo perteneciente al segundo ESX. Para ello, dividiremos el archivo entities_list.txt en dos archivos y configuraremos dos ejecuciones del plugin en diferentes agentes. Los archivos entities_list.txt quedarían así:

Servidor 1:

 Datacenter
 DC
 Datastore
 Datastore_1
 ESX
 ESX_1
 VM
 mv1.1
 mv1.2
 mv1.3

El Servidor 1 omite todo lo relacionado con el segundo grupo de entidades VMware, por lo que se encarga de monitorizar la mitad del entorno.

Servidor 2:

 Datastore
 DataStore_2
 ESX
 ESX_2
 VM
 mv2.1
 mv2.2
 mv2.3

El Servidor 2 omite todo lo relacionado con el primer grupo de entidades VMware además del Datacenter, ya que esto está siendo monitorizado por el Servidor 1.

La configuración de entidades descartadas es muy flexible y permite dividir la carga asignando unas pocas entidades a cada agente de Pandora FMS.

Ejemplos archivo configuración

Archivo con todos los módulos desactivados

  #These lines are comments
 
 #Datacenter Modules
 Datacenter
 ping disabled
 check443 disabled
 
 #Datastore Modules
 Datastore
 capacity disabled
 freeSpace disabled
 overallocation disabled
 freeSpaceBytes disabled
 
 #ESX Modules
 ESX
 bootTime disabled
 cpuInfo disabled
 memorySize disabled
 overallCpuUsage disabled
 overallMemoryUsage disabled
 powerState disabled
 sslThumbprint disabled
 uptime disabled
 vnicInfo disabled
 hostAlive disabled
 connectionState disabled
 diskRead disabled
 diskWrite disabled
 diskReadLatency disabled
 diskWriteLatency disabled
 netReceived disabled
 netTransmitted disabled
 netPkgRx disabled
 netPkgTx disabled
 cpuUsagePercent disabled
 memoryUsagePercent disabled
 netUsage disabled
 diskRate disabled
 maxDiskLatency disabled
 haStatus disabled
 
 #VM Modules
 VM
 bootTime disabled
 connectionState disabled
 consumedOverheadMemory disabled 
 cpuAllocation disabled
 diskFree disabled
 guestState disabled
 host disabled
 hostAlive disabled
 hostMemoryUsage disabled
 hostName disabled
 ipAddress disabled
 macAddress disabled
 maxCpuUsage disabled
 maxMemoryUsage disabled
 memoryAllocation disabled
 memoryOverhead disabled
 overallCpuDemand disabled
 overallCpuUsage disabled
 powerState disabled
 privateMemory disabled
 sharedMemory disabled
 toolsRunningStatus disabled
 triggeredAlarmState disabled
 virtualImagePath disabled
 uptimeSeconds disabled
 diskRead disabled
 diskWrite disabled
 diskReadLatency disabled
 diskWriteLatency disabled
 netReceived disabled
 netTransmitted disabled
 netPkgRx disabled
 netPkgTx  disabled
 cpuUsagePercent disabled
 memoryUsagePercent disabled
 netUsage disabled
 diskRate disabled
 maxDiskLatency disabled
 heartbeat disabled
 cpuReady disabled
 snapshotCounter disabled
Tabla de correspondencia de nombres cortos

Datacenter

Nombre expandido Nombre corto
Ping ping
Check 443 port check443

Datastores

Nombre expandido Nombre corto
Capacity capacity
Free Space freeSpace
Disk Overallocation overallocation
Free Space Bytes freeSpaceBytes

ESX

Nombre expandido Nombre corto
Boot Time bootTime
CPU Info cpuInfo
Memory Size memorySize
Overall CPU Usage overallCpuUsage
Overall Memory Usage overallMemoryUsage
Power State powerState
SSL Thumbprint sslThumbprint
Uptime uptime
VNIC Info vnicInfo
Host Alive hostAlive
Connection State connectionState
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HA Status haStatus
Sensor* systemHealthInfo

Máquinas Virtuales

Nombre expandido Nombre corto
Boot Time bootTime
Connection State connectionState
Consumed Overhead Memory consumedOverheadMemory
CPU Allocation cpuAllocation
Disk Free diskFree
Guest State guestState
Host Info host
Host Alive hostAlive
Host Memory Usage hostMemoryUsage
Host Name hostName
IP Address ipAddress
MAC Address macAddress
Max CPU Usage maxCpuUsage
Max Memory Usage maxMemoryUsage
Memory Allocation memoryAllocation
Memory Overhead memoryOverhead
Overall CPU Demand overallCpuDemand
Overall CPU Usage overallCpuUsage
Power State powerState
Private Memory privateMemory
Shared Memory sharedMemory
Tools Running Status toolsRunningStatus
Trigger Alarm State triggeredAlarmState
Uptime Seconds uptimeSeconds
Virtual Image Path virtualImagePath
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HeartBeat heartbeat
CPU Ready cpuReady
Number Snapshots snapshotCounter
HA Status haStatus
Tabla de eventos

Esta lista de eventos se facilita para hacer más sencilla la tarea de configuración de alertas de eventos en Pandora FMS. Para obtener una referencia completa y actualizada de todos los posibles eventos deberá consultar la documentación que VMware® tenga al respecto

Evento Severidad Tipo de evento Grupo
An account was created on host {host.name} Informational System All
Account {account} was removed on host {host.name} Informational System All
An account was updated on host {host.name} Informational System All
The default password for the root user on the host {host.name} has not been changed Informational System All
Alarm '{alarm.name}' on {entity.name} triggered an action Informational System All
Created alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} sent email to {to} Informational System All
Alarm '{alarm.name}' on {entity.name} cannot send email to {to} Critical System All
Reconfigured alarm '{alarm.name}' on {entity.name} Informational System All
Removed alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} ran script {script} Informational System All
Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} Critical System All
Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent Informational System All
Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} Critical System All
Alarm '{alarm.name}' on {entity.name} changed from {[email protected]} to {[email protected]} Informational System All
All running virtual machines are licensed Informational System All
User cannot logon since the user is already logged on Informational System All
Cannot login {userName}@{ipAddress} Critical System All
The operation performed on host {host.name} in {datacenter.name} was canceled Informational System All
Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. Informational System All
Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. Critical System All
Checked cluster for compliance Informational System All
Created cluster {computeResource.name} in {datacenter.name} Informational System All
Removed cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Configuration status on cluster {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} Informational System All
Created new custom field definition {name} Informational System All
Removed field definition {name} Informational System All
Renamed field definition from {name} to {newName} Informational System All
Changed custom field {name} on {entity.name} in {datacenter.name} to {value} Informational System All
Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. Informational System All
An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. Critical System All
An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. Critical System All
Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. Informational System All
Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. Informational System All
The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. Critical System All
An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. Critical System All
dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. Informational System All
dvPort group {net.name} in {datacenter.name} was deleted. Informational System All
Informational System All
dvPort group {net.name} in {datacenter.name} was reconfigured. Informational System All
dvPort group {oldName} in {datacenter.name} was renamed to {newName} Informational System All
HA admission control disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA admission control enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
Re-established contact with a primary host in this HA cluster Informational System All
Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} Critical System All
All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. Critical System All
HA disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} Critical System All
Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} Warning System All
Created datacenter {datacenter.name} in folder {parent.name} Informational System All
Renamed datacenter from {oldName} to {newName} Informational System All
Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} Informational System All
Removed unconfigured datastore {datastore.name} Informational System All
Discovered datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} Critical System All
<internal> Informational System All
File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
File or directory {targetFile} deleted from {datastore.name} Informational System All
File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
Reconfigured Storage I/O Control on datastore {datastore.name} Informational System All
Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} Informational System All
Removed datastore {datastore.name} from {host.name} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} Informational System All
DRS put {host.name} into standby mode Informational System All
DRS is putting {host.name} into standby mode Informational System All
DRS cannot move {host.name} out of standby mode Critical System All
DRS moved {host.name} out of standby mode Informational System All
DRS is moving {host.name} out of standby mode Informational System All
DRS invocation not completed Critical System All
DRS has recovered from the failure Informational System All
Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. Critical System All
Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules Informational System All
{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule Informational System All
DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
DRS powered On {vm.name} on {host.name} in {datacenter.name} Informational System All
Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} Informational System All
A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. Informational System All
vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. Informational System All
vNetwork Distributed Switch event Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. Informational System All
The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. Warning System All
vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. Informational System All
dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. Informational System All
The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. Informational System All
The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. Informational System All
Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} Informational System All
vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. Informational System All
Host {host.name} in {datacenter.name} has entered maintenance mode Informational System All
The host {host.name} is in standby mode Informational System All
Host {host.name} in {datacenter.name} has started to enter maintenance mode Informational System All
The host {host.name} is entering standby mode Informational System All
{message} Critical System All
Host {host.name} in {datacenter.name} has exited maintenance mode Informational System All
The host {host.name} could not exit standby mode Critical System All
The host {host.name} is no longer in standby mode Informational System All
The host {host.name} is exiting standby mode Informational System All
Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} Informational System All
General event: {message} Informational System All
Error detected on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected on {host.name} in {datacenter.name}: {message} Warning System All
User logged event: {message} Informational System All
Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. Informational System All
A ghost proxy switch {switchUuid} on the host {host.name} was resolved. Informational System All
The message changed: {message} Informational System All
{componentName} status changed from {oldStatus} to {newStatus} Informational System All
Cannot add host {hostname} to datacenter {datacenter.name} Critical System All
Added host {host.name} to datacenter {datacenter.name} Informational System All
Administrator access to the host {host.name} is disabled Warning System All
Administrator access to the host {host.name} has been restored Warning System All
Cannot connect {host.name} in {datacenter.name}: cannot configure management account Critical System All
Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} Critical System All
Cannot connect host {host.name} in {datacenter.name} : server agent is not responding Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect user name or password Critical System All
Cannot connect {host.name} in {datacenter.name}: incompatible version Critical System All
Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. Critical System All
Cannot connect {host.name} in {datacenter.name}: error connecting to host Critical System All
Cannot connect {host.name} in {datacenter.name}: network error Critical System All
Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges Critical System All
Cannot connect host {host.name} in {datacenter.name} Critical System All
Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect host name Critical System All
Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response Critical System All
Host {host.name} checked for compliance. Informational System All
Host {host.name} is in compliance with the attached profile Informational System All
Host configuration changes applied. Informational System All
Connected to {host.name} in {datacenter.name} Informational System All
Host {host.name} in {datacenter.name} is not responding Critical System All
dvPort connected to host {host.name} in {datacenter.name} changed status Informational System All
HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {[email protected]} Critical System All
HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly Informational System All
Disconnected from {host.name} in {datacenter.name}. Reason: {[email protected].ReasonCode} Informational System All
Cannot restore some administrator permissions to the host {host.name} Critical System All
Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format Critical System All
Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached Critical System All
The virtual machine inventory file on host {host.name} is damaged or unreadable. Informational System All
IP address of the host {host.name} changed from {oldIP} to {newIP} Informational System All
Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} Critical System All
Cannot resolve IP address to short name on host {host.name} Critical System All
Host {host.name} could not reach isolation address: {isolationIp} Critical System All
A host license for {host.name} has expired Critical System All
Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Host monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} Informational System All
Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} Critical System All
Host {host.name} has no port groups enabled for HA communication. Critical System All
Host {host.name} currently has no management network redundancy Critical System All
Host {host.name} is not in compliance with the attached profile Critical System All
Host {host.name} is not a cluster member in {datacenter.name} Critical System All
Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Primary agent {primaryAgent} was not specified as a short name to host {host.name} Critical System All
Profile is applied on the host {host.name} Informational System All
Cannot reconnect to {host.name} in {datacenter.name} Critical System All
Removed host {host.name} in {datacenter.name} Informational System All
Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries Critical System All
Cannot resolve short name {shortName} to IP address on host {host.name} Critical System All
Shut down of {host.name} in {datacenter.name}: {reason} Informational System All
Configuration status on host {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} Informational System All
Cannot synchronize host {host.name}. {reason.msg} Critical System All
Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} Critical System All
The userworld swap is not enabled on the host {host.name} Warning System All
Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. Informational System All
WWNs are changed for {host.name} Warning System All
The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN Critical System All
Host {host.name} did not provide the information needed to acquire the correct set of licenses Critical System All
{message} Informational System All
Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} Critical System All
The license edition '{feature}' is invalid Critical System All
License {feature.featureName} has expired Critical System All
License inventory is not compliant. Licenses are overused Critical System All
Unable to acquire licenses due to a restriction in the option file on the license server. Critical System All
License server {licenseServer} is available Informational System All
License server {licenseServer} is unavailable Critical System All
Created local datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
The Local Tech Support Mode for the host {host.name} has been enabled Informational System All
Datastore {datastore} which is configured to back the locker does not exist Warning System All
Locker was reconfigured from {oldDatastore} to {newDatastore} datastore Informational System All
Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Critical System All
Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Warning System All
Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Warning System All
Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Warning System All
Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Cannot login user {userName}@{ipAddress}: no permission Critical System All
No datastores have been configured on the host {host.name} Informational System All
A required license {feature.featureName} is not reserved Critical System All
Unable to automatically migrate {vm.name} from {host.name} Informational System All
Non-VI workload detected on datastore {datastore.name} Critical System All
Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} Informational System All
The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. Warning System All
Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} Informational System All
Permission rule removed for {principal} on {entity.name} Informational System All
Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} Informational System All
Profile {profile.name} attached. Informational System All
Profile {profile.name} was changed. Informational System All
Profile is created. Informational System All
Profile {profile.name} detached. Informational System All
Profile {profile.name} reference host changed. Informational System All
Profile was removed. Informational System All
Remote Tech Support Mode (SSH) for the host {host.name} has been enabled Informational System All
Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} Informational System All
Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} Informational System All
Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Critical System All
New role {role.name} created Informational System All
Role {role.name} removed Informational System All
Modifed role {role.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully Informational System All
Created task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} Critical System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} Critical System All
Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Running task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
A vCenter Server license has expired Critical System All
vCenter started Informational System All
A session for user '{terminatedUsername}' has stopped Informational System All
Task: {info.descriptionId} Informational System All
Task: {info.descriptionId} time-out Informational System All
Upgrading template {legacyTemplate} Informational System All
Cannot upgrade template {legacyTemplate} due to: {reason.msg} Informational System All
Template {legacyTemplate} upgrade completed Informational System All
The operation performed on {host.name} in {datacenter.name} timed out Warning System All
There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available Informational System All
{unlicensed} unlicensed virtual machines found on host {host} Informational System All
The agent on host {host.name} is updated and will soon restart Informational System All
User {userLogin} was added to group {group} Informational System All
User {userName}@{ipAddress} logged in Informational System All
User {userName} logged out Informational System All
Password was changed for account {userLogin} on host {host.name} Informational System All
User {userLogin} removed from group {group} Informational System All
{message} Informational System All
Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
A vMotion license for {host.name} has expired Critical System All
Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {[email protected]} Critical System All
vCenter agent has been uninstalled from {host.name} in {datacenter.name} Informational System All
Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {[email protected]} Critical System All
vCenter agent has been upgraded on {host.name} in {datacenter.name} Informational System All
VIM account password was changed on host {host.name} Informational System All
Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened Informational System All
A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired Informational System All
Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Creating {vm.name} on host {host.name} in {datacenter.name} Informational System All
Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} Informational System All
Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} Informational System All
Cannot clone {vm.name}: {reason.msg} Critical System All
Clone of {sourceVm.name} completed Informational System All
Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found Informational System All
Virtual machine {vm.name} is connected Informational System All
Created virtual machine {vm.name} on {host.name} in {datacenter.name} Informational System All
dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]} Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]}. A screenshot is saved at {screenshotFilePath}. Informational System All
Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
Unable to update HA agents given the state of {vm.name} Critical System All
HA agents have been updated with the current state of the virtual machine Informational System All
Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back Critical System All
Cannot deploy template: {reason.msg} Critical System All
Template {srcTemplate.name} deployed on host {host.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is disconnected Informational System All
Discovered {vm.name} on {host.name} in {datacenter.name} Informational System All
Cannot create virtual disk {disk} Critical System All
Migrating {vm.name} off host {host.name} in {datacenter.name} Informational System All
End a recording session on {vm.name} Informational System All
End a replay session on {vm.name} Informational System All
Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Critical System All
Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. Critical System All
vCenter cannot start the Secondary VM {vm.name}. Reason: {[email protected]} Critical System All
Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
vCenter cannot update the Secondary VM {vm.name} configuration Critical System All
Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} Warning System All
Fault Tolerance state on {vm.name} changed from {[email protected]} to {[email protected]} Informational System All
Fault Tolerance protection has been turned off for {vm.name} Informational System All
The Fault Tolerance VM ({vm.name}) has been terminated. {[email protected]} Informational System All
Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS standby for {vm.name} on {host.name} in {datacenter.name} Informational System All
VM monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} Informational System All
Assign a new instance UUID ({instanceUuid}) to {vm.name} Informational System All
The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) Informational System All
The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} Critical System All
New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} Informational System All
Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} Warning System All
The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Error message on {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Message on {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed Informational System All
No compatible host for the Secondary VM {vm.name} Critical System All
Not all networks for {vm.name} are accessible by {destHost.name} Warning System All
{vm.name} does not exist on {host.name} in {datacenter.name} Warning System All
{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered off Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered on Informational System All
Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. Informational System All
VM ({vm.name}) failed over to {host.name}. {[email protected]} Critical System All
Reconfigured {vm.name} on {host.name} in {datacenter.name} Informational System All
Registered {vm.name} on {host.name} in {datacenter.name} Informational System All
Relayout of {vm.name} on {host.name} in {datacenter.name} completed Informational System All
{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary Informational System All
{vm.name} on {host.name} reloaded from new configuration {configPath}. Informational System All
{vm.name} on {host.name} could not be reloaded from {configPath}. Critical System All
Cannot relocate virtual machine '{vm.name}' in {datacenter.name} Critical System All
Completed the relocation of the virtual machine Informational System All
Remote console connected to {vm.name} on host {host.name} Informational System All
Remote console disconnected from {vm.name} on host {host.name} Informational System All
Removed {vm.name} on {host.name} from {datacenter.name} Informational System All
Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} Warning System All
{vm.name} on {host.name} in {datacenter.name} is reset Informational System All
Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} Informational System All
Changed resource allocation for {vm.name} Informational System All
Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed Informational System All
{vm.name} on {host.name} in {datacenter.name} is resumed Informational System All
A Secondary VM has been added for {vm.name} Informational System All
vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. Critical System All
Disabled Secondary VM for {vm.name} Informational System All
Enabled Secondary VM for {vm.name} Informational System All
Started Secondary VM for {vm.name} Informational System All
{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {[email protected]} Informational System All
Start a recording session on {vm.name} Informational System All
Start a replay session on {vm.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is starting Informational System All
Starting Secondary VM for {vm.name} Informational System All
The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
{vm.name} on {host.name} in {datacenter.name} is stopping Informational System All
{vm.name} on {host.name} in {datacenter.name} is suspended Informational System All
{vm.name} on {host.name} in {datacenter.name} is being suspended Informational System All
Starting the Secondary VM {vm.name} timed out within {timeout} ms Critical System All
Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} Warning System All
Virtual hardware upgraded to version {version} Informational System All
Cannot upgrade virtual hardware Critical System All
Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} Informational System All
Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} Informational System All
Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} Warning System All
BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} Critical System All
New WWNs assigned to {vm.name} Informational System All
WWNs are changed for {vm.name} Warning System All
The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN Critical System All
{message} Warning System All
Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. Warning System All
com.vmware.license.AddLicenseEventLicense {licenseKey} added to VirtualCenter Informational System All
com.vmware.license.AssignLicenseEventLicense {licenseKey} assigned to asset {entityName} with id {entityId} Informational System All
com.vmware.license.DLFDownloadFailedEventFailed to download license information from the host {hostname} due to {[email protected]ownloadFailedReason} Warning System All
com.vmware.license.LicenseAssignFailedEventLicense assignment on the host fails. Reasons: {[email protected]}. Informational System All
com.vmware.license.LicenseExpiryEventYour host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. Warning System All
com.vmware.license.LicenseUserThresholdExceededEventCurrent license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) Warning System All
com.vmware.license.RemoveLicenseEventLicense {licenseKey} removed from VirtualCenter Informational System All
com.vmware.license.UnassignLicenseEventLicense unassigned from asset {entityName} with id {entityId} Informational System All
com.vmware.vc.HA.ClusterFailoverActionCompletedEventHA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.HA.ClusterFailoverActionInitiatedEventHA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.DasAgentRunningEventHA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running Informational System All
com.vmware.vc.HA.DasFailoverHostFailedEventHA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed Critical System All
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEventAll shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostCompleteNetworkFailureEventAll VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostFailedEventA possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostMonitoringDisabledEventNo virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.HA.DasTotalClusterFailureEventHA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.HostDasAgentHealthyEventHA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy Informational System All
com.vmware.vc.HA.HostDasErrorEventHA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {[email protected]} Critical System All
com.vmware.vc.VCHealthStateChangedEventvCenter Service overall health changed from '{oldState}' to '{newState}' Informational System All
com.vmware.vc.cim.CIMGroupHealthStateChangedHealth of [data.group] changed from [data.oldState] to [data.newState]. Informational System All
com.vmware.vc.datastore.UpdateVmFilesFailedEventFailed to update VM files on datastore {ds.name} using host {hostName} Critical System All
com.vmware.vc.datastore.UpdatedVmFilesEventUpdated VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.datastore.UpdatingVmFilesEventUpdating VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.ft.VmAffectedByDasDisabledEventVMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. Warning System All
com.vmware.vc.npt.VmAdapterEnteredPassthroughEventNetwork passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.npt.VmAdapterExitedPassthroughEventNetwork passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEventHA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled Informational System All
com.vmware.vc.vcp.FtFailoverEventFT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure Informational System All
com.vmware.vc.vcp.FtFailoverFailedEventFT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary Critical System All
com.vmware.vc.vcp.FtSecondaryRestartEventHA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure Informational System All
com.vmware.vc.vcp.FtSecondaryRestartFailedEventFT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEventHA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long Informational System All
com.vmware.vc.vcp.TestEndEventVM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.TestStartEventVM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VcpNoActionEventHA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting Informational System All
com.vmware.vc.vcp.VmDatastoreFailedEventVirtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} Critical System All
com.vmware.vc.vcp.VmNetworkFailedEventVirtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} Critical System All
com.vmware.vc.vcp.VmPowerOffHangEventHA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying Critical System All
com.vmware.vc.vcp.VmRestartEventHA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VmRestartFailedEventVirtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.VmWaitForCandidateHostEventHA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying Critical System All
com.vmware.vc.vmam.AppMonitoringNotSupportedApplication monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEventApplication heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEventApplication heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
esx.clear.net.connectivity.restoredNetwork connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.dvport.connectivity.restoredNetwork connectivity restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.dvport.redundancy.restoredUplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.redundancy.restoredUplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.vmnic.linkstate.upPhysical NIC {1} linkstate is up. Informational System All
esx.clear.storage.connectivity.restoredConnectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.clear.storage.redundancy.restoredPath redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.problem.apei.bert.memory.error.correctedA corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.fatalA fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.recoverableA recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.pcie.error.correctedA corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.fatalPlatform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.recoverableA recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.iorm.nonviworkloadAn external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. Informational System All
esx.problem.net.connectivity.lostLost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
esx.problem.net.dvport.connectivity.lostLost network connectivity on DVPorts: {1}. Physical NIC {2} is down. Critical System All
esx.problem.net.dvport.redundancy.degradedUplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.dvport.redundancy.lostLost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.e1000.tso6.notsupportedGuest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
esx.problem.net.migrate.bindtovmkThe ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
esx.problem.net.proxyswitch.port.unavailableVirtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
esx.problem.net.redundancy.degradedUplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.redundancy.lostLost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.uplink.mtu.failedVMkernel failed to set the MTU value {1} on the uplink {2}. Warning System All
esx.problem.net.vmknic.ip.duplicateA duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. Warning System All
esx.problem.net.vmnic.linkstate.downPhysical NIC {1} linkstate is down. Informational System All
esx.problem.net.vmnic.watchdog.resetUplink {1} has recovered from a transient failure due to watchdog timeout Informational System All
esx.problem.scsi.device.limitreachedThe maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. Critical System All
esx.problem.scsi.device.thinprov.atquotaSpace utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. Warning System All
esx.problem.scsi.scsipath.limitreachedThe maximum number of supported paths of {1} has been reached. Path {2} could not be added. Critical System All
esx.problem.storage.connectivity.deviceporFrequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} Warning System All
esx.problem.storage.connectivity.lostLost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
esx.problem.storage.connectivity.pathporFrequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.connectivity.pathstatechangesFrequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.redundancy.degradedPath redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.storage.redundancy.lostLost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.vmfs.heartbeat.recoveredSuccessfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
esx.problem.vmfs.heartbeat.timedoutLost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
esx.problem.vmfs.heartbeat.unrecoverableLost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
esx.problem.vmfs.journal.createfailedNo space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
esx.problem.vmfs.lock.corruptondiskAt least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.nfs.mount.connect.failedFailed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.mount.limit.exceededFailed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.server.disconnectLost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
esx.problem.vmfs.nfs.server.restoredRestored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
esx.problem.vmfs.resource.corruptondiskAt least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.volume.lockedVolume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All
vim.event.LicenseDowngradedEventLicense downgrade: {licenseKey} removes the following features: {lostFeatures} Warning System All
vprob.net.connectivity.lostLost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
vprob.net.e1000.tso6.notsupportedGuest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
vprob.net.migrate.bindtovmkThe ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
vprob.net.proxyswitch.port.unavailableVirtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
vprob.net.redundancy.degradedUplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. Warning System All
vprob.net.redundancy.lostLost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
vprob.scsi.device.thinprov.atquotaSpace utilization on thin-provisioned device {1} exceeded configured threshold. Warning System All
vprob.storage.connectivity.lostLost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
vprob.storage.redundancy.degradedPath redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. Warning System All
vprob.storage.redundancy.lostLost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
vprob.vmfs.heartbeat.recoveredSuccessfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
vprob.vmfs.heartbeat.timedoutLost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
vprob.vmfs.heartbeat.unrecoverableLost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
vprob.vmfs.journal.createfailedNo space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
vprob.vmfs.lock.corruptondiskAt least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. Critical System All
vprob.vmfs.nfs.server.disconnectLost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
vprob.vmfs.nfs.server.restoredRestored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
vprob.vmfs.resource.corruptondiskAt least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
vprob.vmfs.volume.lockedVolume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All

RHEV

Red Hat® Enterprise Virtualization (RHEV) es una de las tecnologías más usadas por empresas que tienen como base el sistema operativo Red Hat en su Data Center. Pandora FMS Enterprise ofrece la posibilidad de monitorizar las arquitecturas virtuales basadas en RHEV mediante el plugin RHEV Monitoring Plugin, que permite controlar de forma sencilla todos los aspectos relacionados con la arquitectura virtual RHEV.

Arquitectura a monitorizar

Con el plugin es posible monitorizar la arquitectura completa de un sistema RHEV: Data Centers, Host Clusters, Storage Domains, Networks, Hosts y Virtual Machines, ofreciendo una visión global del estado del entorno virtual.

Para ello, Pandora FMS usa la API oficial que provee el sistema de virtualización RHEV.

Monitorización con RHEV Monitoring Plugin

La monitorización de entornos virtuales RHEV se basa en dos componentes:

  1. Un plugin de Agente que realiza las tareas de autodescubrimiento y recogida datos. El plugin de Agente es el encargado de enviar la información a Pandora FMS.
  2. Un script de reconocimiento que actualiza diversos valores para las entidades descubiertas. Este guión es necesario para el correcto funcionamiento de las extensiones del plugin.
  3. Extensión RHEV Viewer y RHEV Manager. Son extensiones que aportan un valor añadido permitiendo ver la infraestructura monitorizada y operar apagando/encendiendo máquinas virtuales, todo ello desde la consola web de Pandora FMS.

Para poder usar el script de reconocimiento es necesario tener activado el Reconserver

Para que ciertas variables de la API reflejen el valor real de la máquina virtual asociada es necesario instalar el Agente de RHEV; podrá encontrar todo al respecto en la documentación de su versión de RHEV.

Para la monitorización del sistema operativo instalado en las máquinas virtuales se recomienda usar un Agente de Pandora FMS en lugar del API RHEV.

Funcionamiento interno del plugin

El plugin RHEV Monitoring Plugin extrae la información mediante la API web que sirve el entorno de virtualización RHEV.

Si solo necesita la información de monitorización lo único que tiene que configurar es el plugin de Agente que realizará esta tarea.

El plugin de Agente realiza un descubrimiento de dispositivos y compone los XML con los Módulos para cada uno de ellos. La configuración del plugin permite escoger qué elementos van a ser monitorizados y la configuración de sus Módulos. Los Módulos creados por el plugin son configurables, y es posible cambiar el nombre y la descripción y añadir valores máximos y mínimos para los estados Warning y Critical del Módulo.

Una vez creados los XML, el plugin de Agente envía los archivos, bien usando Tentacle o bien los copia a un directorio local, según el método de transferencia escogido.

Si además va a usar las extensiones RHEV Viewer y RHEV Manager necesitará usar el script de reconocimiento.

El guión de reconocimiento es el encargado de actualizar unas variables para cada uno de los Agentes detectados en Pandora FMS según los valores configurados en RHEV. Estas variables son necesarias para poder visualizar las entidades correctamente en la extensión RHEV Viewer y gestionar adecuadamente las máquinas virtuales con la extensión RHEV Manager.

Requisitos previos a la instalación

El plugin de Agente requiere el siguiente software:

  • curl.
  • perl-XML-Simple.
  • Agente Software de Pandora FMS.
  • tentacle_client (si se quiere usar tentacle para enviar los archivos, tentacle_client se instala junto con el Agente Software de Pandora FMS).
Red Hat

En sistemas basados en Red Hat® puede instalar las dependencias con el comando:

yum install perl-XML-Simple curl
SLES

En sistemas basados en SUSE puede instalar las dependencias con el comando:

zypper install perl-XML-Simple curl
Debian/Ubuntu

En sistemas basados en Debiand/Ubuntu puede instalar las dependencias con el comando:

apt-get install libxml-simple-perl curl
Instalación del Agente Software de Pandora FMS

La instalación del Agente Software de Pandora FMS se explica en la sección Instalación de Pandora FMS, ahí encontrará todo lo necesario para realizar la instalación de dicho Agente en su plataforma.

Descarga del certificado de RHEV

Antes de usar el plugin será necesario descargar el certificado que permite la conexión por HTTPS al API de RHEV. Para ello, ejecute el siguiente comando:

curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt

Donde [rhevm-host] es el nombre del servidor que sirve el API de RHEV. Un ejemplo concreto podría ser:

curl -o rhevm.cer http://rhevm.server:8080/ca.crt

Una vez descargado el certificado puede comprobar que la conexión a la API se realiza de forma correcta con el siguiente comando mediante el uso de conectores de línea \>

curl -X GET \
             -H "Accept: application/xml" \
             -u [USER:PASS] \
             --cacert [CERT] https://[RHEVM-HOST]:8443/api

Con los siguientes valores:

  • USER: [email protected] para conectarse al API.
  • PASS: contraseña del usuario con el que se conectará al API.
  • CERT: ruta al certificado descargado en el paso anterior.
  • RHEVM-HOST: dirección del host que sirve el API.

Un ejemplo con datos concretos del comando sería como el siguiente:

curl -X GET \
            -H "Accept: application/xml" \
            -u [[email protected]:12345] \
            --cacert /home/user/ca.crt https://rhevm.server:8443/api

Si la ejecución de comando es positiva, devolverá una salida en formato XML con información general sobre la API de RHEV.

Consideraciones previas sobre la configuración de RHEV

En el entorno de virtualización RHEV es posible que varias entidades tengan un mismo nombre. Esto supone un problema, ya que en Pandora FMS esas entidades se transformarán en Agentes en los que no se permite duplicidad en los nombres. Además, también generará problemas a la hora de parsear el resultado devuelto por la API en formato XML, mostrando un error parecido al siguiente:

Warning: <data_center> element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199

Para solucionar el problema lo único necesario es seguir una nomenclatura de nombres para las entidades del entorno de virtualización RHEV en el que no se repitan los nombres.

Instalación del plugin de Agente

Para instalar el plugin de Agente solo tiene que copiar el script rhev-plugin.pl y el archivo de configuración rhev-plugin.conf en un directorio de la máquina donde está instalado el Agente de Pandora FMS que ejecutará el plugin. El plugin se puede ejecutar en un Agente instalado en las mismas máquina que el servidor de Pandora FMS o en otra máquina distinta.

Para ejecutar el plugin debe añadir al archivo de configuración del Agente (por defecto /etc/pandora/pandora_agent.conf) la siguiente línea:

module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf

Añadiendo esta línea el plugin de Agente realizará sus funciones en cada ejecución.

Monitorizando la arquitectura virtual RHEV

700px‎‎‎‎‎‎

Para ver el resultado de la ejecución del plugin de Agente vaya a MonitoringViewsAgent Detail.

cosa222.jpg

El plugin crea un Agente en Pandora FMS por cada una de las entidades detectadas en el descubrimiento de la arquitectura RHEV.

Al pulsar el nombre de un Agente podrá ver los Módulos de monitorización creados por el plugin, además de otros datos relativos:

Haga clic para ampliar

Para cada tipo de entidad se crean automáticamente una serie de Módulos determinados, monitorizando la información importante de cada una de ellas.

rhev5.jpg

Si el Agente seleccionado correspondiera a un Host en lugar de una Máquina Virtual, los módulos de monitorización serían distintos.

El plugin RHEV también monitoriza los eventos ocurridos dentro de la arquitectura virtual. El plugin creará un Módulo para cada evento monitorizado dentro de cada entidad afectada:

rhev1.jpg

Los datos para los Módulos creados a partir de eventos son datos del evento: hora del suceso, descripción del evento. Ejemplo de datos:

Además de los Agentes y los Módulos relativos a la arquitectura RHEV propiamente dicha, se genera un Módulo en el Agente que ejecuta el plugin. Este Módulo se llama, por defecto, RHEV Plugin:

rhev3.jpg

El contenido del Módulo será el resultado de ejecución del plugin; podrá ser OK si todo es correcto o mostrará una cadena de error con la explicación del mismo si algo inesperado ocurre. Esta información además de en el Módulo del plugin se podrá consultar en un archivo de log.

Monitorizando el estado de las entidades

Los Módulos de estado de las diferentes entidades devuelven los valores predefinidos en la arquitectura RHEV. Esto significa que los valores serán cadenas de texto cuyo contenido será up, down, error, maintenance, non_operational, etc., dependiendo del estado y la entidad monitorizada.

Para asignar valores warning y critical será necesario definir una expresión regular en la configuración del Módulo. Por ejemplo, para definir un estado crítico en un Módulo que está determinado por los valores error, down y non_operational, insertamos en el campo Str. del valor critical del módulo la siguiente expresión regular:

error|down|non_operational

Módulos de agente de la arquitectura virtual RHEV

A continuación se detallan los Módulos disponibles para cada elemento de la arquitectura RHEV.

Data Center
  • Status: Estado del Data Center.
Storage Domain
  • Available Space: Espacio disponible en el Storage Domain.
  • Committed Space: Espacio comprometido en el Storage Domain.
  • Used Space: Espacio usado en el Storage Domain.
  • Percent Free Space: Porcentaje de espacio libre en el Storage Domain.
Network
  • Status: Estado de la red virtual.
  • STP Status: Estado de la funcionalidad Spanning Tree Protocol.
Cluster
  • Overcommit Percent: Porcentaje de sobreasignación del cluster.
  • Transparent HugePages: Estado de la funcionalidad Transparent HugePages.
  • High threshold: Límite superior en las políticas de planificación.
  • Low threshold: Límite inferior en las políticas de planificación.
  • Threshold duration: Duración de los límites en las políticas de planificación.
Host
  • Status: Estado del Host.
  • Buffers size: Tamaño de los buffers.
  • Cache size: Tamaño de la cache.
  • Cached swap: Cantidad de memoria Swap caching (en bytes).
  • Free memory: Cantidad de memoria libre (en bytes).
  • Percent free memory: Porcentaje de memoria libre.
  • Swap cached percent: Porcentaje de memoria Swap caching.
  • Swap free: Cantidad de memoria Swap libre (en bytes).
  • Swap free percent: Porcentaje de memoria Swap libre.
  • Total Memory: Cantidad total de memoria del Host (en bytes).
  • Total Swap: Cantidad total de memoria Swap (en bytes).
  • Used memory: Cantidad total de memoria usada (en bytes).
  • Used Swap: Cantidad total de memoria Swap usada (en bytes).
  • Nic [x] TX: Ratio de transferencia para la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] RX: Ratio de recepción para el la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros TX: Número de errores de transmisión para en la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros RX: Número de errores de recepción para en la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
  • User CPU: Porcentaje de CPU usada por el usuario.
  • System CPU: Porcentaje de CPU usada por el sistema.
  • CPU Idle: Porcentaje de CPU ociosa.
  • CPU Load: Carga media de CPU de los últimos 5 minutos.
  • KSM CPU: Porcentaje de CPU usado por KSM.
  • Active VM: Número de máquinas virtuales activas en el Host.
  • Migrating VM: Número de máquinas virtuales en migración en el Host.
  • Total VM: Número total de máquinas virtuales del Host.
  • Fence Status: Estado del fencing del host.
Virtual Machine
  • Status: Estado de la máquina virtual.
  • Disk [x] read: Tasa de lectura del disco x (bytes/segundo). Se genera uno por cada disco (almacenamiento) detectado.
  • Disk [x] write: Tasa de escritura del disco x (bytes/segundo). Se genera uno por cada disco detectado.
  • Disk [x] size: Tamaño del disco x (en bytes). Se genera uno por cada disco detectado.
  • Disk [x] status: Estado del disco x. Se genera uno por cada disco detectado.
  • Nic [x] TX: Ratio de transferencia para la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] RX: Ratio de recepción para la interfaz de red [x] (en bytes/segundo). Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros TX: Número de errores de transmisión para el la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
  • Nic [x] erros RX: Número de errores de recepción para el la interfaz de red [x]. Se genera uno por cada interfaz de red detectada.
  • Installed memory: Cantidad de memoria instalada (en bytes).
  • Percent free memory: Porcentaje de memoria libre.
  • Used memory: Cantidad de memoria usada (en bytes).
  • Stateless: Estado de la funcionalidad Stateless.
  • HA Status: Estado de la funcionalidad de HA.
  • Total CPU: Porcentaje total de CPU usada por la máquina virtual.
  • Hypervisor CPU: Porcentaje de CPU del Hypervisor usado por la máquina virtual.
  • Guest CPU: Porcentaje de CPU del Host que usa la máquina virtual.
Eventos
  • Event [x]: Descripción del evento x ocurrido en el sistema. Se creará uno por cada evento detectado en los Agentes afectados.

Gestión y visualización de la arquitectura RHEV

En esta sección se explica la instalación, configuración y funcionamiento de las extensiones RHEV View y RHEV Manager.

Tareas de reconocimiento

Existe la posibilidad de crear tareas personalizadas de reconocimiento gracias al Discovery server.

Instalación de extensiones RHEV View y RHEV Manager

Para instalar las extensiones simplemente debe copiar el contenido de la carpeta extensions, que encontrará al descomprimir el plugin, en la correspondiente carpeta extensions de la parte Enterprise de la Consola de Pandora FMS. El comando a ejecutar es el siguiente:

cp -R extensions/* <pandora_console_dir>/enterprise/extensions/

Desde ese momento estarán disponibles las extensiones de monitorización RHEV.

Usado la extensión RHEV View

Para usar la extensión RHEV View solo tiene que pulsar en la opción RHEV View dentro del submenú Monitoring.

La extensión mostrará un mapa como el siguiente, con todos los componentes de la arquitectura RHEV descubiertos por el plugin:

rhev12.jpg

En el mapa aparecen representados los diferentes elementos de la arquitectura RHEV (Data Centers, Storage Domains, Clusters, Networks, Hosts y Virtual machines). Cada elemento está representado por un icono, distinto para cada tipo de elemento de la arquitectura. También quedan representadas las relaciones entre los diferentes elementos de la arquitectura RHEV. Con esta vista es muy sencillo ver el estado de los elementos y cómo se interrelacionan.

La extensión cuenta con un menú que permite configurar la vista ocultando o mostrando entidades, ampliando o reduciendo el tamaño del texto y realizando zoom para ver la imagen con más detalle.

Por ejemplo, en la siguiente imagen del mapa se ha ocultado los elementos Networks, Hosts y Virtual Machine de la arquitectura porque se necesita ver en detalle las relaciones de Clusters y Storage Domains con los Data Center.

rhev8.jpg

Usado la extensión RHEV Manager

La extensión RHEV Manager está disponible en la vista de operación de los agentes de Pandora FMS que se correspondan con máquinas virtuales dentro de la arquitectura de virtualización RHEV.

Esta extensión usa el comando curl, por lo que será necesario que esté instalado y sea accesible para el servidor web que soporte la Consola de Pandora FMS.

Para acceder a la extensión pulse en el botón con el logo de Red Hat que encontrará junto con los demás tabs del agente.

La extensión permite gestionar máquinas virtuales (encender, apagar y suspender) sin necesidad de abrir la consola de gestión de RHEV. En la extensión se muestra el estado actual de la máquina virtual con un código de colores:

  • Verde = Encendida.
  • Naranja = Suspendida.
  • Gris = Detenida.

Con un combo con los estados disponibles a los estados que se puede llevar la máquina virtual al pulsar el botón Change Status.

Si escoge el estado Stop para detener la máquina virtual, la extensión conectará con la API RHEV y enviará la orden. El resultado será el cambio de estado en la máquina virtual y las opciones del combo:

El paso entre algunos estados no es automático, como por ejemplo del estado Stop a Start. En este caso, la extensión irá mostrando el estado de la máquina virtual según vaya cambiando en la arquitectura de virtualización. Ejemplo:

Configuración del plugin de Agente

La configuración del plugin de Agente se realiza mediante un archivo de configuración cuyo nombre por defecto es rhev-plugin.conf.

Por defecto, el plugin de Agente selecciona todas las entidades y crea todos los Módulos correspondientes con unos valores predeterminados para el nombre y la descripción. Todos estos aspectos, así como variables generales del plugin, se pueden configurar a través del archivo de configuración.

Archivo de configuración

El archivo de configuración tiene dos áreas bien diferenciadas: las variables globales y la configuración de la monitorización.

La sección de variables globales comienza con el token Configuration y contiene la información de configuración del plugin. Los parámetros permitidos en esta sección son:

  • module_name : Nombre del Módulo del Agente con el estado de la ejecución del plugin.
  • server : Nombre del host que sirve la API de RHEV.
  • user : Usuario en formato [email protected] para conectarse a la API.
  • pass : Contraseña para conectarse a la API.
  • cert : Ruta del certificado para conectarse a la API.
  • temporal : Directorio temporal.
  • logfile : Archivo de registro o log.
  • transfer_mode : Modo de transferencia. Puede tomar los valores: local o tentacle.
  • tentacle_ip : Dirección IP del servidor Tentacle al cual enviar la información. Típicamente estará situado en la misma máquina que el servidor de Pandora FMS. Esta opción solo se usa si transfer_mode tiene el valor tentacle.
  • tentacle_port : Puerto del servidor Tentacle. Esta opción solo se usa si transfer_mode tiene el valor tentacle.
  • tentacle_opts : Opciones de envío de datos para Tentacle. Esta opción solo se usa si transfer_mode tiene el valor tentacle.

La sección de configuración de la monitorización se divide en varias subsecciones. La primera subsección tiene como token Reject y sirve para listar las entidades del entorno de virtualización que serán descartadas de la monitorización. Para descartar una entidad será necesario poner el nombre de la misma en esta lista. Por ejemplo:

 #Dismissed entities
 Reject
 mv1
 mv_Windows10
 mv_WebServer1
 ...

Es posible descartar todas las entidades de un mismo tipo, por ejemplo todos los hosts, todas las máquinas virtuales, etc. Los token para cada entidad son: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (Máquinas Virtuales). Ejemplo de uso de estos tokens:

 #Dismissed entities
 Reject
 all_dc
 all_host
 all_network
 all_storage
 all_cluster
 all_vm

La segunda sección tiene como token Rename y sirve para cambiar los nombres de las entidades monitorizadas a través del plugin. Esta funcionalidad es muy útil si se quiere combinar la monitorización de agentes software con datos extraídos de la API en el mismo Agente de Pandora FMS. La configuración de esta sección se realiza poniendo primero el nombre antiguo y a continuación el nuevo separado por un espacio; por ejemplo:

 #Rename entities
 Rename
 mv_WebServer1 WebServer1
 mv_Windows10 Windows10 Test
 ...

Las siguientes subsecciones se corresponden con la configuración de monitorización para cada entidad. Cada entidad tiene su propio token, siendo los siguientes: DataCenter, StorageDomain, Network, Cluster, Host y VM. Para cada una de estas entidades es posible definir los Módulos que estarán deshabilitados o definir unos valores personalizados para el nombre, la descripción y los rangos de máximos y mínimos para los estados Warning y Critical. Un ejemplo sería el siguiente:

#VM Modules
VM
status disabled
errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100
memory_used name = Memoria en uso; desc = Memoria usada por la maquina virtual; limits = 256 1024 1025 2048
...

Cada línea de configuración de los módulos de monitorización se corresponde dos opciones disponibles:

  • <modulo> disabled: El Módulo NO se creará.
  • <modulo> name = <nombre>; desc = <descripcion>; limits = <min_warning> <max_warning> <min_critical> <max_critical» El Módulo se creará con el nombre y la descripción proporcionados y además se definirán los umbrales para los máximos y mínimos de los valores Warning y Critical.

Es muy importante tener en cuenta la estructura de las líneas del archivo de configuración y sobre todo ver que el carácter ; va pegado al nombre y la descripción del módulo. Estas dos líneas NO SON EQUIVALENTES (véanse los espacios antes del carácter ; ):

errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100 #Correcto
errors_total_tx name = Errores TX Net [%s]    ; desc = Errores totales TX de red    ; limits = 60 70 71 100 #Incorrecto

Los Módulos están referenciados por su nombre corto, un nombre equivalente más sencillo de escribir en la línea de comandos. La tabla de correspondencia entre nombres cortos y expandidos está en la siguiente sección.

Ejemplo de configuración para las máquinas virtuales, sección VM:

Para la monitorización de las máquinas virtuales se han definido una serie de Módulos habilitados o no en la sección VM del archivo de configuración. Más concretamente: el Módulo status ha sido deshabilitado y para los Módulos errors_total_tx y memory_used se han definido unos valores personalizados. Los demás Módulos que no aparecen en el listado se crearán con los valores por defecto. Con esta configuración, el Módulo memory_used tomará los siguientes valores:

  • Nombre: Memoria en uso.
  • Descripción: Memoria usada por la maquina virtual.
  • Min Warning: 256.
  • Max Warning: 1024.
  • Min Critical: 1025.
  • Max Critical: 2048.

Los Módulos se generan dinámicamente; por ejemplo, dos relativos a discos o interfaces de los cuales se crea uno por cada elemento detectado. Tienen una sintaxis especial para el nombre del Módulo, que es la siguiente:

errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100

En estos casos, como el nombre tiene parte dinámica, lo que se permite es usar la macro %s que será sustituida por el plugin por la parte variable del nombre del Módulo.

Por ejemplo, el Módulo errors_total_tx tiene por nombre por defecto:

Nic [nic1] errors TX 

Pasará a llamarse

Errores TX Net [nic1] 

Siendo nic1 la parte dinámica del nombre del módulo.

Todos los errores relativos al archivo de configuración son presentados en el log definido en el archivo de configuración y además son enviados como un Módulo asíncrono a Pandora FMS que quedará reflejado como un Módulo dentro del Agente que ejecuta el plugin.

Además de las secciones propias de cada elemento de la arquitectura, el archivo de configuración tiene una sección común para los Eventos. Esta sección se define con el token EventCodes y en él se listarán los códigos de los eventos a monitorizar; por ejemplo:

 EventCodes
 30
 920
 980
 509
 956

Si no define esta sección, no se realizará la monitorización de eventos.

Dividir la carga de la monitorización entre varios Agentes Software

Mediante el archivo de configuración del plugin de Agente es posible dividir la carga de monitorización de la infraestructura de virtualización RHEV.

Para ello se repartirán las entidades a monitorizar entre los distintos Agentes. Suponga que tiene la siguiente arquitectura:

 DC1
  |
  |- Cluster 1.1
        |- c1.1mv1
        |- c1.1mv2
        |- c1.1mv3
 
  |- Cluster 1.2
        |- c1.2mv1
        |- c1.2mv2
        |- c1.2mv3
 
 DC2
  |
  |- Cluster 2.1
        |- c2.1mv1
        |- c2.1mv2
        |- c2.1mv3
 
  |- Cluster 2.2
        |- c2.2mv1
        |- c2.2mv2
        |- c2.2mv3

Una forma de dividir la carga sería asignando una Datacenter a cada uno de los Agentes Software; para ello usaríamos la funcionalidad para descartar entidades a monitorizar (token Reject).

El primer Agente Software monitoriza el Datacenter DC1 y descarta las entidades de DC2.

 Reject
 DC2
 Cluster 2.1
 Cluster 2.2
 c2.1mv1
 c2.1mv2
 c2.1mv3
 c2.2mv1
 c2.2mv2
 c2.2mv3

El segundo Agente Software monitoriza el Datacenter DC2 y descarta las entidades de DC1.

 Reject
 DC1
 Cluster 1.1
 Cluster 1.2
 c1.1mv1
 c1.1mv2
 c1.1mv3
 c1.2mv1
 c1.2mv2
 c1.2mv3

También podríamos dividir la carga basándonos en los clusters, por ejemplo. Para cada cluster de los dos Datacenters se asignará un agente de los cuatro primeros.

Agente Software 1, monitorizar Cluster 1.1 y descarta las demás entidades.

 Reject
 DC1
 Cluster 1.2
 c1.2mv1
 c1.2mv2
 c1.2mv3
 DC2
 Cluster 2.1
 Cluster 2.2
 c2.1mv1
 c2.1mv2
 c2.1mv3
 c2.2mv1
 c2.2mv2
 c2.2mv3

Agente Software 2, monitorizar Cluster 1.2 y descarta las demás entidades.

 Reject
 DC1
 Cluster 1.1
 c1.1mv1
 c1.1mv2
 c1.1mv3
 DC2
 Cluster 2.1
 Cluster 2.2
 c2.1mv1
 c2.1mv2
 c2.1mv3
 c2.2mv1
 c2.2mv2
 c2.2mv3

Agente Software 3, monitorizar Cluster 2.1 y descarta las demás entidades.

 Reject
 DC1
 Cluster 1.1
 Cluster 1.2
 c1.1mv1
 c1.1mv2
 c1.1mv3
 c1.2mv1
 c1.2mv2
 c1.2mv3
 DC2
 Cluster 2.2
 c2.2mv1
 c2.2mv2
 c2.2mv3

Agente Software 4, monitorizar Cluster 2.2 y descarta las demás entidades.

 Reject
 DC1
 Cluster 1.1
 Cluster 1.2
 c1.1mv1
 c1.1mv2
 c1.1mv3
 c1.2mv1
 c1.2mv2
 c1.2mv3
 DC2
 Cluster 2.1
 c2.1mv1
 c2.1mv2
 c2.1mv3

La configuración de entidades descartadas es totalmente flexible y se podría llegar a dividir la carga asignando varias entidades a cada Agente Software.

Ejemplos de archivos de configuración

Archivo con todos los Módulos deshabilitados

  #These lines are comments
 
 #Plugin configuration parameters
 Configuration
 server rhevm.server
 user [email protected]
 pass 12345
 cert /home/user/rhevm.cer
 temporal /tmp
 logfile /tmp/plugin-rhev.log
 transfer_mode local
 tentacle_ip 127.0.0.1
 tentacle_port 41121
 tentacle_opts
 
 #Dismissed entities
 Reject
 
 #Data Center modules
 DataCenter
 status disabled
 
 #StorageDomain modules
 StorageDomain
 available disabled
 used disabled
 committed disabled
 free_percent disabled 
 
 #Networks modules
 Network
 status disabled
 stp disabled
 
 #Clusters modules
 Cluster
 overcommit disabled
 hugepages disabled
 threshold_low disabled
 threshold_high disabled
 threshold_duration disabled
 
 #Host Modules
 Host
 status disabled 
 vm_active disabled
 vm_migrating disabled
 vm_total disabled
 data_current_rx disabled
 data_current_tx disabled
 errors_total_rx disabled
 errors_total_tx disabled
 memory_cached disabled
 memory_total disabled
 swap_free_percent disabled
 swap_cached_percent disabled
 swap_free disabled
 cpu_current_idle disabled
 cpu_current_user disabled
 memory_used disabled
 ksm_cpu_current disabled
 memory_free_percent disabled
 swap_total disabled
 memory_buffers disabled
 cpu_current_system disabled
 cpu_load_avg_5m disabled
 swap_cached disabled
 swap_used disabled
 memory_free disabled
 fence_status disabled
 
 #VM Modules
 VM
 status disabled
 stateless disabled
 ha disabled
 cpu_current_guest disabled
 cpu_current_hypervisor disabled
 memory_free_percent disabled
 memory_installed disabled
 memory_used disabled
 cpu_current_total disabled
 data_current_read disabled
 data_current_write disabled
 size disabled
 disk_status disabled
 data_current_rx disabled 
 data_current_tx disabled
 errors_total_rx disabled
 errors_total_tx disabled
Tabla correspondencia nombres de Módulos

Data Center

Nombre Expandido Nombre Corto
Status status

Storage Domain

Nombre Expandido Nombre Corto
Available Space available
Used Space used
Committed Space committed
Percent Free Space free_percent

Network

Nombre Expandido Nombre Corto
Status status
STP Status stp

Cluster

Nombre Expandido Nombre Corto
Overcommit Percent overcommit
Transparent HugePages hugepages
Low Threshold threshold_low
High Threshold threshold_high
Threshold duration threshold_duration

Host

Nombre Expandido Nombre Corto
Status status
Active VM vm_active
Migrating VM vm_migrating
Total VM vm_total
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx
Cache size memory_cached
Total memory memory_total
Swap free percent swap_free_percent
Swap cached percent swap_cached_percent
Swap free swap_free
CPU Idle cpu_current_idle
User CPU cpu_current_user
Used memory memory_used
KSM CPU ksm_cpu_current
Percent free memory memory_free_percent
Total swap swap_total
Buffers size memory_buffers
System CPU cpu_current_system
CPU Load cpu_load_avg_5m
Cached swap swap_cached
Used swap swap_used
Free memory memory_free
Fence Status fence_status

Virtual Machine

Nombre Expandido Nombre Corto
Status status
Stateless stateless
HA Status ha
Guest CPU cpu_current_guest
Hypervisor CPU cpu_current_hypervisor
Percent free memory memory_free_percent
Installed memory memory_installed
Used memory memory_used
Total CPU cpu_current_total
Disk [x] read data_current_read
Disk [x] write data_current_write
Disk [x] size size
Disk [x] status disk_status
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx

Nutanix

Versión Enterprise.

La solución de hiperconvergencia Nutanix® ofrece la posibilidad de gestionar todos los recursos de red, disco, procesamiento y memoria desde un único punto.

El plugin de monitorización de Pandora FMS para Nutanix® permite controlar en todo momento el estado de nuestra solución Nutanix®.

Funcionamiento del plugin Nutanix

El plugin Nutanix® es un programa escrito en Perl, que se conectará a la API REST de Nutanix PRISM®, recuperando las métricas necesarias para monitorizar los siguientes elementos:

  • Clusters Nutanix®.
  • Dispositivos de almacenamiento.
  • Contenedores.
  • Máquinas Virtuales.
  • Hosts.
  • Estado de los procesos de replicación.

Requisitos del plugin Nutanix

Para poder recuperar la información de la API REST, necesita:

  • La dirección IP/ FQDN del portal.
  • Un usuario con permisos de lectura sobre la API.
  • La contraseña de dicho usuario.

En cuanto a la comunicación de los resultados de la monitorización a su Pandora FMS necesita:

  • El modo de transferencia de la información, sea local o vía Tentacle.
    • En caso de ser local, la dirección del directorio donde han de entregarse los ficheros XML con los resultados, así como permisos de escritura en dicho directorio.
    • En caso de ser comunicación vía Tentacle, será necesario poder conectar contra la dirección IP o FQDN del servidor Pandora FMS, el puerto utilizado por su instalación Tentacle, la localización del cliente de Tentacle así como cualquier opción extraordinaria que haya definido.

Instalación del plugin Nutanix

Descargue los archivos requeridos por el plugin de la librería de Módulos. Transfiera los archivos al equipo remoto desde donde desea realizar la monitorización de su infraestructura Nutanix® y extraiga los archivos del plugin:

tar xvzf pandora_nutanix.tar.gz

Configuración del plugin Nutanix

Se declaran los siguientes campos:

Nutanix API configuration

nx_fqdn

Dirección del servidor principal Prism.

nx_port

Puerto en el que la API REST está publicada (por defecto 9440).

nx_user

Usuario con privilegios de lectura sobre la API REST.

nx_pass

Contraseña de dicho usuario.

use_https

Usar https (1) o no (0)

nx_rest_version

Versión del API Rest (por defecto 'v1').

Nutanix agent configuration

agent_interval

Intervalo de los Agentes generados por el plugin (por defecto 300)

agent_group

Grupo al que pertenecerán los Agentes generados (si se comenta 'autocreate_group' en la configuración de su PandoraServer), por defecto Nutanix.

module_interval

Intervalo de los Módulos de los agentes generados (factor de multiplicación, por defecto 1).

module_tags

Etiquetas asociadas a los nuevos módulos de los agentes generados.

module_group

Grupo al que pertenecerán los nuevos Módulos.

Configuración de la comunicación hacia el servidor de Pandora FMS

mode

Modo de transferencia de datos, “local” o “tentacle”.

tentacle_ip

dirección IP del servidor Pandora FMS, solo aplica en modo Tentacle

tentacle_port

Puerto en el que el servicio Tentacle está escuchando.

tentacle_opts

Cualquier opción extra que haya configurado en su servicio Tentacle.

tentacle_client

Ruta completa a su cliente Tentacle.

temp

Directorio de trabajo temporal.

local_folder

Ruta de entrega para el modo de transferencia de datos “local”.

Filtros

cluster_monitoring

Habilitar (1) o no (0) la monitorización de clusters.

storage_monitoring

Habilitar (1) o no (0) la monitorización de dispositivos de almacenamiento.

container_monitoring

Habilitar (1) o no (0) la monitorización de los contenedores de almacenamiento.

vm_monitoring

Habilitar (1) o no (0) la monitorización de máquinas virtuales.

host_monitoring

Habilitar (1) o no (0) la monitorización de servidores de máquinas virtuales (nodos Nutanix).

pd_monitoring

Habilitar (1) o no (0) la monitorización de dominios de protección.

Personalizaciones

cluster_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo cluster.

storage_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo dispositivo de almacenamiento.

host_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo servidor de máquinas virtuales (nodos Nutanix).

container_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo contenedores de almacenamiento.

vm_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo máquina virtual.

pd_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo dominio de protección

Reglas de generación de Módulos

vm_stat

Regla para agregado de Módulos para la monitorización de máquinas virtuales, por defecto hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*, esto indica los Módulos extraordinarios que se generarán, cuando el nombre de la métrica coincida con las expresiones regulares indicadas en este campo. Agregue el valor .* para monitorizar todas las métricas disponibles.

host_stat

Regla para agregado de Módulos para la monitorización de servidores de máquinas virtuales (nodos Nutanix), por defecto hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*, esto indica los Módulos extraordinarios que se generarán, cuando el nombre de la métrica coincida con las expresiones regulares indicadas en este campo. Agregue el valor .* para monitorizar todas las métricas disponibles.

pd_stat

Regla para agregado de Módulos para la monitorización de dominios de protección, por defecto replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes, esto indica los Módulos extraordinarios que se generarán, cuando el nombre de la métrica coincida con las expresiones regulares indicadas en este campo. Agregue el valor .* para monitorizar todas las métricas disponibles.

Renombrado de entidades

RENAME aaa TO bbb

Regla para el renombrado de entidades, puede definir tantas directivas como elementos necesite renombrar.

Exclusión de entidades

REJECT aaa

Regla para la exclusión de monitorización de entidades, puede definir tantas directivas como elementos necesite excluir.

Ejecución del plugin Nutanix

Se recomienda ejecutar el plugin de forma remota desde un equipo con acceso tanto a Pandora Server como a su infraestructura Nutanix® a monitorizar.

Ejecución manual:

./pandora_nutanix-linux-x64 pandora_nutanix.conf

Puede automatizar la ejecución del plugin en el cron de sistema agregando la siguiente línea a /etc/crontab>

  • /5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf

Resultados del plugin Nutanix

Capturas con los resultados obtenidos por el plugin:

Ejemplo de mapa de arquitectura Nutanix®:

nutanix_map.jpg

Ejemplo de vista de Agente de arquitectura Nutanix®:

nutanix_agents.jpg

Ejemplo de vista de módulos para Agentes de tipo Host Nutanix®:

nutanix_host_modules.jpg

XenServer

Versión Enterprise.

Xen es un monitor de máquina virtual de código abierto desarrollado por la Universidad de Cambridge.

La meta del diseño es poder ejecutar instancias de sistemas operativos con todas sus características, de forma completamente funcional en un equipo sencillo.

Xen proporciona aislamiento seguro, control de recursos, garantías de calidad de servicio y migración de máquinas virtuales en caliente. Los sistemas operativos pueden ser modificados explícitamente para correr Xen (aunque manteniendo la compatibilidad con aplicaciones de usuario). Esto permite a Xen alcanzar virtualización de alto rendimiento sin un soporte especial de hardware.

Intel ha realizado diversas contribuciones a Xen que han permitido añadir soporte para sus extensiones de arquitectura VT-X Vanderpool. Esta tecnología permite que sistemas operativos sin modificar actúen como hosts dentro de las máquinas virtuales de Xen, siempre y cuando el servidor físico soporte las extensiones VT de Intel o Pacifica de AMD.

Funcionamiento del plugin XenServer

El plugin Pandora FMS para la monitorización de entornos Xen está escrito en Python. Utiliza XenAPI para recuperar toda la información necesaria. Permite la monitorización de los siguientes tipos de elementos:

  • Sistemas virtualizados en Xen.
  • Recursos de almacenamiento.
  • Propio servidor Xen (host).

Requisitos del plugin XenServer

Es imprescindible que el sistema que ejecute el plugin disponga de los siguientes requisitos:

  • Python instalado
  • Librerías Python instaladas:
    • XenAPI
    • xmltodict
  • Acceso a la API de su XenServer (web, habilite el tráfico desde el equipo que ejecuta el plugin al puerto 443 o el 80 del XenServer).
  • Se recomienda que las máquinas virtuales tengan Xen Server Tools instalada, ya que la información disponible en caso contrario es bastante escasa.

El funcionamiento del plugin se ha probado satisfactoriamente en sistemas XenServer 6.5 y 7.2

Instalación del plugin

Descargue su copia del plugin de Pandora FMS para XenServer de la librería de módulos Puede desplegarlo en el equipo que prefiera (Windows® o Linux®), extrayendo el contenido del archivo en un directorio no volátil desde donde pueda ejecutarlo, ya bien sea utilizando el Agente de Pandora FMS o el cron de sistema.

Configuración del plugin

Configuración disponible para el plugin Pandora FMS para Xen:

Bloque de configuración [CONF]

xen_server_ip

Dirección IP/FQDN del servidor Xen

user

Usuario con permisos de consulta sobre la API de Xen

password

Contraseña del usuario

temporal

Directorio de trabajo temporal

Bloque de configuración [PANDORA]

tentacle_client

Ubicación del binario del cliente de Tentacle

tentacle_ip

Dirección IP donde el servicio Tentacle está escuchando.

tentacle_port

Puerto donde el servicio Tentacle está escuchando.

logfile

Ruta completa al fichero de log

interval

Intervalo de los agentes generados

group

Grupo asignado a los agentes generados.

Bloque de configuración [TUNNING]

time_adjustment

Parámetro que permite el ajuste de las posibles diferencias de tiempo entre el equipo que ejecuta el plugin y el servidor Xen. (por defecto=10, medido en segundos)

scan_vm_ip

Parámetro que permite definir si el plugin tratará de obtener las IPs de las VMs del servidor de Xen. Solo se pueden tomar las IPs de aquellas VMs con las XenTools instaladas. Se puede habilitar (scan_vm_ip=true) o deshabilitar (scan_vm_ip=false). Si no se especifica se considera habilitado.

Bloque de configuración [RENAME]

xen_element_name = pandora_agent_name

En este bloque se pueden definir tantas entradas como se quiera con este formato. Permite cambiar los nombres de los elementos del Xen Server a otros distintos para ser usados como nombres de agentes en Pandora FMS. Se pueden renombrar las VMs, los SRs y el propio Xen Server. Por ejemplo:

 [RENAME]
 example-xen-server=Example Xen Server
 Example Xen Server 2=example-xen-server-2
 example-vm=Example VM
 Example VM 2=example-vm-2
 example-sr=Example SR
 Example SR 2=example-sr-2**

Aunque los nombres tengan espacios en blanco, no se deben poner comillas.

Ejecución del plugin

Puede programar la ejecución del plugin desde cualquier agente de Pandora FMS, agregando lo siguiente a la configuración del mismo:

module_plugin python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"

Para programarlo a través del cron de sistema puede añadir la línea siguiente a /etc/crontab:

  • /5 * * * * root python “<ruta>\xen-plugin.py” “<ruta>\xen-plugin.conf” > /dev/null 2>&1

Si ejecuta el plugin manualmente la salida debe ser similar a la que sigue:

python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"
<module>
<name><![CDATA[XenServer Plugin]]></name>
<type><![CDATA[async_string]]></type>
<description><![CDATA[Result of XenServer Plugin execution]]></description>
<data><![CDATA[OK]]></data>
</module>

Resultados del plugin XenServer

Capturas con los resultados obtenidos por el plugin:

Ejemplo de mapa de arquitectura Xen:

Ejemplo de vista de agente de arquitectura Xen:

Ejemplo de vista de módulos para agentes de tipo Host Xen:

OpenNebula

Versión Enterprise.

OpenNebula es una plataforma para computación en la nube orientada a centros de datos distribuidos y heterogéneos, proporcionando la infraestructura virtual para construir nubes privadas, públicas, e implementaciones híbridas de infraestructura como servicio (IaaS).

OpenNebula es software open source amparado en la Licencia Apache 2.

Funcionamiento del plugin OpenNebula

El plugin Pandora FMS para la monitorización de entornos OpenNebula está escrito en Perl. Se ejecuta de manera local en el servidor OpenNebula y recuperará toda la información necesaria utilizando los propios comandos de gestión de OpenNebula. Permite la monitorización de los siguientes tipos de elementos:

  • Clusters.
  • Hosts.
  • Máquinas virtuales.
  • Recursos de almacenamiento.

Requisitos del plugin OpenNebula

Es imprescindible que el sistema que ejecute el plugin disponga de los siguientes requisitos:

  • Perl disponible en el equipo
  • Usuario con privilegios para ejecutar los siguientes comandos:
    • onehost.
    • onecluster.
    • onedatastore.

El funcionamiento del plugin se ha probado satisfactoriamente en sistemas OpenNebula 5.X.X .

Instalación del plugin

Descargue su copia del plugin de Pandora FMS para OpenNebula de la librería de módulos. Debe extraer el contenido del archivo en un directorio no volátil desde donde pueda ejecutarlo, ya bien sea utilizando el agente de Pandora FMS o el cron de sistema.

unzip pandora_OpenNebula.zip

Configuración del plugin

Configuración disponible para el plugin Pandora FMS para OpenNebula.

Configuración de la comunicación hacia el servidor de Pandora FMS

mode

Modo de transferencia de datos, “local” o “tentacle”.

tentacle_ip

dirección IP del servidor Pandora FMS, solo aplica en modo tentacle.

tentacle_port

Puerto en el que el servicio Tentacle está escuchando.

tentacle_opts

Cualquier opción extra que haya configurado en su servicio Tentacle.

tentacle_client

Ruta completa a su cliente Tentacle.

temp

Directorio de trabajo temporal.

local_folder

Ruta de entrega para el modo de transferencia de datos “local”.

Configuración del Agente

agent_interval

Intervalo del agente, por defecto 300.

agent_group

Grupo del Agente, por defecto OpenNebula.

Personalización de los Módulos

MODULE_GROUP

Grupo de los módulos, por defecto OpenNebula.

MODULE_INTERVAL

Intervalo de los módulos (multiplicador), por defecto 1.

MODULE_TAGS

Etiquetas para los Módulos.

Personalización de nombres

cluster_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo cluster.

host_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo servidor de máquinas virtuales.

storage_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo dispositivo de almacenamiento.

vm_agent_header

Cabecera para el nombre del Agente de dispositivos de tipo máquina virtual.

Filtros

cluster_monitoring

Habilitar (1) o no (0) la monitorización de clusters.

host_monitoring

Habilitar (1) o no (0) la monitorización de servidores de máquinas virtuales.

storage_monitoring

Habilitar (1) o no (0) la monitorización de dispositivos de almacenamiento.

vm_monitoring

Habilitar (1) o no (0) la monitorización de máquinas virtuales

Renombrado de entidades

RENAME aaa TO bbb

Regla para el renombrado de entidades, puede definir tantas directivas como elementos necesite renombrar.

Exclusión de entidades

REJECT aaa

Regla para la exclusión de monitorización de entidades, puede definir tantas directivas como elementos necesite excluir.

Ejecución del plugin

Para programarlo a través del cron de sistema puede añadir la línea siguiente a /etc/crontab:

  • /5 * * * * root “<ruta>/pandora_opennebula” “<ruta>/pandora_opennebula.conf” > /dev/null 2>&1

Si ejecuta el plugin manualmente la salida debe ser similar a la que sigue:

[[email protected] ~]# ./pandora_opennebula pandora_opennebula.conf
[[email protected] ~]# echo $?
0

Resultados del plugin OpenNebula

Lista de módulos generados por el plugin OpenNebula:

Para Hosts:

  1. Available CPU
  2. Available Disk
  3. Available memory
  4. Error reported by OpenNebula
  5. State
  6. Total zombies
  7. VMs running

Para dispositivos de almacenamiento:

  1. Disk Free %

Para máquinas virtuales:

  1. Assigned CPU
  2. Assigned Memory
  3. Network RX
  4. Network TX
  5. State
  6. Time running

Ejemplo de mapa de arquitectura OpenNebula:

IBM HMC

Este plugin permite monitorizar equipos de virtualización IBM AIX a través de la consola de administración de hardware HMC. Este plugin recolectará información de todas las particiones lógicas creadas en un entorno AIX administrado por un sistema HMC, creando un agente por cada servidor administrado, cada partición lógica y cada servidor IO virtual.

Para recoger la información vía SSH, el plugin puede utilizar tres modos de trabajo:

  1. Basado en expect utilizando el script ssh_launcher.sh
  2. Basado en la librería Net::SSH::Perl
  3. Basado en la librería Net::SSH::Expect

Para complementar la información capturada también se realizarán consultas contra la API REST (por defecto en https://fqdn:12443/rest/api/{root_element}).

Requisitos

Los parámetros necesarios para la monitorización que tiene que proporcionar el área que requiere los servicios de monitorización son:

  • Nombre de usuario para autenticarse en el sistema HMC (solo lectura)
    • El usuario debe tener permiso para poder conectarse a la API REST y para hacer login en la shell del HMC y ejecutar los siguientes comandos (como mínimo):
      • lssyscfg
      • lshwres
  • Contraseña de dicho usuario
  • Ubicación (FQDN/IP) del HMC (p.e. myhmc.mydomain)
  • URL base de la API rest del HMC (p.e. https://myhmc.mydomain:12443)

Módulos generados por el plugin

Los parámetros que monitoriza el plugin son (agrupados por tipo de elemento):

  • Current logical partitions Current logical partitions deployed
  • Max logical partitions Max available logical partitions
  • Max memory available Available memory
  • Max memory installed Max memory installed
  • Proc pool DefaultPool current proc units
  • Proc pool DefaultPool max proc units
  • Proc pool DevelopmentPool current proc units
  • Proc pool DevelopmentPool max proc units
  • Proc pool ProductionPool current proc units
  • Proc pool ProductionPool max proc units
  • Proc pool TestPool current proc units
  • Proc pool TestPool max proc units
  • Proc pool VIOPool current proc units
  • Proc pool VIOPool max proc units
  • Processor pools configured Processor pools configured
  • Processor units available Available processor units
  • Processor units installed Installed processor units
  • State Status of the managed system
  • UUID Used to query the HMC API
  • Virtual proc units max Max virtual processor units for logical partitions

LPAR:

  • Auto start Logical partition autostart configuration
  • LPAR type Logical partition type
  • LPAR UUID Used to query the HMC API
  • Max memory Max memory
  • Max memory current Available memory
  • Processor units available Available processor units
  • Processor units current Installed processor units
  • RMC IP address RMC IP address
  • RMC state RMC status on the LPAR
  • State Logical partition status
  • Virtual proc units Virtual processor units assigned to this LPAR

Virtual IO:

  • Auto start Logical partition autostart configuration
  • LPAR type Logical partition type
  • LPAR UUID Used to query the HMC API
  • Max memory Max memory
  • Max memory current Available memory
  • Processor units available Available processor units
  • Processor units current Installed processor units
  • RMC IP address RMC IP address
  • RMC state RMC status on the LPAR
  • State Logical partition status
  • Virtual proc units Virtual processor units assigned to this LPAR

Configuración del plugin IBM HMC

Configuración disponible para el plugin Pandora FMS para IBM HMC:

Configuración de la comunicación hacia el servidor de Pandora FMS

mode

Modo de transferencia de datos, “local” o “tentacle”.

tentacle_ip

Dirección IP del servidor Pandora FMS, solo aplica en modo tentacle.

tentacle_port

Puerto en el que el servicio tentacle está escuchando.

tentacle_opts

Cualquier opción extra que haya configurado en el servicio tentacle.

tentacle_client

Ruta completa a su cliente tentacle.

temp

Directorio de trabajo temporal.

local_folder

Ruta de entrega para el modo de transferencia de datos “local”.

Configuración de acceso a HMC

hmc_host

IP o FQDN de la HMC

hmc_user

Usuario con permiso de lectura

hmc_pass

Contraseña

as_agent_plugin

La salida del plugin se devolverá en formato XML para ejecuciones programadas con el Agente de Pandora FMS ( as_agent_plugin = 1 ). O salida estándar ( as_agent_plugin = 0 ) para ejecuciones programadas con el cron de sistema o realizadas como plugin de servidor.

Configuración del agente

agent_name

Opcional, indicar un nombre para el Agente padre, por defecto `hostname`

agent_interval

Intervalo del Agente, por defecto 300.

agent_group

Grupo del Agente, por defecto IBM

Personalización de los módulos

module_group

Grupo de los Módulos, por defecto IBM.

module_interval

Intervalo de los Módulos (multiplicador), por defecto 1.

module_tags

Etiquetas para los módulos

Renombrado de entidades

Para el renombrado de entidades se utiliza un renombrado por bloque:

 rename
 MyLPAR_NAME TO my new name
 MyLPAR_NAME2 TO my second new name
 rename_end

Ejecución del plugin IBM HMC

El plugin de Pandora FMS para la monitorización de sistemas IBM AIX a través de HMC se despliega de la siguiente manera:

Configurando el parámetro as_agent_plugin a 1 (ejecución como plugin de agente):

module_plugin /usr/bin/perl pandora_hmc.pl pandora_hmc.conf

Configurando el parámetro as_agent_plugin a 0 (ejecución como plugin de servidor):

 # /etc/crontab
 */5 * * * * root /usr/bin/perl /root/hmc/pandora_hmc.pl /root/vmware/pandora_hmc .conf

HPVM

La virtualización de máquinas provista por Hewlett-Packard® permite correr concurrentemente múltiples máquinas virtuales en cualquier servidor Itanium® corriendo HP-UX®. Es un producto optimizado para servidores.

Funcionamiento del plugin HPVM

Este plugin permite monitorizar equipos de virtualización HPVM. Se lanza como un plugin de Agente, generando en paralelo un agente más por cada equipo virtualizado alojado en el sistema monitorizado.

Para recoger la información se utilizan comandos locales.

Requisitos del plugin HPVM

Verifique cada uno de los siguientes pasos:

  • Desplegar un Agente de Pandora FMS en el equipo que se desee monitorizar.
  • Disponer de un usuario con permisos para ejecutar el plugin
  • Este usuario debe disponer de permisos para ejecutar el comando hpvmstatus para poder interpretar la salida:
  1. hpvmstatus.
  2. hpvmstatus -X.
  3. hpvmstatus -r -X.

Instalación del plugin HPVM

Descargue su copia del plugin de Pandora FMS para HPVM HP Virtualization Manager monitoring de la librería de módulos. Puede programar la ejecución utilizando colecciones y el Agente de Pandora FMS desplegado o bien extraer el contenido del archivo en un directorio no volátil desde donde pueda ejecutarlo a través del cron de su sistema.

unzip pandora_HPVM.zip

Configuración del plugin HPVM

Configuración disponible para el plugin Pandora FMS para HPVM.

Configuración de la comunicación hacia el servidor de Pandora FMS

mode

Modo de transferencia de datos, “local” o “tentacle”.

tentacle_ip

Dirección IP del servidor Pandora FMS, solo aplica en modo tentacle.

tentacle_port

Puerto en el que el servicio Tentacle está escuchando.

tentacle_opts

Cualquier opción extra que haya configurado en su servicio Tentacle.

tentacle_client

Ruta completa a su cliente Tentacle.

temp

Directorio de trabajo temporal.

local_folder

Ruta de entrega para el modo de transferencia de datos “local”.

Configuración del Agente

agent_name

Opcional, indicar un nombre para el Agente padre, por defecto hostname

agent_interval

Intervalo del Agente, por defecto 300.

agent_group

Grupo al que pertenecerán los agentes, por defecto HPVM.

Personalización de los módulos

module_group

Grupo de los Módulos.

module_interval

Intervalo de los Módulos (multiplicador), por defecto 1.

module_tags

Etiquetas para los Módulos.

Ejecución del plugin

Ejecutando el plugin desde el Agente de Pandora FMS, aparecerá en el fichero de configuración del Agente:

module_plugin /usr/bin/perl pandora_hpvm.pl pandora_hpvm.conf

Para una prueba manual, configure el plugin siguiendo los pasos descritos, puede lanzarlo como sigue:

perl pandora_hpvm.pl pandora_hpvm.conf

Resultados del plugin HPVM

Lista de Módulos generados por el plugin por tipo de elemento.

Agentes del servidor

  • Available VMs
  • HPVM Plugin HPVM Plugin execution status
  • HPVM Service Presence of hpvmctrld (X instances)
  • HPVM Service CPU usage CPU usage of hpvmctrld (X instances)
  • HPVM Service RAM usage RAM usage of hpvmctrld (X instances)
  • hpvmapp Presence of hpvmapp (X instances)
  • hpvmapp CPU usage CPU usage of hpvmapp (X instances)
  • hpvmapp RAM usage RAM usage of hpvmapp (X instances)

Máquinas virtuales

  • boot_type
  • console_type
  • CPU usage
  • device_number
  • direct_io_number
  • distributed
  • effective_serverid
  • guest_type
  • Host RAM available
  • Host RAM free
  • local_id
  • memory total
  • model_name
  • networks_number
  • run_pid
  • run_serverid
  • serial_number
  • uuid
  • vcpu_number
  • vm_condition
  • vm_config_label
  • vm_config_version
  • vm_state
  • vm_version
  • vm_version_label

Volver al Índice de Documentación Pandora FMS