Pandora: Documentation fr: Supervision d’environnement virtuel

From Pandora FMS Wiki
Jump to: navigation, search

Revenir à l’Index de Documentation Pandora FMS

Contents

1 Supervision d’environnement virtuel

Amazon EC2

VMware

Nutanix

XenServer

OpenNebula

IBM HMC

HPVM


1.1 Amazon EC2

Pour surveiller EC2 dans des environnements Enterprise, veuillez vous diriger vers Discovery.

Template warning.png

Ce guide correspond au composant OpenSource pour la surveillance de EC2

 


Cette surveillance spécifique utilise le CloudWatch API pour surveiller ses instances dans le service Amazon EC2. Il faut avoir Cloudwatch d’activé dans son instance. Vous pouvez obtenir le plugin gratuit dans la section de la bibliothèque de modules.

L’idée principale de ce plugin de serveur à distance, c’est d’obtenir une information de ses instances en utilisant le serveur de plugin de Pandora FMS. Cela signifie qu’il faudra inscrire le plugin dans le serveur et configurer les différents modules pour qu’ils récupèrent l’information de ses serveurs EC2.

Voici un exemple de l’exécution :

/home/slerena/ec2_plugin.sh -A AKIAILTVCAS26GTKLD4A -S CgmQ6DxUWES05txju+alJLoM57acDudHogkLotWk -i i-9d0b4af1 -n AWS/EC2 -m CPUUtilization

Il renverra un % de valeur numérique de la métrique "CPUUtilization" dans l’instance i-9d0b4af1

Pour l’installation, il faudra :

1. Avoir JAVA de disponible dans son serveur Pandora FMS avec son répertoire correspondant JAVAHOME.

2. Copier ce plugin sur un chemin d’accès et définir les autorisations sur 755 et définir le chemin d’accès de base dans la variable AWS_CLOUDWATCH_HOME qui est présente dans les premières lignes du plugin. Il faut éditer les premières lignes du plugin.

Le plugin a différents fichiers :

/ec2_plugin.sh - Plugin itself /bin/* - Composants d’Amazon CloudWatch (Surveillance) Command Line Tools, inclus dans ce paquet. Ces scripts sont distribués sous la Licence Apache. Mettez le paquet complet dans un répertoire accessible pour le serveur. Par exemple :

/usr/share/pandora_server/plugin/ec2 

Et définissez le AWS_CLOUDWATCH_HOME dans /usr/share/pandora_server/plugin/ec2

En cas de doute sur l’installation, exécutez directement cette commande :

/usr/share/pandora_server/plugin/ec2/mon-cmd --version 

Vous devriez voir apparaître un message similaire à :

Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01) 

Si vous obtenez la même chaîne, alors le plugin peut être utilisé.

Si non, il faudra sûrement installer et configurer de façon adéquate les outils de ligne de commandes d’Amazon CloudWatch (surveillance). Suivez ces étapes pour les installer :

1.1.1 Installation

Pré-requis :

  1. Assurez-vous d’avoir la version Java 1.5 ou une version plus récente d’installée sur votre système : (java -version)
  2. Décompressez le fichier zip de déploiement.
  3. Définissez les variables suivantes de l’environnement :
    1. AWS_CLOUDWATCH_HOME - Le répertoire où sont copiés les fichiers de déploiement pour les tester avec :
    2. Unix: ls ${AWS_CLOUDWATCH_HOME}/bin (should list mon-list-metrics ...)
      Windows: dir %AWS_CLOUDWATCH_HOME%\bin (should list mon-list-metrics ...)
      
    3. JAVA_HOME - Répertoire Home de l’installation de Java.
    4. Ajoutez à Path le suivant
    5. ${AWS_CLOUDWATCH_HOME}/bin
      Sur Windows:  %AWS_CLOUDWATCH_HOME%\bin à son chemin d’accès
      

1.1.2 Configuration

Mettez vos références AWS d’utilisateur dans l’outil de ligne de commandes. Il existe deux façons pour fournir les références :

  1. Les mots de passe AWS
  2. En utilisant les certificats X.509

1.1.3 Utilisation de mots de passe AWS

  • Indiquez de façon explicite les références dans la ligne de commande : --I ACCESS_KEY --S SECRET_KEY
  • Créer un fichier de référence. Le déploiement comprend un fichier de modèle :
 ${AWS_CLOUDWATCH_HOME}/credential-file-path.template.
  • Editez une copie de ce fichier pour ajouter votre information.
  • Sur UNIX, limitez les autorisations pour le propriétaire du fichier de références :
$ chmod 600 <archive crée précédemment>.

Une fois l’archive créé, il existe plusieurs façons pour le référencer :

  • Fixez la variable suivante de l’environnement :
export AWS_CREDENTIAL_FILE=<archive de références>
  • Vous pouvez aussi fournir l’option suivante avec chaque commande :
--aws-credential-file <archive de références>

1.1.4 Utilisation de certificats X.509

1. Enregistrez votre certificat et mots de passe privés dans les fichiers : e.g. my-cert.pem and my-pk.pem.

2. Il existe deux modes pour fournir l’information certifiée à la ligne de commandes :

2.1. Fixez les variables suivantes d’environnement :

       EC2_CERT=/path/to/cert/file
       EC2_PRIVATE_KEY=/path/to/key/file

2.2. Indiquez les fichiers directement sur la ligne de commandes pour toutes les commandes :

       <command> --ec2-cert-file-path=/path/to/cert/file --ec2-private-key-file-path=/path/to/key/file

1.1.5 Installation des propriétés de JVM

En fixant la variable de l’environnement SERVICE_JVM_ARGS, vous pourrez passer de façon arbitraire les propriétés JVM à la ligne de commande. Par exemple, la ligne suivante fixe les propriétés sur Linux/UNIX export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"

1.1.6 Mise en marche

Vérifiez que votre installation fonctionne correctement. Exécutez la commande suivante :

  $ mon-cmd --help

Vous devriez voir la page d’utilisation pour toutes les commandes de surveillance.

  $ mon-list-metrics --headers

Vous devriez également voir une ligne d’en-tête. Si vous avez quelques métriques définies, vous devriez la voir aussi.

1.2 VMware

Les environnements virtuels ont une grande importance dans les architectures IT de toutes les entreprises. C’est pourquoi leur surveillance est essentielle. Avec “Pandora FMS Enterprise”, vous pourrez avoir accès à VMware Monitoring Plugin, un plugin qui permet d’avoir facilement l’architecture VMware sous contrôle.

1.2.1 Architecture VMware à surveiller

Avec ce système, il est possible de surveiller les architectures comme ci-dessous :

Vmware-schema-arquitecture.png



Pandora FMS peut surveiller VCenter, des serveurs ESXi et les composants qui virtualisent : Datastores et Machines Virtuelles. Pandora FMS s’appuie sur l’API que fournit le SDK de VMware par Perl pour la collecte de données.

1.2.2 Surveillance avec Discovery Application VMware

Suivez les étapes décrites sur Discovery pour surveiller votre infrastructure VMware grâce à Discovery.

1.2.3 Pré-requis du plugin

Les pré-requis pour le fonctionnement de la tâche de surveillance de VMware sont les suivant :

  • Pandora FMS v7.0NG.732 ou plus récent.
  • VMware vSphere SDK pour Perl

Info.png

Dans l’ISO de Pandora FMS, tous les composants nécessaires pour surveiller VMware y sont disponibles.

 


1.2.4 Configuration du vCenter pour la surveillance

Discovery Applications VMware utilise les métriques qui fournissent l’API des vCenter et ESXi de VMware. La disponibilité de ces métriques dépend des niveaux configurés pour la collecte de statistiques.

Ces niveaux peuvent être modifiés dans le menu vCenter Server Settings et dans l’option Statistics. Pour chaque option de temps et chaque niveau, vous obtiendrez la description des compteurs que collecte le vCenter. Le niveau minimum pour surveiller avec le plugin de Pandora FMS est le “Niveau 2”.

Niveles vmware.png



En dépendant de la configuration du vCenter, “il est possible que quelques modules ne fassent pas l’objet de rapport de données sur Pandora FMS”. Ceci peut être dû à une mauvaise installation de quelques plugins sur le vCenter, au fait qu’il soit nécessaire d’installer un agent VMware (vmware-tools) dans l’entité ou bien simplement parce que l’entité est éteinte (machine virtuelle ou ESXi). “Pour résoudre ces problèmes, il faudra consulter la documentation de VMware”.

Quelques solutions, comme par exemple la surveillance de l’état de l’hardware (Hardware Status), pourraient nécessiter une configuration avancée, aussi bien pour le vCenter que les host qui supportent les ESX.

1.2.5 Déploiement de la surveillance de VMware

A partir de la version 732 de Pandora FMS, la surveillance de VMware s’effectue en utilisant le système Discovery Applications (plus d’informations sur VMware Discovery).

Si pour une raison particulière, vous souhaitez configurer manuellement le plugin en dehors de cette fonctionnalité, vous pouvez utiliser le mode classique décrit ci-dessous. Dans l’image ISO de Pandora FMS, le plugin de VMware, joint aux extensions, vient préinstallé. S’il est requis de déployer ou de mettre à jour votre version du plugin de VMware par une autre plus récente, veuillez suivre les étapes décrites ci-après :

1.2.5.1 Déploiement manuel du plugin

1. Accéder au répertoire dans lequel les fichiers du plugin VMware ont été extraits.

2. Copiez vmware-plugin.{pl,conf} au répertoire correspondant.

sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/
sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf}
sudo chmod g+w /usr/share/pandora_server/util/plugin/vmware-plugin.conf

3. Vérifiez les données nécessaires pour configurer le plugin.

Dans le menu "Configuration" de la console de Pandora FMS, vous pouvez assigner un mot de passe à l’API, tout comme les autorisations d’origines.



Vmware API settings.JPG


4. Editez le fichier de configuration vmware-plugin.conf

5. Vérifiez la disponibilité de VMware SDK for Perl

Vous pouvez lancer un script avec le contenu suivant pour valider votre installation de VMware SDK Perl

#!/usr/bin/perl

use strict;
use warnings;

use VMware::VIRuntime;

print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Exécutez le script :

perl check_vmware.pl

La sortie doit être similaire à la suivante :

VMware SDK Version: 6.5.0

Info.png

Vérifiez que la version du SDK est supérieure ou égale à la version de vos produits VMware.

 


Template warning.png

A partir de la versión 717 du plugin de VMware, il faudra aussi installer la bibliothèque perl PluginTools.pm, (disponible aussi avec le serveur sur /usr/lib/perl5/PandoraFMS) dans l’équipement où vous souhaiterez le déployer (copier /usr/lib/perl5/PandoraFMS dans l’équipement qui exécutera le plugin).

 





1.2.6 Installation de VMware vSphere SDK pour Perl

L’url du centre de téléchargements pour le software software VMware requis est :

https://my.vmware.com/web/vmware/details?downloadGroup=VS-PERL-SDK65&productId=614

Template warning.png

Si vous avez installé Pandora FMS en utilisant l’appliance (ISO Centos), il est inutile d’installer un software additionnel, tant que la version à surveiller de VMware est inférieur à 6.5.

 



1.2.6.1 Installation SDK Linux

Info.png

Les versions du SDK testées avec ce processus d’installation ont été les 4.1, 5.1, 6.0, 6.5

 


Template warning.png

Il est toujours recommandé d’utiliser la version SDK avec sa version de software VMware correspondante. Par exemple, il est recommandé d’utiliser le software 4.1 VMware avec la version 4.1 du SDK.

 


Tout d’abord, nous décompresserons le SDK avec la commande suivante :

# tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz

A présent, nous compilerons et installerons le SDK avec les commandes suivantes :

# perl Makefile.PL
# make
# make install

Si l’installation s’est effectuée correctement et n’a présentée aucune erreur, vous pourrez vous connecter avec le vCenter en suivant la commande suivante :

# /usr/lib/vmware-viperl/apps/general/connect.pl --server <vcenter_ip> --username <vcenter_user> --password <vcenter_pass>

La réponse devrait être semblable à celle-ci :

Connection Successful
Server Time : 2013-02-21T16:24:05.213672Z


1.2.6.1.1 Mise à jour SDK 6.5 vers d’autres versions

Si la mise à jour du SDK de VMware est en cours, nous recommandons de suivre les étapes suivantes :

# Installer les outils pour développeurs 
yum groupinstall "Developer Tools"
# Installer CPAN
yum install perl-CPAN
# Installer quelques dépendances 
yum install openssl-devel perl-Class-MethodMaker
# Décompresser les archives d’installation de VMware SDK Perl
tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz
# Accéder au répertoire 
cd vmware-vsphere-cli-distrib
# Lancer l’installateur 
./vmware-install.pl


Pendant l’installation :

  • Acceptez la licence.
  • Indiquez ne pas utiliser les modules pré-construits pour VMware SDK.
  • Acceptez l’installation automatique des modules par le biais du système automatisé par CPAN.
  • Vérifiez que tous les pré-requis ont été installés correctement.
  • Indiquez le répertoire où les modules de VMware SDK Perl devront être installés.

Note: Dans certains cas, le paquet perl UUID peut générer des erreurs en s’installant dans CentrOS 7. Réalisez les étapes suivantes pour ajouter le composant :

# Installez les dépendances nécessaires pour UUID-0.03
yum install libuuid-devel perl-JSON-PP
# Téléchargez le paquet du code de http://search.cpan.org/~cfaber/UUID-0.03/UUID.pm
wget http://search.cpan.org/CPAN/authors/id/C/CF/CFABER/UUID-0.03.tar.gz
# Décompressez le fichier et accéder au répertoire tar xvzf UUID-0.03.tar.gz
cd UUID-0.03
# Générez les archives nécessaires pour la compilation du module Perl 
perl Makefile.PL
# Compilez le module Perl
make
# Vous devrez recevoir une réponse semblable à Manifying blib/man3/UUID.3pm
# Installez le nouveau module compilé
make install


Une fois les modules en attente installés, retournez exécuter le processus d’installation de VMware SDK Perl ./vmware-install.pl


Malheureusement, le désinstallateur de VMware n’efface pas complètement les bibliothèques de modules VMware précédentes. Nous devrons donc réaliser cette étape manuellement :

Template warning.png

Vérifiez que les bibliothèques ont été installées correctement sur /usr/lib/vmware-vcli/VMware/share/ avant de continuer

 


# Nettoyer les anciennes bibliothèques 
rm -rf /usr/share/perl5/vendor_perl/VMware
rm -rf /usr/share/perl5/VMware
# Ajouter les nouvelles bibliothèques VMware
cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/

Une fois effectué, un script peut être lancé avec le contenu suivant, pour valider l’installation de VMware SDK Perl

#!/usr/bin/perl

use strict;
use warnings;

use VMware::VIRuntime;

print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Exécuter le script:

perl check_vmware.pl

La sortie doit être la suivante :

VMware SDK Version: 6.5.0

Si la sortie est différente, veuillez vérifier que vous avez bien suivi correctement toutes les étapes ou mettez-vous en relation avec l’assistance sur https://support.artica.es

1.2.6.2 Installation SDK sur Windows

La version de PERL, qui est distribuée avec le vSphere SDK, ne fonctionne pas avec les bibliothèques de VMware pour PERL. Pour résoudre ce problème, suivez les étapes suivantes :

  • Installez le VMware vSphere SDK.
  • Installez Strawberry PERL version 5.12 de http://strawberryperl.com/releases.html.
  • Copiez le répertoire C:\Archivos de Programa\VMware\VMware vSphere CLI\Perl\lib\VMware a C:\strawberry\perl\lib.
  • Désinstallez le VMware vSphere SDK.

1.2.7 Configuration du plugin

Vous pouvez configurer le plugin de VMware manuellement ou en utilisant l’extension pour console disponible, joint avec les archives téléchargeables du plugin de VMware.

1.2.7.1 En configurant le plugin manuellement

L’archive de configuration du plugin de surveillance des environnements VMware contient les éléments généraux suivants. Nous recommandons d’utiliser l’extension disponible sur votre console de Pandora FMS pour administrer les multiples configurations du plugin de VMware. Vous pouvez éditer manuellement le fichier de configuration. Sachez que les lignes qui commencent par '#' seront interprétées comme des commentaires.

server
FQDN ou IP du serveur VMware à surveiller
user
utilisateur avec autorisations sur vCenter
pass
mot de passe de l’utilisateur
datacenter
Nom du datacenter (par défaut : ha-datacenter)
temporal
Répertoire de travail temporel, par défaut : /tmp
logfile
Archive de log, par défaut /tmp/vmware_plugin.log
entities_list
Archive d’entités à surveiller, par défaut /tmp/vmware_entitites_list.txt
transfer_mode
Mode de transfert de XML à Pandora, par défaut : local
tentacle_ip
Adresse du serveur de Pandora FMS, par défaut : 127.0.0.1
tentacle_port
Port pour communications Tentacle, par défaut : 41121
tentacle_opts
Options extra pour Tentacle à distance
local_folder
Dans transfert local, dossier de destination pour les XML de rapport /var/spool/pandora/data_in
pandora_url
Adresse web de la console de Pandora FMS, par défaut http://127.0.0.1/pandora_console
api_pass
Mot de passe de la API de la console de Pandora FMS
api_user
Utilisateur avec accès à l’API de Pandora FMS
api_user_pass
Mot de passe de l’utilisateur avec accès à l’API
retry_send
Réessayer (1) o non (0) l’envoi de XML en cas d’erreur (semblable à buffer_xml)
event_mode
Récupérer l’information (1) des évènements de VMware o non (0)
event_pointer_file
Archive des indices auxiliaires pour des évènements VMware, par défaut /tmp/vmware_events_pointer.txt
Virtual network monitoring
Inclure la surveillance de switchs virtuels
Encrypt passwords
Utiliser des mots de passe cryptés dans le fichier de configuration
verbosity
Niveau de debug (recommandé : 1)
threads
Nombre maximum de hilos à utiliser (recommandé : 4)
interval
Intervalle en secondes des agents et modules qui se généreront (ajuster conformément à la fréquence d’exécution du plugin)
Recon Interval
Intervalle en secondes après que le fichier temporaire de caché s’auto-élimine pour re-scanner l’infrastructure VMware de nouveau.
group
Servers Groupe de destination des agents générés par le plugin
virtual_network_monitoring
Enables (1) or disables (0) the virtual switches monitoring (standard)
use_ds_alias_as_name
Enables (1) or disables (0) use the alias as agent name in datastore agents

Server, datacenter, user, pass et interva peuvent être ajustés depuis la console de Pandora FMS.

Info.png

Si vous utilisez actuellement Pandora FMS 5.0 ou une version supérieure et que vous souhaitez utiliser les extensions du plugin ou la surveillance d’évènements, vous devrez configurer correctement l’API de Pandora FMS. Pour cela, vous devrez ajouter un mot de passe à l’API et permettre l’accès aux adresses pertinentes dans la liste d’accès de l’API. Ces champs se définissent dans la configuration générale de la console de Pandora FMS.

 


1.2.7.2 En configurant la surveillance VMware

Suivez les étapes décrites sur : VMware Discovery pour configurer la surveillance de votre infrastructure VMware grâce à Discovery.

1.2.8 Exécution du plugin VMware

Pour vérifier le fonctionnement de votre configuration, vous pouvez exécuter :

perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf


Note :

  • Sur VMware SDK 6.5.0. Si vous recevez la sortie suivante pendant l’exécution du plugin :
Server version unavailable at 'https://your_vmwre_fqdn:443/sdk/vimService.wsdl' at /usr/local/lib64/perl5/VMware/VICommon.pm line 734.


La solution est apporté en ajustant les versions des bibliothèques LWP de Perl :

cpan install GAAS/libwww-perl-5.837.tar.gz


Nous recommandons vivement d’utiliser Discovery Applications VMware pour surveiller votre infrastructure.

Ainsi, vous pouvez choisir différentes façons d’automatiser l’exécution du plugin de surveillance VMware :

1.2.8.1 Programmer l’exécution depuis l’agent de Pandora FMS

Utiliser l’agent de Pandora FMS

Copier vmware-plugin.{pl,conf} de sorte à ce qu’il soit accessible par l’agent de Pandora FMS :

 sudo cp /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} /etc/pandora/plugins/

Il n’y a pas de fichier de configuration vmware-plugin-events.conf dans le .tar mais il peut le créer en copiant vmware-plugin.conf et en modifiant manuellement 'event_mode' à 1.

A présent, il faut ajouter un nouveau module de type plugin à l’archive de configuration de l’agent, avec la ligne suivante :

module_plugin perl /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin.conf

Si nous souhaitons, en plus, la copie des évènements, nous devons créer un autre module plugin avec une archive de configuration différente qui permette la copie d’évènement. La formulation serait la suivante :

module_plugin perl /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-events.conf

Dans des systèmes Windows, il faudra indiquer l’interprète utilisé. La commande serait :

module_plugin perl "C:\Program Files\pandora_agent\util\vmware-plugin.pl" "C:\Program Files\pandora_agent\util\vmware-plugin.conf"

Dans les sections suivantes, les paramètres de l’archive de configuration du plugin sont expliqués en détails dans les sections suivantes.

Template warning.png

Le plugin de VMware peut prendre beaucoup de temps pour l’exécution en raison du nombre d’entités inscrites.

Nous recommandons la surveillance par Discovery pour que ce soit DiscoveryServer lui même qui se charge de ces tâches.

Si vous décidez de le surveiller d’une autre façon, il se pourrait qu’il soit nécessaire de distribuer la charge entre plusieurs agents software de Pandora FMS ou de choisir un autre mode de programmation. Toute l’information concernant cela se trouve dans les sections suivantes.

 




1.2.8.2 Programmer l’exécution depuis le cron du système

Vous pouvez programmer l’exécution du plugin depuis le propre cron du système. Sachez que la valeur d’intervalle des éléments générés (intervalle dans la configuration) et la fréquence d’exécution doivent être cohérents :

# Entrée à insérer à crontab, configurez un intervalle de 600 pour utiliser cette configuration. */10 * * * * root perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf

1.2.9 Surveillance de l’architecture virtuelle VMware

Pour voir le résultat de l’exécution du plugin, il suffit d’accéder au sous-menu Agent Detail, dans le menu Views.

Menu monitoring.png



Dans cette vue, les agents créés par le plugin apparaîtront avec les autres agents de Pandora FMS.

Vmware agent detail.jpg



Si nous appuyons sur le nom d’un agent, nous verrons la vue de l’agent de Pandora FMS, où les modules surveillés apparaîtront par le plugin VMware.

Agent detail screen.jpg



Par défaut, le plugin déploie une surveillance basique pour chacun des éléments VMware. La configuration par défaut pour les différentes entités est la suivante :

1.2.9.1 Surveillance par défaut pour Datacenter

  • Ping
  • Check 443 port

1.2.9.2 Surveillance par défaut pour Datastore

  • Capacity
  • Free Space
  • Disk Overallocation
  • Free Space Bytes

1.2.9.3 Surveillance par défaut pour ESXi

  • CPU Usage
  • Memory Usage
  • Data received
  • Data transmitted
  • Disk Read Latency
  • Disk Write Latency
  • Host Alive
  • Disk Rate
  • Net Usage

1.2.9.4 Surveillance par défaut pour machines virtuelles

  • CPU Usage
  • Memory Usage
  • Tools Running Status
  • Host Alive
  • Disk Free
  • Disk Read Latency
  • Disk Write Latency
  • Data received
  • Data transmitted
  • Net Usage

La section suivante détaille tous les modules disponibles et l’information que rapporte chaque module.

1.2.10 Modules des agents de l’architecture virtuelle VMware

Quelques modules pourraient ne pas être disponibles, tout dépend de la version de VMware et de la configuration de l’environnement. Dans les tables suivantes, les différents modules disponibles ainsi que leurs caractéristiques de disponibilité y sont décrits.

Info.png

Le plugin permet de configurer Performance Counters, personnalisés pour les hosts ESX et machines virtuelles. Vous pourrez voir comment procéder dans la section qui détaille le contenu de l’archive de configuration.

 


1.2.10.1 Modules pour agents de type Datacenter

Módulo Description Version API Disponibilité
Ping Test ping sur la machine qui supporte le vCenter Tous Toujours
Check 443 port Test sur le port 443 de la machine qui supporte le vCenter Tous Toujours

1.2.10.2 Modules pour agents de type Datastore

Module Description Version API Disponibilité
Capacity Capacité maximale du Datastore en bytes Tous Toujours
Free Space Pourcentage d’espace libre du Datastore Tous Toujours
Disk Overallocation Pourcentage de sur-assignation du disque ≥v4.0 Toujours
Free Space Bytes Quantité d’espace libre en bytes Touss Toujours

1.2.10.3 Modules pour agents du types host ESXi

Modules Description Version API Disponibilité
Boot Time Dernière date à laquelle s’est allumé l’host Tous Toujours
CPU Info [x] Information générale de CPU (un module se crée par CPU de ESXi) Tous Si connecté
Memory Size Quantité totale de mémoire physique de l’host en Bytes Tous Si connecté
Overall CPU Usage Somme de l’usage de tous les CPUs en Mhz Tous Si connecté
Overall Memory Usage Overall Memory Usage of VMware Hosts Tous Si connecté
Power State Etat de l’énergie de l’host ≥v2.5 Toujours
SSL Thumbprint Empreinte SSL de l’host ≥v4.0 Si configuré
Uptime Uptime de l’host en secondes ≥v4.1 Si connecté
VNIC Info [x] Information sur les interfaces de réseaux virtuelles de l’host Tous Si connecté et configuré
Host Alive Module qui vaut 1 si le ESX est connecté et 0 dans le cas contraire. Tous Toujours
Connection State Etat de la connection de l’host Tous Toujours
Disk Read Taux de Kbps lus du disque Tous Niveau stats ≥2
Disk Write Taux de Kbps écrits du disque Tous Niveau stats ≥2
Disk Read Latency Latence de lecture du disque en millisecondes Tous Niveau stats ≥2
Disk Write Latency Latence d’écriture du disque en millisecondes Tous Niveau stats ≥2
Data received Taux de Kbps reçu de l’host Tous Niveau stats ≥2
Data transmitted Taux de Kbps envoyés de l’host Tous Niveau stats ≥2
Packages Received Nombre de paquet reçus dans l’intervalle Tous Niveau stats ≥2
Packages Transmitted Nombre de paquets envoyés dans l’intervalle Tous Niveau stats ≥2
CPU Usage Pourcentage d’utilisation de CPU Tous Niveau stats ≥2
Memory Usage Pourcentage d’utilisation de la mémoire RAM Toutes Niveau stats ≥2
Net Usage Données de réseau reçues et envoyées de toutes les NICs Tous Niveau stats ≥2
Disk Rate Taux I/O ajouté dans KB/sec Tous Niveau stats ≥2
Max. Disk Latency Latence maximale de tous les disques Tous Niveau stats ≥2
HA Status Etat HA de l’host ≥v5.0 Si configuré
Sensor* Etat des capteurs de hardware (un module par capteur) Tous ESXi >= 3.5

1.2.10.4 Modules pour agents de type machine virtuelle

Ces modules fournissent l’information depuis le point de vue de l’architecture VMware. Si vous désirez surveiller d’autres paramètres relatifs à la machine virtuelle, il faudrait prendre d’autres options en considération, comme la Surveillance avec agents software ou la Surveillance virtuelle

Module Description Version API Disponibilité
Boot Time Dernière date à laquelle s’est allumée la machine virtuelle Tous Si connecté
Connection State Etat de la connexion Tous Toujours
Consumed Overhead Memory Quantité de mémoire utilisée par la machine virtuelle en MB ≥v4.0 Si configuré
CPU Allocation Information sur les ressources assignées au CPU de la machine virtuelle Tous Si configuré
Disk Free [x] Pourcentage libre du disque de la machine virtuelle. (Il y aura un module pour chaque disque qui contient la machine virtuelle) Tous Si configuré
Guest State Mode d’opération du système d'exploitation hôte Tous Si configuré
Host Info Information sur l’host VMware Tous Si configuré
Host Alive Module qui vaut 1 si la machine virtuelle est en cours d’exécution et 0 dans le cas contraire. Tous Toujours
Host Memory Usage Mémoire utilisée par la machine virtuelle en MB Tous Si connecté
Host Name Nom associé à l’host associé Tous Si configuré
IP Address [x] Adresse IP de la machine. (Il en apparaîtra une par interface de réseau disponible) ≥v4.1 Si configuré
MAC Address [x] Adresse MAC de la machine. (Il en apparaîtra une par interface de réseau disponible.) Tous Si configuré
Max CPU Usage Limite supérieure d’utilisation de la CPU de la machine virtuelle Tous Si connecté
Max Memory Usage Limite supérieure d’utilisation de la mémoire RAM de la machine virtuelle Tous Si connecté
Memory Allocation Limite des ressources pour la mémoire Tous Si configuré
Memory Overhead Quantité de mémoire utilisée par la machine virtuelle au-delà des besoins du système d'exploitation hôte en Bytes Tous Si configuré
Overall CPU Demand Statistiques basiques sur le rendement de la CPU en Mhz ≥v4.0 Si connecté
Overall CPU Usage Statistiques basiques sur l’usage du CPU en Mhz Tous Si connecté
Power State Etat actuel de la machine virtuelle Tous Toujours
Private Memory Quantité de mémoire en MB accordée exclusivement à la machine virtuelle sans partage ≥v4.0 Si connecté
Shared Memory Quantité de mémoire en MB accordée à la machine virtuelle de la mémoire partagée ≥v4.0 Si connecté
Tools Running Status Etat actuel de l’exécution de VMware Tools installé dans le système d'exploitation hôte ≥v4.0 Si configuré
Trigger Alarm State Etat des alarmes de VMware Toutes Si configuré
Uptime Seconds Uptime de la machine virtuelle en secondes ≥v4.1 Si connecté
Virtual Image Path Chemin d’accès de l’archive de configuration de la machine virtuelle (.vmx) Tous Toujours
Disk Read Taux de Kbps lus par le disque Tous Niveau stats ≥2
Disk Write Taux de Kbps écrits par le disque Tous Niveau stats ≥2
Disk Read Latency Latence de lecture du disque en millisecondes Tous Niveau stats ≥2
Disk Write Latency Latence d’écriture du disque en millisecondes Tous Niveau stats ≥2
Data received Taux de Kbps reçus de l’host Tous Niveau stats ≥2
Data transmitted Taux de Kbps envoyés de l’host Tous Niveau stats ≥2
Packages Received Nombre de paquets reçus dans l’intervalle Tous Niveau stats ≥2
Packages Transmitted Nombre de paquets envoyés dans l’intervalle Tous Niveau stats ≥2
CPU Usage Pourcentage d’utilisation de CPU Tous Niveau stats ≥2
Memory Usage Pourcentage d’utilisation de la mémoire RAM Tous Niveau stats ≥2
Net Usage Données de réseau reçues et envoyées des NICs Tous Niveau stats ≥2
Disk Rate Taux I/O ajouté en KB/sec Tous Niveau stats ≥2
Max. Disk Latency Latence maximale de tous les disques Tous Niveau stats ≥2
HeartBeat Nombre de heartbeats de la machine virtuelle Tous Niveau stats ≥2
CPU Ready Pourcentage de temps pendant lequel la machine est prête mais pas en place pour s’exécuter dans le CPU physique Tous Niveau stats ≥2
Number Snapshots Nombre de snapshots pour la machine virtuelle (ce module peut affecter le rendement de la surveillance'. C’est pour cela qu’il est recommandé de l’exécuter avec une haute valeur d’intervalle. Par exemple, chaque heure.) Tous Si configuré
HA Status Etat HA pour la machine virtuelle ≥v5.0 Si configuré


Template warning.png

Quelques modules nécessitent d’avoir installés les VMware tools

 


1.2.11 Surveillance d’évènements VMware

Cette fonctionnalité réalise une copie des évènements présents dans le vCenter de VMware à la liste des évènements de Pandora FMS.

Ces évènements sont parvenus à faire partie du flux d’évènements normaux de Pandora FMS et restent associés de façon automatique à l’agent qui représente le vCenter auquel ils proviennent (si l’agent existe au moment de la création de l’évènement).

Evnetos vmware plugin.png



Dans le processus de dump des évènements, l’information et la sévérité que VMware indique lors de la création de l’évènement sont respectées, de telle sorte que les évènements avec un niveau de sévérité critique, avertissant, ou informatif conserveront ces niveaux dans Pandora FMS. L’image suivante montre un exemple d’information détaillée d’un évènement de dump de VMware à Pandora FMS.

Detalle evento vmware plugin.png



Avec tous les évènements présents sur Pandora FMS, vous pourrez réaliser toutes les actions disponibles pour la gestion des évènements, comme par exemple la création d’alertes, la configuration de filtres, l’ouverture d’incidences, etc.

1.2.12 Gestion et visualisation de l’architecture virtuelle VMware

Accompagné du plugin VMware, deux extensions sont distribuées, VMware Manager et VMware View. VMware View permet de visualiser tous les composants de l’architecture VMware de façon pratique. De plus, avec VMware Manager, vous pourrez gérer des machines virtuelles en arrêtant, en démarrant, en réinitialisant ou en suspendant son activité depuis la console de Pandora FMS. Ces extensions sont optionnelles et ne fonctionnent qu’avec les versions de Pandora FMS 4.0 ou plus.


A partir de la version 4.1 du plugin, ces extensions sont englobées dans une seule extension qui, à son tour, se divise dans les 2 citées précédemment et dans une dernière extension de configuration du plugin VMware Settings. Cette dernière est compatible uniquement à partir de la version 5.1 de Pandora FMS.


1.2.12.1 En utilisant VMware View

Pour commencer à utiliser le viseur des architectures VMware, cliquez sur le sous-menu VMware View dans le menu Monitoring.

Vmware view menu.png


Vmware view welcome.png


L’extension VMware vous montrera une carte semblable à celle ci-dessous avec toute l’architecture VMware.

Vmware view map.png



La carte contient les éléments de l’architecture VMware (machines virtuelles, ESX, Datastores et Datacenters) avec différents icônes qui les identifient, comme l’état des agents de Pandora FMS qui représentent chaque élément. De plus, la relation qui existe est montrée entre machines virtuelles, ESX et Datacenter. De cette façon, l’état de l’architecture VMware peut se voir en un coup d’oeil. Cette extension a des options qui aident à améliorer la visualisation de l’architecture en cachant des éléments, en augmentant la taille des lettres et en permettant de faire un zoom pour pouvoir voir les éléments de plus près.

Vmware view map options.png



En utilisant les options précédentes, nous ne montrerons que ceux de Datacenter et de ESX.


Vmware view map options example.png



1.2.12.2 VMware View Dashboards (version 5.0 ou plus)

Pour des versions de Pandora FMS 5.0 ou plus, VMware View apporte deux vues supplémentaires en plus de la vue de carte topologique de l’architecture virtuelle. Les nouveaux tabs permettent d’interchanger entre les différentes vues de la VMware View.


Vmware tabs 50.png



La première vue est un dashboard général, sur lequel vous pourrez jeter un coup d’oeil sur l’état général de l’architecture virtuelle en nombres, c’est-à-dire, combien de machines virtuelles, host ESXi ou datastores ont des problèmes. De plus, vous pourrez voir des paramètres de performance généraux grâce aux graphiques qui montrent les 5 machines virtuelles qui consomment le plus de mémoire, de CPU, de disque et de réseau sur l’ensemble de l’architecture virtuelle.


Vmware general dashboard.png



La seconde vue permet de voir les paramètres de performance de chaque host ESX. Dans cette vue, vous pourrez choisir un host ESX qui sera chargé du tableau de bord sur lequel se présentera l’état de l’host et des machines virtuelles, comme des métriques de performance relatives à l’utilisation de CPU, de mémoire, de disque et de réseau de l’host ESXi. De plus, cette vue permet aussi de voir des graphiques montrant les machines virtuelles qui consomment le plus de ressources (CPU, mémoire, disque et réseau) de l’host sélectionné.

Vmware esx detail dashboard.png



1.2.12.3 VMware View Options Tab

Sur Pandora FMS 7.0NG.716, l’extension de VMWare est incluse avec Pandora FMS Console Enterprise.

Elle dispose d’un panneau de configuration sur lequel il est possible d’y établir des dashboards et des cartes :

  • Vous pourrez ajuster les seuils de vue (minimum et maximum) des graphiques des dashboards.
  • Vous pourrez ajuster la configuration de la vue de la carte par défaut.
  • Il contient un lien au système de gestion des configurations.

Accessible dans l’onglet des options du VMWare View :

Vmware view options tab.png

1.2.12.4 En utilisant le VMware Manager depuis les agents

Pour utiliser l’extension VMware Manager, il faut aller sur la vue d’opération d’un agent qui correspond à une machine virtuelle dans l’architecture VMware. Dans cette vue, vous pourrez voir un icône avec le symbole de VMware qui correspond à l’extension.

Vmware manager icon.png



L’extension VMware Manager permet de gérer des machines virtuelles depuis la console de Pandora FMS. L’extension montre l’état actuel de la machine virtuelle avec un code de couleurs (vert = allumée, orange = en veille, gris = arrêtée). De plus, les états disponibles sont montrés dans un menu et permettent de changer l’état de la machine virtuelle en le sélectionnant, en cliquant sur Change Status.

Vmware manager options.png



Avec cela, nous pourrions arrêter une machine virtuelle qui est allumée, en sélectionnant l’état Stop comme dans l’image suivante :

Vmware manager example stop.png



Cela provoquerait l’arrêt de la machine et la vue de l’extension VMware Manage changerait en montrant que la machine est désormais arrêtée, comme on peut le voir sur l’image suivante :

Vmware manager example stopped.png



Template warning.png

Cette extension requiert l’installation du SDK de VMware pour Perl dans la même machine qui supporte la console de Pandora FMS. Sans ce pré-requis, l’extension ne fonctionnera pas.

 


Template warning.png

Si vous avez configuré la surveillance en utilisant RENAME, cet avantage ne fonctionnera pas contre les objectifs renommés.

 



1.2.13 Configuration du plugin

Utilisez les données de cette section pour configurer manuellement le plugin.

Par défaut, le plugin de VMware découvre toutes les entités et ajoute les test par défaut. Grâce à l’archive de configuration, vous pourrez configurer la surveillance et choisir quelles variables vous souhaitez surveiller.

L’archive de configuration contient toute l’information nécessaire pour réaliser la surveillance, regroupée dans les sections suivantes : Configuration, Rename, Reject, Datacenter, Datastore, ESX, VM. Chaque section et ses configurations possibles sont expliquées ci-dessous.

Info.png

Toutes les erreurs relatives à l’archive de configuration sont présentes dans le log des erreurs du serveur de Pandora FMS mais aussi dans la visionneuse des évènements de la console de Pandora FMS. Grâce à cela, vous pourrez voir s’il existe une quelconque erreur avec l’archive de configuration en utilisant n’importe laquelle de ces deux sources.

 


1.2.13.1 Archive de configuration

1.2.13.1.1 Configuration globale

La configuration générale est définie par le token “Configuration” et contient les paramètres suivants :

  • server : IP du vCenter.
  • user : utilisateur du vCenter.
  • pass : mot de passe d’accès au vCenter.
  • datacenter : datacenter à surveiller.
  • temporal : répertoire temporaire.
  • logfile : emplacement du fichier de log.
  • entities_list : emplacement du fichier qui contient la liste des entités qui sont surveillées.
  • transfer_mode : mode de transfert pour les XMLs, qui peut être tentacle ou local.
    • tentacle : envoie les archives XMLs au serveur de Pandora FMS en utilisant le protocole Tentacle.
    • local : copie les archive à un dossier local. L’agent doit s’exécuter dans la même machine que celle où se trouve le dossier local.
  • tentacle_ip : adresse IP du serveur de Pandora FMS à laquelle l’information doit être envoyée.
  • tentacle_port : port du serveur de Pandora FMS auquel il faut envoyer l’information (par défaut 41121).
  • tentacle_opts : options supplémentaires pour l’envoi avec tentacle (aucune par défaut).
  • local_folder : répertoire de destination pour réaliser la copie de XMLs avec le mode local activé.
  • pandora_url : url de la console de Pandora FMS (par exemple : http://192.168.70.81/pandora_console).
  • api_pass : mot de passe de la API de la console de Pandora FMS
  • api_user : utilisateur de la console de Pandora FMS.
  • api_user_pass : mot de passe de l’utilisateur de la console de Pandora FMS.
  • retry_send : activé (1) ou désactivé (0) le renvoi de fichiers .data dans le répertoire temporaire
  • event_mode: flag qui active le mode de collecte des évènements. S’il vaut 1, il est activé, s’il vaut 0, il est alors désactivé.
  • event_pointer_file : emplacement de l’archive temporaire qui garde le curseur pour la collecte d’évènements.
  • verbosity: niveau de log (0 uniquement les erreurs qui empêchent le fonctionnement du plugin, 1 toutes les erreurs.)
  • threads : nombre de threads du plugin (1 par défaut).
  • interval : intervalle des agents qui représentent les entités VMware.

Un exemple de cette section dans l’archive de configuration pourrait être la suivante :

Configuration
server 192.168.70.249
user Administrator
pass S1stemas
datacenter artica
temporal /tmp
logfile /tmp/vmware_plugin.log
entities_list /tmp/vmware_entities_list.txt
transfer_mode tentacle
tentacle_ip 192.168.70.81
tentacle_port 41121
tentacle_opts
local_folder /var/spool/pandora/data_in
pandora_url http://192.168.70.81/pandora_console
api_pass 1234
api_user admin
api_user_pass pandora
event_mode 0
event_pointer_file /tmp/vmware_events_pointer.txt


Template:TipSi vous utilisez le plugin sur des systèmes Windows, il faudra changer tous les chemins d’accès des archives par d’autres compatibles avec Windows.

1.2.13.1.2 Scan des entités

Info.png

Pour utiliser cette fonctionnalité sur Discovery, ajoutez la configuration souhaitée dans Extra settings

 


En raison de la taille des infrastructures VMware de nos clients, un scan de toutes les entités disponibles dans chaque exécution pourrait entraîner des problèmes de rendement.

Pour éviter cette situation, le plugin de surveillance de VMware dispose de l’archive des entités (entities_list) qui conserve la liste des entités scannées lors de la première exécution.

Tout le temps que l’archive existe, la surveillance se limitera aux entités indiquées dans ce dernier.

Si vous avez besoin d’un scan régulier de votre infrastructure VMware, vous pouvez éliminer ce fichier tous les X moments (par exemple, toutes les heures) en utilisant le cron du système.

1.2.13.1.3 Renommé des entités

Info.png

Pour utiliser cette fonctionnalité dans Discovery, ajoutez la configuration souhaitée dans Extra settings

 


Pour renommer des entités, il faut utiliser le token “Rename” qui permet de changer le nom des entités découvertes par le plugin. En utilisant cette fonctionnalité, les agents créés sur Pandora FMS apparaîtront avec le nouveau nom assigné. La structure de cette section est la suivante :

<nom actuel> TO <nom nouveau>

Un exemple de configuration de cette section pourrait être le suivant :

#Rename entities
Rename
Debian 11 TO Virtual Machine 1
RedHat 12 TO Web server 
ESX Workstation TO Host Work Sales
1.2.13.1.4 Exclusion d’entité

Info.png

Pour utiliser cette fonctionnalité dans Discovery, ajoutez la configuration souhaitée dans Extra settings

 


Le plugin permet de réaliser une exclusion d’entité par type ou de façon individuelle. Ces deux options sont expliquées ci-dessous.

L’exclusion des entités par type s’effectue en utilisant le token Reject. Dans cette section, vous pourrez exclure les entités selon leur type, par exemple toutes les machines virtuelles ou tous les hosts ESX. Les valeurs possibles que peut prendre cette section sont les suivantes : all_datastore, all_datacenter, all_esx, all_vm.

Une configuration de cette section qui exclut toutes les entités serait la suivante :

#Dismissed entities
Reject
all_datastore
all_datacenter
all_esx
all_vm

Pour réaliser une exclusion des entités de façon individuelle, il faudra les effacer de l’archive des entités créé par le plugin. Ce dernier crée cette archive dans l’emplacement indiqué dans le paramètre entities_list (par défaut /tmp/vmware_entities_list.txt). Le plugin remplit le contenu de cette archive avec la première exécution, ou tout le temps qu’elle n’existe pas,en créant une liste avec toutes les entités découvertes. Un exemple d’archive pourrait être le suivant :

Datacenter
artica
Datastore
datastore_1
datastore2
ESX
192.168.70.252
VM
Pandora FMS 4.0.3
Debian2
Debian3
Debian4
Redhat
debian5
Debian6
Debian8
Debian7
Debian11
Debian10
Debian9
NSM
Pandora
vcenter
suse11.2

L’archive de configuration se divise en plusieurs tokens, Datacenter, Datastore, ESX et VM, où sont listées les différentes entités. Une fois l’archive de configuration créée, le plugin lira depuis cette archive les entités à surveiller. Pour exclure une entité, il suffit de la supprimer de ce fichier. Si, par exemple, vous ne souhaitez pas surveiller les entités : Debian2, datastore2, NSM, suse11.2 y 192.168.70.252, l’archive de configuration resterait telle que :

Datacenter
artica
Datastore
datastore_1
ESX
VM
Pandora FMS 4.0.3
Debian3
Debian4
Redhat
debian5
Debian6
Debian8
Debian7
Debian11
Debian10
Debian9
Pandora
vcenter

Cette fonctionnalité permet de réaliser une distribution de la charge de surveillance en limitant le nombre des entités surveillées lors de chaque exécution du plugin. Différentes techniques de distribution de la charge seront expliquées plus tard dans le document.

1.2.13.1.5 Configuration de surveillance

Info.png

Pour utiliser cette fonctionnalité sur Discovery, ajoutez la configuration souhaitée dans Extra settings

 


Les sections suivantes de l’archive configurent les modules créés par chaque type d’entité. Les sections utilisent les tokens Datacenter, Datastore, ESX, VM. Dans ces dernières, vous pourrez activer/désactiver les modules à surveiller. Dans l’exemple suivant, nous avons réalisé une configuration en sélectionnant les modules que nous souhaitons créer pour les ESX et les machines virtuelles :

...
#ESX Modules
ESX
cpuUsagePercent disabled
diskRead enabled
diskWrite enabled

#VM Modules
VM
diskReadLatency disabled
diskWriteLatency disabled
diskRate enabled
...

Chaque ligne de configuration correspond à un module. Dans l’exemple précédent, les modules seront créés avec les valeurs par défaut, mais il est possible de configurer le nom, la description et les limites pour les états d’Avertissement et Critique du module. Voici un exemple de cette configuration :

...
#VM Modules
VM
diskReadLatency disabled
diskWriteLatency disabled
diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
...

Les options disponibles pour la configuration des modules sont les suivantes :

  • <module> disabled : le module NON se créera
  • <module> enabled : le module OUI se créera (avec les valeurs par défaut).
  • <module> name = <nom>; desc = <description>; limits_warn <lim_warn>; limits_crit <lim_crit>: le module se créera avec le nom et la description fournis. De plus, les seuils maximaux et minimaux se définiront pour les états Avertissement et Critique. Il est très important de prendre en compte la structure des lignes de l’archive de configuration et surtout de voir le caractère ; qui est collé au nom et à la description du module. Ces deux lignes NE SONT PAS ÉQUIVALENTES (voir les espaces avant le caractère ; ):
diskRate name = Tasa Disco; desc = Tasa Lec/Esc disco; limits_warn = 5 10; limits_crit = 0 4
diskRate name = Tasa Disco    ; desc = Tasa Lec/Esc disco    ; limits_warn = 5 10; limits_crit    = 0    4

Les modules sont référencés par leur court nom, une abréviation équivalente et plus simple à écrire dans la ligne de commandes. La table de correspondance des noms abrégés et développés se trouve dans la section suivante. Analysons la configuration de l’exemple précédent. Nous avons configuré le module Disk Rate qui se créera avec les valeurs suivantes :

* Nom : Tasa Disco
* Description: Tasa Lec/Esc disco
* Min Warning: 5
* Max Warning: 10
* Min Critical: 0
* Max Critical: 4

Certains modules se gèrent de façon dynamique, par exemple ceux relatifs aux disques ou interfaces réseau. Pour ces métriques, le plugin crée un module pour chaque élément découvert. Ces modules ont généralement des noms spéciaux sur Pandora FMS, par exemple :

Disk Free [0]
Disk Free [1]
Disk Free [2]
...

Dans ces cas, comme le nom a une partie dynamique, l’usage de la macro % est possible, qui sera substituée par la partie variable du nom du module. Un exemple de configuration des modules serait le suivant :

diskFree name = Disk (%s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0

Dans ce cas, le nom du module par défaut est :

Disk Free [0]

Puis s’appellera :

Disk (0) free space

A partir de la version 5.0, il est possible de configurer des chaînes de caractères pour les limites des états Avertissement et Critique des modules. La configuration serait comme la suivante :

powerState name = état en fonctionnement; desc = état en fonctionnement VM; limits_warn = .*suspended.*; limits_crit = .*poweredOff.*

Il est possible de configurer des expressions régulières pour jouir d’une flexibilité plus grande pour établir les limites.

1.2.13.1.6 Métriques de performance personnalisées

Info.png

Pour utiliser cette fonctionnalité sur Discovery, ajoutez la configuration souhaitée dans Extra settings

 


Dans cette section, vous pouvez configurer de nouveaux modules relatifs à Performance Counters pour les machines virtuelles et les ESX. Pour configurer un nouveau module de rendement, il faudra utiliser la structure suivante :

custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0

Les paramètres à configurer sont :

  • type : type de métrique à surveiller. Les types de métrique sont :
    • cpu : CPU
    • 'mem ': Memory
    • disk : Disk
    • net : Network
    • sys : System
  • metric : métrique à surveiller (Plus loin dans le document, il vous sera indiqué comment voir les métriques disponibles).
  • module_type : type de module de Pandora FMS (par exemple : generic_data).
  • name : nom du module.
  • desc: description du module.
  • limits_warn: limites par l’état d’Avertissement.
  • limits_crit: limites pour l’état Critique.

Vous pourrez consulter les métriques disponibles pour chaque type, dans l’aparté Performance de chaque entité. Cette vue se trouve dans le vCenter et montre les métriques de rendement qui peuvent être surveillées avec le plugin VMware. Par exemple, l’image suivante montre la vue Performance pour un host ESX.

Vmware perf view.png



Pour voir la liste liste complète de toutes les métriques selon leur type, vous devrez cliquer sur le bouton “Advanced” puis sur le bouton “Char option”. Vous verrez une liste avec tous les types de métriques et celles respectives à chaque types seront dans une fenêtre comme le montre l’image suivante.

Vmware perf metrics list.png



Pour chaque type de métrique, une série de compteurs apparaîtra, représentant les variables que nous pourrons surveiller avec Pandora FMS. Pour surveiller une variable, il faut son “Internal Name”. De plus, nous devrons nous assurer que le niveau de statistiques, configuré dans le vCenter, permette de montrer la variable que nous recherchons, en le comparant avec le champs “Collection Level” de la métrique.

Vmware perf metrics counter.png



Si, par exemple, nous souhaitons voir l’utilisation de CPU d’un host ESX, nous chercherons les variables type “cpu” pour un ESX et parmi celles disponibles, nous choisirons “utilization”. La ligne que nous devrons ajouter à l’archive de configuration, dans ce cas-ci dans la section ESX, sera la suivante :

custom_performance type = cpu; metric = utilization; module_type = generic_data; name = CPU Utilization; desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0

1.2.13.2 Surveillance de plusieurs Datacenter avec un même agent

Chaque module plugin configuré dans l’agent surveille un datacenter, c’est pourquoi si on désire surveiller plusieurs datacenter avec un même agent software de Pandora FMS, il faudra prendre en compte les considérations suivantes :

  • Il faut ajouter un module_plugin pour chaque datacenter à surveiller, par exemple :
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
  • Dans chaque archive de configuration, il faudrait changer les paramètres : logfile, entities_list, event_pointer_file. Les archives de configuration resteraient comme les suivantes :

vmware-plugin-datacenter1.conf

...
logfile /tmp/vmware_plugin_datacenter1.log
entities_list /tmp/vmware_entities_list_datacenter1.txt
event_pointer_file /tmp/vmware_events_pointer_datacenter1.txt
...

vmware-plugin-datacenter2.conf

...
logfile /tmp/vmware_plugin_datacenter2.log
entities_list /tmp/vmware_entities_list_datacenter2.txt
event_pointer_file /tmp/vmware_events_pointer_datacenter2.txt
...


  • Si, en plus, vous souhaitez réaliser la copie des évènements, vous devrez avoir deux modules plugin en plus, avec les archives respectives de configuration et en activant le flag “event_mode”. La configuration des module_plugin serait comme la suivante :
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf

1.2.13.3 Diviser la charge de la surveillance entre plusieurs serveurs de Pandora

Les options de l’archive de configuration du plugin permettent de distribuer facilement la charge de surveillance entre plusieurs serveurs de Pandora FMS. Par exemple, supposons que nous ayons la structure suivante dans notre environnement de virtualisation :

DC
|
|- Datastore_1
|- DataStore_2
|
|- ESX_1
      |- mv1.1
      |- mv1.2
      |- mv1.3

|- ESX_2
      |- mv2.1
      |- mv2.2
      |- mv2.3

Dans notre environnement, nous disposons de deux serveurs de Pandora FMS pour réaliser la surveillance. Une manière simple de diviser la charge serait de surveiller le Datacenter, les Datastores et les ESX dans le premier serveur et toutes les machines virtuelles dans le second. Les archives de configuration du plugin seraient les suivantes : Serveur 1 :

Reject
all_vm

Serveur 2 :

Reject
all_datacenter
all_datastore
all_esx

Le serveur 1 surveille tout sauf les machines virtuelles et le Serveur 2 surveille les machines virtuelles. Une autre façon de distribuer la charge serait de diviser la surveillance par ESX : le premier serveur de Pandora FMS surveillerait tout ce qui est relatif au premier serveur ESX et le second, tout ce qui appartiendrait au second serveur ESX. Grâce à cela, nous diviserons l’archive entities_list.txt en deux archives et nous configurerons deux exécutions du plugin dans différents agents. Les archives entities_list.txt seraient telles que :

Serveur 1 :

Datacenter
DC
Datastore
Datastore_1
ESX
ESX_1
VM
mv1.1
mv1.2
mv1.3

Le Serveur 1 ignore tout ce qui est lié au second groupe d’entités VMware, c’est pourquoi il se charge de surveiller que la moitié de l’environnement.

Serveur 2 :

Datastore
DataStore_2
ESX
ESX_2
VM
mv2.1
mv2.2
mv2.3

Le Serveur 2 ignore tout ce qui est lié au premier groupe d’entités VMware en plus du Datacenter, puisque ce dernier est surveillé par le Serveur 1. La configuration des entités exclues est très flexible et permet de diviser la charge qui attribue quelques entitées à chaque agent de Pandora FMS.

1.2.13.4 Exemples d’archive configuration

1.2.13.4.1 Archive avec tous les modules désactivés
#These lines are comments

#Datacenter Modules
Datacenter
ping disabled
check443 disabled

#Datastore Modules
Datastore
capacity disabled
freeSpace disabled
overallocation disabled
freeSpaceBytes disabled

#ESX Modules
ESX
bootTime disabled
cpuInfo disabled
memorySize disabled
overallCpuUsage disabled
overallMemoryUsage disabled
powerState disabled
sslThumbprint disabled
uptime disabled
vnicInfo disabled
hostAlive disabled
connectionState disabled
diskRead disabled
diskWrite disabled
diskReadLatency disabled
diskWriteLatency disabled
netReceived disabled
netTransmitted disabled
netPkgRx disabled
netPkgTx disabled
cpuUsagePercent disabled
memoryUsagePercent disabled
netUsage disabled
diskRate disabled
maxDiskLatency disabled
haStatus disabled

#VM Modules
VM
bootTime disabled
connectionState disabled
consumedOverheadMemory disabled 
cpuAllocation disabled
diskFree disabled
guestState disabled
host disabled
hostAlive disabled
hostMemoryUsage disabled
hostName disabled
ipAddress disabled
macAddress disabled
maxCpuUsage disabled
maxMemoryUsage disabled
memoryAllocation disabled
memoryOverhead disabled
overallCpuDemand disabled
overallCpuUsage disabled
powerState disabled
privateMemory disabled
sharedMemory disabled
toolsRunningStatus disabled
triggeredAlarmState disabled
virtualImagePath disabled
uptimeSeconds disabled
diskRead disabled
diskWrite disabled
diskReadLatency disabled
diskWriteLatency disabled
netReceived disabled
netTransmitted disabled
netPkgRx disabled
netPkgTx  disabled
cpuUsagePercent disabled
memoryUsagePercent disabled
netUsage disabled
diskRate disabled
maxDiskLatency disabled
heartbeat disabled
cpuReady disabled
snapshotCounter disabled

1.2.13.5 Table de correspondance des noms courts

1.2.13.5.1 Datacenter
Nom délivré Nom court
Ping ping
Check 443 port check443
1.2.13.5.2 Datastores
Nom délivré Nom court
Capacity capacity
Free Space freeSpace
Disk Overallocation overallocation
Free Space Bytes freeSpaceBytes
1.2.13.5.3 ESX
Nom délivré Nom court
Boot Time bootTime
CPU Info cpuInfo
Memory Size memorySize
Overall CPU Usage overallCpuUsage
Overall Memory Usage overallMemoryUsage
Power State powerState
SSL Thumbprint sslThumbprint
Uptime uptime
VNIC Info vnicInfo
Host Alive hostAlive
Connection State connectionState
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HA Status haStatus
Sensor* systemHealthInfo
1.2.13.5.4 Machines Virtuelles
Nom délivré Nom court
Boot Time bootTime
Connection State connectionState
Consumed Overhead Memory consumedOverheadMemory
CPU Allocation cpuAllocation
Disk Free diskFree
Guest State guestState
Host Info host
Host Alive hostAlive
Host Memory Usage hostMemoryUsage
Host Name hostName
IP Address ipAddress
MAC Address macAddress
Max CPU Usage maxCpuUsage
Max Memory Usage maxMemoryUsage
Memory Allocation memoryAllocation
Memory Overhead memoryOverhead
Overall CPU Demand overallCpuDemand
Overall CPU Usage overallCpuUsage
Power State powerState
Private Memory privateMemory
Shared Memory sharedMemory
Tools Running Status toolsRunningStatus
Trigger Alarm State triggeredAlarmState
Uptime Seconds uptimeSeconds
Virtual Image Path virtualImagePath
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HeartBeat heartbeat
CPU Ready cpuReady
Number Snapshots snapshotCounter
HA Status haStatus

1.2.13.6 Table d’évènements

Info.png

Cette liste d’évènements permet de faciliter la tâche de configuration des alertes des évèenments sur Pandora FMS. Pour obtenir une référence complète et mise à jour de tous les évènements possibles, vous devrez consulter la documentation que VMware possède à ce propos.

 


Evènement Sévérité Type d’évènement Groupe
An account was created on host {host.name} Informational System All
Account {account} was removed on host {host.name} Informational System All
An account was updated on host {host.name} Informational System All
The default password for the root user on the host {host.name} has not been changed Informational System All
Alarm '{alarm.name}' on {entity.name} triggered an action Informational System All
Created alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} sent email to {to} Informational System All
Alarm '{alarm.name}' on {entity.name} cannot send email to {to} Critical System All
Reconfigured alarm '{alarm.name}' on {entity.name} Informational System All
Removed alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} ran script {script} Informational System All
Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} Critical System All
Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent Informational System All
Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} Critical System All
Alarm '{alarm.name}' on {entity.name} changed from {[email protected]} to {[email protected]} Informational System All
All running virtual machines are licensed Informational System All
User cannot logon since the user is already logged on Informational System All
Cannot login {userName}@{ipAddress} Critical System All
The operation performed on host {host.name} in {datacenter.name} was canceled Informational System All
Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. Informational System All
Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. Critical System All
Checked cluster for compliance Informational System All
Created cluster {computeResource.name} in {datacenter.name} Informational System All
Removed cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Configuration status on cluster {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} Informational System All
Created new custom field definition {name} Informational System All
Removed field definition {name} Informational System All
Renamed field definition from {name} to {newName} Informational System All
Changed custom field {name} on {entity.name} in {datacenter.name} to {value} Informational System All
Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. Informational System All
An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. Critical System All
An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. Critical System All
Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. Informational System All
Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. Informational System All
The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. Critical System All
An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. Critical System All
dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. Informational System All
dvPort group {net.name} in {datacenter.name} was deleted. Informational System All
Informational System All
dvPort group {net.name} in {datacenter.name} was reconfigured. Informational System All
dvPort group {oldName} in {datacenter.name} was renamed to {newName} Informational System All
HA admission control disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA admission control enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
Re-established contact with a primary host in this HA cluster Informational System All
Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} Critical System All
All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. Critical System All
HA disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} Critical System All
Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} Warning System All
Created datacenter {datacenter.name} in folder {parent.name} Informational System All
Renamed datacenter from {oldName} to {newName} Informational System All
Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} Informational System All
Removed unconfigured datastore {datastore.name} Informational System All
Discovered datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} Critical System All
<internal> Informational System All
File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
File or directory {targetFile} deleted from {datastore.name} Informational System All
File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
Reconfigured Storage I/O Control on datastore {datastore.name} Informational System All
Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} Informational System All
Removed datastore {datastore.name} from {host.name} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} Informational System All
DRS put {host.name} into standby mode Informational System All
DRS is putting {host.name} into standby mode Informational System All
DRS cannot move {host.name} out of standby mode Critical System All
DRS moved {host.name} out of standby mode Informational System All
DRS is moving {host.name} out of standby mode Informational System All
DRS invocation not completed Critical System All
DRS has recovered from the failure Informational System All
Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. Critical System All
Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules Informational System All
{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule Informational System All
DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
DRS powered On {vm.name} on {host.name} in {datacenter.name} Informational System All
Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} Informational System All
A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. Informational System All
vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. Informational System All
vNetwork Distributed Switch event Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. Informational System All
The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. Warning System All
vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. Informational System All
dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. Informational System All
The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. Informational System All
The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. Informational System All
Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} Informational System All
vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. Informational System All
Host {host.name} in {datacenter.name} has entered maintenance mode Informational System All
The host {host.name} is in standby mode Informational System All
Host {host.name} in {datacenter.name} has started to enter maintenance mode Informational System All
The host {host.name} is entering standby mode Informational System All
{message} Critical System All
Host {host.name} in {datacenter.name} has exited maintenance mode Informational System All
The host {host.name} could not exit standby mode Critical System All
The host {host.name} is no longer in standby mode Informational System All
The host {host.name} is exiting standby mode Informational System All
Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} Informational System All
General event: {message} Informational System All
Error detected on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected on {host.name} in {datacenter.name}: {message} Warning System All
User logged event: {message} Informational System All
Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. Informational System All
A ghost proxy switch {switchUuid} on the host {host.name} was resolved. Informational System All
The message changed: {message} Informational System All
{componentName} status changed from {oldStatus} to {newStatus} Informational System All
Cannot add host {hostname} to datacenter {datacenter.name} Critical System All
Added host {host.name} to datacenter {datacenter.name} Informational System All
Administrator access to the host {host.name} is disabled Warning System All
Administrator access to the host {host.name} has been restored Warning System All
Cannot connect {host.name} in {datacenter.name}: cannot configure management account Critical System All
Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} Critical System All
Cannot connect host {host.name} in {datacenter.name} : server agent is not responding Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect user name or password Critical System All
Cannot connect {host.name} in {datacenter.name}: incompatible version Critical System All
Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. Critical System All
Cannot connect {host.name} in {datacenter.name}: error connecting to host Critical System All
Cannot connect {host.name} in {datacenter.name}: network error Critical System All
Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges Critical System All
Cannot connect host {host.name} in {datacenter.name} Critical System All
Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect host name Critical System All
Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response Critical System All
Host {host.name} checked for compliance. Informational System All
Host {host.name} is in compliance with the attached profile Informational System All
Host configuration changes applied. Informational System All
Connected to {host.name} in {datacenter.name} Informational System All
Host {host.name} in {datacenter.name} is not responding Critical System All
dvPort connected to host {host.name} in {datacenter.name} changed status Informational System All
HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {[email protected]} Critical System All
HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly Informational System All
Disconnected from {host.name} in {datacenter.name}. Reason: {[email protected]} Informational System All
Cannot restore some administrator permissions to the host {host.name} Critical System All
Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format Critical System All
Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached Critical System All
The virtual machine inventory file on host {host.name} is damaged or unreadable. Informational System All
IP address of the host {host.name} changed from {oldIP} to {newIP} Informational System All
Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} Critical System All
Cannot resolve IP address to short name on host {host.name} Critical System All
Host {host.name} could not reach isolation address: {isolationIp} Critical System All
A host license for {host.name} has expired Critical System All
Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Host monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} Informational System All
Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} Critical System All
Host {host.name} has no port groups enabled for HA communication. Critical System All
Host {host.name} currently has no management network redundancy Critical System All
Host {host.name} is not in compliance with the attached profile Critical System All
Host {host.name} is not a cluster member in {datacenter.name} Critical System All
Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Primary agent {primaryAgent} was not specified as a short name to host {host.name} Critical System All
Profile is applied on the host {host.name} Informational System All
Cannot reconnect to {host.name} in {datacenter.name} Critical System All
Removed host {host.name} in {datacenter.name} Informational System All
Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries Critical System All
Cannot resolve short name {shortName} to IP address on host {host.name} Critical System All
Shut down of {host.name} in {datacenter.name}: {reason} Informational System All
Configuration status on host {computeResource.name} changed from {[email protected]} to {[email protected]} in {datacenter.name} Informational System All
Cannot synchronize host {host.name}. {reason.msg} Critical System All
Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} Critical System All
The userworld swap is not enabled on the host {host.name} Warning System All
Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. Informational System All
WWNs are changed for {host.name} Warning System All
The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN Critical System All
Host {host.name} did not provide the information needed to acquire the correct set of licenses Critical System All
{message} Informational System All
Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} Critical System All
The license edition '{feature}' is invalid Critical System All
License {feature.featureName} has expired Critical System All
License inventory is not compliant. Licenses are overused Critical System All
Unable to acquire licenses due to a restriction in the option file on the license server. Critical System All
License server {licenseServer} is available Informational System All
License server {licenseServer} is unavailable Critical System All
Created local datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
The Local Tech Support Mode for the host {host.name} has been enabled Informational System All
Datastore {datastore} which is configured to back the locker does not exist Warning System All
Locker was reconfigured from {oldDatastore} to {newDatastore} datastore Informational System All
Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Critical System All
Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Warning System All
Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Warning System All
Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Warning System All
Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Cannot login user {userName}@{ipAddress}: no permission Critical System All
No datastores have been configured on the host {host.name} Informational System All
A required license {feature.featureName} is not reserved Critical System All
Unable to automatically migrate {vm.name} from {host.name} Informational System All
Non-VI workload detected on datastore {datastore.name} Critical System All
Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} Informational System All
The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. Warning System All
Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} Informational System All
Permission rule removed for {principal} on {entity.name} Informational System All
Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {[email protected]} Informational System All
Profile {profile.name} attached. Informational System All
Profile {profile.name} was changed. Informational System All
Profile is created. Informational System All
Profile {profile.name} detached. Informational System All
Profile {profile.name} reference host changed. Informational System All
Profile was removed. Informational System All
Remote Tech Support Mode (SSH) for the host {host.name} has been enabled Informational System All
Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} Informational System All
Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} Informational System All
Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Critical System All
New role {role.name} created Informational System All
Role {role.name} removed Informational System All
Modifed role {role.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully Informational System All
Created task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} Critical System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} Critical System All
Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Running task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
A vCenter Server license has expired Critical System All
vCenter started Informational System All
A session for user '{terminatedUsername}' has stopped Informational System All
Task: {info.descriptionId} Informational System All
Task: {info.descriptionId} time-out Informational System All
Upgrading template {legacyTemplate} Informational System All
Cannot upgrade template {legacyTemplate} due to: {reason.msg} Informational System All
Template {legacyTemplate} upgrade completed Informational System All
The operation performed on {host.name} in {datacenter.name} timed out Warning System All
There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available Informational System All
{unlicensed} unlicensed virtual machines found on host {host} Informational System All
The agent on host {host.name} is updated and will soon restart Informational System All
User {userLogin} was added to group {group} Informational System All
User {userName}@{ipAddress} logged in Informational System All
User {userName} logged out Informational System All
Password was changed for account {userLogin} on host {host.name} Informational System All
User {userLogin} removed from group {group} Informational System All
{message} Informational System All
Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
A vMotion license for {host.name} has expired Critical System All
Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {[email protected]} Critical System All
vCenter agent has been uninstalled from {host.name} in {datacenter.name} Informational System All
Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {[email protected]} Critical System All
vCenter agent has been upgraded on {host.name} in {datacenter.name} Informational System All
VIM account password was changed on host {host.name} Informational System All
Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened Informational System All
A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired Informational System All
Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Creating {vm.name} on host {host.name} in {datacenter.name} Informational System All
Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} Informational System All
Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} Informational System All
Cannot clone {vm.name}: {reason.msg} Critical System All
Clone of {sourceVm.name} completed Informational System All
Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found Informational System All
Virtual machine {vm.name} is connected Informational System All
Created virtual machine {vm.name} on {host.name} in {datacenter.name} Informational System All
dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]} Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {[email protected]}. A screenshot is saved at {screenshotFilePath}. Informational System All
Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
Unable to update HA agents given the state of {vm.name} Critical System All
HA agents have been updated with the current state of the virtual machine Informational System All
Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back Critical System All
Cannot deploy template: {reason.msg} Critical System All
Template {srcTemplate.name} deployed on host {host.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is disconnected Informational System All
Discovered {vm.name} on {host.name} in {datacenter.name} Informational System All
Cannot create virtual disk {disk} Critical System All
Migrating {vm.name} off host {host.name} in {datacenter.name} Informational System All
End a recording session on {vm.name} Informational System All
End a replay session on {vm.name} Informational System All
Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Critical System All
Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. Critical System All
vCenter cannot start the Secondary VM {vm.name}. Reason: {[email protected]} Critical System All
Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
vCenter cannot update the Secondary VM {vm.name} configuration Critical System All
Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} Warning System All
Fault Tolerance state on {vm.name} changed from {[email protected]} to {[email protected]} Informational System All
Fault Tolerance protection has been turned off for {vm.name} Informational System All
The Fault Tolerance VM ({vm.name}) has been terminated. {[email protected]} Informational System All
Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS standby for {vm.name} on {host.name} in {datacenter.name} Informational System All
VM monitoring state in {computeResource.name} in {datacenter.name} changed to {[email protected]} Informational System All
Assign a new instance UUID ({instanceUuid}) to {vm.name} Informational System All
The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) Informational System All
The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} Critical System All
New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} Informational System All
Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} Warning System All
The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Error message on {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Message on {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed Informational System All
No compatible host for the Secondary VM {vm.name} Critical System All
Not all networks for {vm.name} are accessible by {destHost.name} Warning System All
{vm.name} does not exist on {host.name} in {datacenter.name} Warning System All
{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered off Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered on Informational System All
Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. Informational System All
VM ({vm.name}) failed over to {host.name}. {[email protected]} Critical System All
Reconfigured {vm.name} on {host.name} in {datacenter.name} Informational System All
Registered {vm.name} on {host.name} in {datacenter.name} Informational System All
Relayout of {vm.name} on {host.name} in {datacenter.name} completed Informational System All
{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary Informational System All
{vm.name} on {host.name} reloaded from new configuration {configPath}. Informational System All
{vm.name} on {host.name} could not be reloaded from {configPath}. Critical System All
Cannot relocate virtual machine '{vm.name}' in {datacenter.name} Critical System All
Completed the relocation of the virtual machine Informational System All
Remote console connected to {vm.name} on host {host.name} Informational System All
Remote console disconnected from {vm.name} on host {host.name} Informational System All
Removed {vm.name} on {host.name} from {datacenter.name} Informational System All
Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} Warning System All
{vm.name} on {host.name} in {datacenter.name} is reset Informational System All
Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} Informational System All
Changed resource allocation for {vm.name} Informational System All
Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed Informational System All
{vm.name} on {host.name} in {datacenter.name} is resumed Informational System All
A Secondary VM has been added for {vm.name} Informational System All
vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. Critical System All
Disabled Secondary VM for {vm.name} Informational System All
Enabled Secondary VM for {vm.name} Informational System All
Started Secondary VM for {vm.name} Informational System All
{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {[email protected]} Informational System All
Start a recording session on {vm.name} Informational System All
Start a replay session on {vm.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is starting Informational System All
Starting Secondary VM for {vm.name} Informational System All
The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
{vm.name} on {host.name} in {datacenter.name} is stopping Informational System All
{vm.name} on {host.name} in {datacenter.name} is suspended Informational System All
{vm.name} on {host.name} in {datacenter.name} is being suspended Informational System All
Starting the Secondary VM {vm.name} timed out within {timeout} ms Critical System All
Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} Warning System All
Virtual hardware upgraded to version {version} Informational System All
Cannot upgrade virtual hardware Critical System All
Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} Informational System All
Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} Informational System All
Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} Warning System All
BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} Critical System All
New WWNs assigned to {vm.name} Informational System All
WWNs are changed for {vm.name} Warning System All
The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN Critical System All
{message} Warning System All
Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. Warning System All
com.vmware.license.AddLicenseEvent|License {licenseKey} added to VirtualCenter Informational System All
com.vmware.license.AssignLicenseEvent|License {licenseKey} assigned to asset {entityName} with id {entityId} Informational System All
com.vmware.license.DLFDownloadFailedEvent|Failed to download license information from the host {hostname} due to {[email protected]ownloadFailedReason} Warning System All
com.vmware.license.LicenseAssignFailedEvent|License assignment on the host fails. Reasons: {[email protected]}. Informational System All
com.vmware.license.LicenseExpiryEvent|Your host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. Warning System All
com.vmware.license.LicenseUserThresholdExceededEvent|Current license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) Warning System All
com.vmware.license.RemoveLicenseEvent|License {licenseKey} removed from VirtualCenter Informational System All
com.vmware.license.UnassignLicenseEvent|License unassigned from asset {entityName} with id {entityId} Informational System All
com.vmware.vc.HA.ClusterFailoverActionCompletedEvent|HA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.HA.ClusterFailoverActionInitiatedEvent|HA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.DasAgentRunningEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running Informational System All
com.vmware.vc.HA.DasFailoverHostFailedEvent|HA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed Critical System All
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent|All shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent|All VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostFailedEvent|A possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostMonitoringDisabledEvent|No virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.HA.DasTotalClusterFailureEvent|HA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.HostDasAgentHealthyEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy Informational System All
com.vmware.vc.HA.HostDasErrorEvent|HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {[email protected]} Critical System All
com.vmware.vc.VCHealthStateChangedEvent|vCenter Service overall health changed from '{oldState}' to '{newState}' Informational System All
com.vmware.vc.cim.CIMGroupHealthStateChanged|Health of [data.group] changed from [data.oldState] to [data.newState]. Informational System All
com.vmware.vc.datastore.UpdateVmFilesFailedEvent|Failed to update VM files on datastore {ds.name} using host {hostName} Critical System All
com.vmware.vc.datastore.UpdatedVmFilesEvent|Updated VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.datastore.UpdatingVmFilesEvent|Updating VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.ft.VmAffectedByDasDisabledEvent|VMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. Warning System All
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent|Network passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent|Network passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled Informational System All
com.vmware.vc.vcp.FtFailoverEvent|FT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure Informational System All
com.vmware.vc.vcp.FtFailoverFailedEvent|FT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary Critical System All
com.vmware.vc.vcp.FtSecondaryRestartEvent|HA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure Informational System All
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent|FT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long Informational System All
com.vmware.vc.vcp.TestEndEvent|VM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.TestStartEvent|VM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VcpNoActionEvent|HA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting Informational System All
com.vmware.vc.vcp.VmDatastoreFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} Critical System All
com.vmware.vc.vcp.VmNetworkFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} Critical System All
com.vmware.vc.vcp.VmPowerOffHangEvent|HA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying Critical System All
com.vmware.vc.vcp.VmRestartEvent|HA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VmRestartFailedEvent|Virtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.VmWaitForCandidateHostEvent|HA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying Critical System All
com.vmware.vc.vmam.AppMonitoringNotSupported|Application monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent|Application heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent|Application heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
esx.clear.net.connectivity.restored|Network connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.dvport.connectivity.restored|Network connectivity restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.dvport.redundancy.restored|Uplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.redundancy.restored|Uplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.vmnic.linkstate.up|Physical NIC {1} linkstate is up. Informational System All
esx.clear.storage.connectivity.restored|Connectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.clear.storage.redundancy.restored|Path redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.problem.apei.bert.memory.error.corrected|A corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.fatal|A fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.recoverable|A recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.pcie.error.corrected|A corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.fatal|Platform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.recoverable|A recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.iorm.nonviworkload|An external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. Informational System All
esx.problem.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
esx.problem.net.dvport.connectivity.lost|Lost network connectivity on DVPorts: {1}. Physical NIC {2} is down. Critical System All
esx.problem.net.dvport.redundancy.degraded|Uplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.dvport.redundancy.lost|Lost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
esx.problem.net.migrate.bindtovmk|The ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
esx.problem.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
esx.problem.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.uplink.mtu.failed|VMkernel failed to set the MTU value {1} on the uplink {2}. Warning System All
esx.problem.net.vmknic.ip.duplicate|A duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. Warning System All
esx.problem.net.vmnic.linkstate.down|Physical NIC {1} linkstate is down. Informational System All
esx.problem.net.vmnic.watchdog.reset|Uplink {1} has recovered from a transient failure due to watchdog timeout Informational System All
esx.problem.scsi.device.limitreached|The maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. Critical System All
esx.problem.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. Warning System All
esx.problem.scsi.scsipath.limitreached|The maximum number of supported paths of {1} has been reached. Path {2} could not be added. Critical System All
esx.problem.storage.connectivity.devicepor|Frequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} Warning System All
esx.problem.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
esx.problem.storage.connectivity.pathpor|Frequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.connectivity.pathstatechanges|Frequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
esx.problem.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
esx.problem.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
esx.problem.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
esx.problem.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.nfs.mount.connect.failed|Failed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.mount.limit.exceeded|Failed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
esx.problem.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
esx.problem.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All
vim.event.LicenseDowngradedEvent|License downgrade: {licenseKey} removes the following features: {lostFeatures} Warning System All
vprob.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
vprob.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
vprob.net.migrate.bindtovmk|The ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
vprob.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
vprob.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. Warning System All
vprob.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
vprob.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Warning System All
vprob.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
vprob.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. Warning System All
vprob.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
vprob.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
vprob.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
vprob.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
vprob.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
vprob.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. Critical System All
vprob.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
vprob.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
vprob.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
vprob.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All

1.3 Nutanix

La solution d’hyperconvergence Nutanix nous offre la possibilité de gérer toutes les ressources de réseau, de disque, de traitement et de mémoire depuis un même point.

Le plugin de surveillance de Pandora FMS pour Nutanix nous permet de contrôler continuellement l’état de notre solution Nutanix.

Nutanix explained.png



1.3.1 Fonctionnement du plugin

Le plugin Nutanix est un programme écrit dans Perl, qui se connectera à l’API REST de Nutanix PRISM, en récupérant les métriques nécessaires pour surveiller les éléments suivants :

  • Clusters Nutanix.
  • Dispositifs de stockage
  • Conteneurs.
  • Machines Virtuelles.
  • Hosts.
  • Etats des processus de réplication.

1.3.2 Pré-requis du plugin

Pour pouvoir récupérer l’information de l’API REST, il nous faudra :

  • L’adresse IP/ FQDN du portail.
  • Un “utilisateur” avec des autorisations de lecture sur l’API.
  • Le mot de passe de l’utilisateur.

En ce qui concerne la communication des résultats de la surveillance à votre Pandora FMS, il faudra :

  • Le mode de transfert de l’information, soit local ou via Tentacle.
    • En local, l’adresse du répertoire où les fichiers XML avec les résultats doivent être remis, tels que les autorisations d’écriture dans ledit répertoire.
    • Via Tentacle, il faudra pouvoir connecter contre l’adresse IP ou FQDN du serveur Pandora FMS, le port utilisé par l’installation Tentacle, la localisation du client de Tentacle, comme n’importe qu’elle option extraordinaire qu’il ait défini.



1.3.3 Installation du plugin

Téléchargez les archives requises par le plugin de la bibliothèque de modules : https://library.pandorafms.com/index.php?sec=Library&sec2=repository&lng=en&action=view_PUI&id_PUI=819


Transférez les archives à l’équipement à distance d’où vous souhaitez réaliser la surveillance de votre infrastructure Nutanix et extrayez les archives du plugin :

tar xvzf pandora_nutanix.tar.gz


1.3.4 Configuration du plugin

Les champs suivants sont déclarés :

Nutanix API configuration

nx_fqdn
adresse du serveur principal Prism
nx_port
port dans lequel l’API REST est publié (par défaut 9440).
nx_user
utilisateur avec des avantages de lecture sur l’API REST.
nx_pass
mot de passe de l’utilisateur
use_https
Usar https (1) o no (0)
nx_rest_version
Version de l’API Rest (par défaut 'v1')

Nutanix agent configuration

agent_interval
Intervalle des agents générés par le plugin (par défaut 300).
agent_group
groupe auquel appartiendront les agents générés (si ‘autocreate_group’ est commenté dans la configuration de votre PandoraServer), par défaut Nutanix.
module_interval
intervalle des modules des agents générés (facteur de multiplication, par défaut 1).
module_tags
étiquettes associées aux nouveaux modules des agents générés.
module_group
groupe auquel appartiendront les nouveaux modules.

Configuration de la communication vers le serveur de Pandora FMS

mode
Mode de transfert de données, “local” ou “ tentacle”.
tentacle_ip
adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle.
tentacle_port
port sur lequel le service Tentacle écoute.
tentacle_opts
toute option extra que vous ayez configurée sur votre service Tentacle.
tentacle_client
chemin d’accès complet à votre client Tentacle.
temp
répertoire de travail temporaire.
local_folder
chemin d’accès de transfert des données pour le mode "local"

Filtres

cluster_monitoring
activer(1) ou non (0) la surveillance de clusters.
storage_monitoring
activer (1) ou non (0) la surveillance de dispositifs de stockage.
container_monitoring
activer (1) ou non (0) la surveillance des conteneurs de stockage.
vm_monitoring
activer (1) ou non (0) la surveillance de machines virtuelles.
host_monitoring
activer (1) ou non (0) la surveillance de serveurs de machines virtuelles (noeuds Nutanix).
pd_monitoring
activer (1) ou non (0) la surveillance de domaines de protection.

“Personnalisations”

cluster_agent_header
en-tête pour le nom de l’agent des dispositifs de type cluster.
storage_agent_header
en-tête pour le nom de l’agent des dispositifs de type dispositif de stockage. ;host_agent_header
en-tête pour le nom de l’agent des dispositifs de type serveur de machines virtuelles (noeuds Nutanix).
container_agent_header
en-tête pour le nom de l’agent des dispositifs de type conteneurs de stockage.
vm_agent_header
en-tête pour le nom de l’agent des dispositifs de type machine virtuelle.
pd_agent_header
en-tête pour le nom de l’agent de dispositifs de type domaine de protection.

Règles de génération des modules”

vm_stat
Règle pour l’ajout de modules pour la surveillance de machines virtuelles, par défaut 'hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*'. Ceci indique les modules extraordinaires qui se généreront quand le nom de la métrique coincidera avec les expressions régulières indiquées dans ce champs. Ajoutez la valeur ".*" pour surveiller toutes les métriques disponibles.
host_stat
Règle pour l’ajout de modules pour la surveillances de machines virtuelles (noeuds Nutanix), par défaut 'hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*'. Ceci indique les modules extraordinaires qui se généreront quand le nom de la métrique coincidera avec les expressions régulières indiquées dans ce champs. Ajoutez la valeur ".*" pour surveiller toutes les métriques disponibles.
pd_stat
Règle pour l’ajout de modules pour la surveillance de domaines de protection, par défaut 'replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes'. Ceci indique les modules extraordinaires qui se généreront quand le nom de la métrique coincidera avec les expressions régulières indiquées dans ce champs. Ajoutez la valeur “.*” pour surveiller toutes les métriques disponibles.

Renommé des entités”

RENAME aaa TO bbb
Règle pour renommer des entités. Vous pouvez définir autant de directives que d’élément à renommer.

Exclusion des entités”

REJECT aaa
Règle pour l’exclusion de surveillance des entités. Vous pouvez définir autant de directives que d’éléments à exclure.



1.3.5 Exécution du plugin

Il est recommandé d’exécuter le plugin à distance, depuis un équipement avec un accès aussi bien à Pandora Server qu’à votre infrastructure Nutanix à surveiller.

Exécution manuelle :

./pandora_nutanix-linux-x64 pandora_nutanix.conf


Vous pouvez automatiser l’exécution du plugin dans le cron du système en ajoutant la ligne suivante à /etc/crontab.

*/5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf



1.3.6 Résultats du plugin

Captures avec les résultats obtenus par le plugin :

Exemple de carte de l’architecture Nutanix :

Nutanix map.JPG




Exemple de vue de l’agent de l’architecture Nutanix :

Nutanix agents.JPG



Exemple de vue des modules pour agents de type Host Nutanix :

Nutanix host modules.JPG



1.4 XenServer

Xen est un moniteur de machine virtuelle de code ouvert, développé par l’université de Cambridge.

L’objectif de ce concept est de pouvoir exécuter des instances des systèmes opératifs avec toutes les caractéristiques, de façon complètement fonctionnelle dans un équipement simple.

Xen fournit un isolement sûr, un contrôle des ressources et des garanties de qualité de service et de migration des machines virtuelles à chaud. Les systèmes opératifs peuvent être modifiés explicitement pour exécuter Xen (bien qu’en maintenant la compatibilité avec des applications d’utilisateur). Ceci permet à Xen de réaliser la visualisation de haute performance sans un support spécial de hardware.

Intel a réalisé diverses contributions à Xen en ajoutant un support pour ses extensions d’architecture VT-X Vanderpool. Cette technologie permet que des systèmes opératifs, sans les modifier, agissent comme des hosts dans les machines virtuelles de Xen, tant que le serveur physique supporte les extensions VT de Intel ou Pacifica de AMD.

Xenserver logo original.png



1.4.1 Fonctionnement du plugin

Le plugin Pandora FMS pour la surveillance des environnements Xen est écrit sur Python. Il utilise XenAPI pour récupérer toute l’information nécessaire. Il permet de surveiller les types d’éléments suivants :

  • Systèmes virtualisés dans Xen.
  • Ressources de stockage.
  • Propre serveur Xen (host).

Xen.PNG



1.4.2 Pré-requis du plugin

Il est indispensable que le système qui exécute le plugin dispose des pré-requis suivants :

  • Python installé
  • Bibliothèques Python installées :
    • XenAPI
    • xmltodict
  • Accès à l’API de votre XenServer (web, il active le trafic depuis l’équipement qui exécute le plugin au port 443 ou 80 du XenServer).
  • Il est recommandé que les machines virtuelles aient Xen Server Tools d’installée puisque, dans le cas contraire, l’information disponible est assez limitée.

Info.png

Le fonctionnement du plugin a fait ses preuves sur des systèmes XenServer 6.5 y 7.2

 




1.4.3 Installation du plugin

Téléchargez votre copie du plugin de Pandora FMS pour XenServer depuis la bibliothèque de modules en cliquant sur le lien suivant : https://library.pandorafms.com/index.php?sec=Library&sec2=repository&lng=en&action=view_PUI&id_PUI=634

Vous pouvez le déployer dans l’équipement que vous préférez (Windows ou Linux), en extrayant le contenu de l’archive dans un répertoire stable d’où vous pouvez l’exécuter, et qui utilise déjà correctement l’agent Pandora FMS ou le cron système.

1.4.4 Configuration du plugin

Configuration disponible pour le plugin Pandora FMS pour Xen : Bloc de configuration [CONF]

xen_server_ip
adresse IP/FQDN du serveur Xen
user
utilisateur avec autorisations de consultation sur l’API de Xen.
password
mot de passe de l’utilisateur
temporal
adresse de travail temporaire

Bloc de configuration [PANDORA]

tentacle_client
emplacement binaire du client de Tentacle
tentacle_ip
adresse IP sur lequel le service Tentacle est écouté.
tentacle_port
port sur lequel le service Tentacle est écouté.
logfile
chemin d’accès complet au fichier de log
interval
intervalle des agents générés

group

groupe assigné aux agents générés.

Bloc de configuration [TUNNING]

time_adjustment
paramètre qui permet l’ajustement des différences de temps possibles entre l’équipement qui exécute le plugin et le serveur Xen. (Par défaut = 10, mesuré en secondes). ;scan_vm_ip
paramètre qui permet de définir si le plugin essaiera d’obtenir les IPs des VMs du serveur Xen. Seules les IPs de ces VMs avec celles XenTools installées peuvent être utilisées. On peut les activer (scan_vm_ip=true) ou les désactiver (scan_vm_ip=false). Si on ne le précise pas, ce sera considéré comme activé.

Bloc de configuration [RENAME]

xen_element_name=pandora_agent_name
dans ce bloc, il est possible de définir autant d’entrées que souhaitées avec ce format. Cela permet de changer les noms des éléments du Xen Server en d’autres distincts, afin d’être utilisés commes des noms d’agents dans Pandora FMS. Les VMS, les SRs et le XenServer lui même, peuvent être renommés. Par exemple :
[RENAME]
example-xen-server=Example Xen Server
Example Xen Server 2=example-xen-server-2
example-vm=Example VM
Example VM 2=example-vm-2
example-sr=Example SR
Example SR 2=example-sr-2
Bien que les noms aient des espaces blancs, il ne faut pas mettre de guillemets.

1.4.5 Exécution du plugin

Vous pouvez programmer l’exécution du plugin depuis n’importe quel agent de Pandora FMS, en ajoutant à la configuration de ce dernier :

module_plugin python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"


Pour le programmer grâce au cron du système, vous pouvez ajouter la ligne suivante à /etc/crontab:

*/5 * * * * root python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf" > /dev/null 2>&1


Si vous exécutez le plugin manuellement, la sortie doit être semblable à la suivante :

python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"
<module>
<name><![CDATA[XenServer Plugin]]></name>
<type><![CDATA[async_string]]></type>
<description><![CDATA[Result of XenServer Plugin execution]]></description>
<data><![CDATA[OK]]></data>
</module>



1.4.6 Résultats du plugin

Captures avec les résultats obtenus par le plugin :

Exemple de carte de l’architecture Xen :

Xen map.PNG




Exemple de vue d’un agent de l’archietcture Xen :

Xen agents.PNG




Exemple de vue des modules pour des agents de type Host Xen :

Xen host modules.PNG



1.5 OpenNebula

OpenNebula est une plate-forme informatique dans le nuage, orientée vers des centres de données distribuées et hétérogènes, fournissant une infrastructure virtuelle pour construire des nuages privés, publics et des implémentations hybrides d’infrastructure comme de service (IaaS).

OpenNebula est un logiciel de source ouverte, protégé dans la Licence Apache 2.


Opennebula-logo.png



1.5.1 Fonctionnement du plugin

Le plugin Pandora FMS, pour la surveillance d’environnements OpenNebula, est écrit sur Perl. Il s’exécute localement dans le serveur OpenNebula et récupérera toute l’information nécessaire en utilisant les propres commandes de gestion d’OpenNebula. Il permet la surveillance des types d’éléments suivants :

  • Clusters
  • Hosts
  • Machines virtuelles
  • Ressources de stockage



1.5.2 Pré-requis du plugin

Il est indispensable que le système qui exécute le plugin dispose des pré-requis suivants :

  • Perl disponible sur l’équipement
  • Utilisateur avec des droits pour exécuter les commandes suivantes :
    • onehost
    • onecluster
    • onedatastore

Info.png

Le bon fonctionnement du plugin a fait ses preuves sur des systèmes OpenNebula 5.X.X

 



1.5.3 Installation du plugin

Téléchargez votre copie du plugin de Pandora FMS pour OpenNebula de la bibliothèque des modules, en allant sur le lien suivant : https://library.pandorafms.com/index.php?sec=Library&sec2=repository&lng=en&action=view_PUI&id_PUI=820


Vous devez extraire le contenu de l’archive dans un répertoire stable, d’où vous pourrez l’exécuter, qui utilise déjà correctement l’agent de Pandora FMS ou le cron du système.

unzip pandora_OpenNebula.zip



1.5.4 Configuration du plugin

Configuration disponible pour le plugin Pandora FMS pour OpenNebula :

“Configuration de la communication vers le serveur Pandora FMS”

mode
mode de transfert de données, “local” ou “tentacle”
tentacle_ip
adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle.
tentacle_port
port dans lequel le service Tentacle est écouté
tentacle_opts
toute option supplémentaire qui soit configurée dans votre service Tentacle.
tentacle_client
chemin d’accès complet au client Tentacle
temp
adresse de travail temporaire
local_folder
chemin d’accès de l’emplacement des données pour le mode de transfert “local”.

Configuration de l’agent”

agent_interval
intervalle de l’agent, par défaut 300
agent_group
groupe de l’agent, par défaut OpenNebula

Personnalisation des modules“

MODULE_GROUP
groupe des modules, par défaut OpenNebula
MODULE_INTERVAL
intervalle des modules (multiplicateur), par défaut 1.
MODULE_TAGS
étiquettes pour les modules.

“Personnalisation des noms”

cluster_agent_header
en-tête pour le nom de l’agent des dispositifs de type cluster
host_agent_header
en-tête pour le nom de l’agent des dispositifs de type serveur de machines virtuelles. ;storage_agent_header
en-tête pour le nom de l’agent des dispositifs de type dispositif de stockage.
vm_agent_header
en-tête pour le nom de l’agent des dispositifs de type machine virtuelle.

Filtres

cluster_monitoring
activer (1) ou non (0) la surveillance clusters.
host_monitoring
activer (1) ou non (0) la surveillance de serveurs de machines virtuelles.
storage_monitoring
activer (1) ou non (0) la surveillance de dispositifs de stockage.
vm_monitoring
activer (1) ou non (0) la surveillance de machines virtuelles.

“Renommer des entités”

RENAME aaa TO bbb
règle pour renommer des entités : vous pouvez définir autant de directives que d’éléments qui nécessitent d’être renommés.

Exclusion des entités

REJECT aaa
règle pour l’exclusion de surveillance des entités : vous pouvez définir autant de directives que d’éléments à exclure.



1.5.5 Exécution du plugin

Pour le programmer grâce au cron du système, vous pouvez ajouter la ligne suivante à /etc/crontab:

*/5 * * * * root "<ruta>/pandora_opennebula" "<ruta>/pandora_opennebula.conf" > /dev/null 2>&1


Si vous l’exécutez manuellement, la sortie doit ressembler à la suivante :

[[email protected] ~]# ./pandora_opennebula pandora_opennebula.conf
[[email protected] ~]# echo $?
0



1.5.6 Résultats du plugin

Liste des modules générés par le plugin OpenNebula : Pour les Hosts:

  1. Available CPU
  2. Available Disk
  3. Available memory
  4. Error Error reported by OpenNebula
  5. State
  6. Total zombies
  7. VMs running


Pour des dispositifs de stockage :

  1. Disk Free %


Pour des machines virtuelles :

  1. Assigned CPU
  2. Assigned Memory
  3. Network RX
  4. Network TX
  5. State
  6. Time running

Exemple de carte d’architecture OpenNebula :

Opennebula map.PNG





1.6 IBM HMC

Ce plugin permet de surveiller des équipements de virtualisation IBM AIX grâce à la console d’administration de hardware HMC. Ce plugin collectera des informations de toutes les partitions logiques créées dans un environnement AIX administré par un système HMC, en créant un agent pour chaque serveur administré, chaque partition logique et chaque serveur IO virtuel. Pour récupérer l’information via SSH, le plugin peut utiliser trois modes de travail :

  1. Basé sur expect en utilisant le script ssh_launcher.sh
  2. Basé sur la bibliothèque Net::SSH::Perl
  3. Basé sur la bibliothèque Net::SSH::Expect

Pour compléter l’information capturée, des requêtes sur l’API REST seront réalisées (par défaut sur https://fqdn:12443/rest/api/{root_element}).



1.6.1 Pré-requis

Les paramètres nécessaires pour la surveillance, que doit fournir le domaine qui nécessite les services de surveillance, sont :

  • Nom d’utilisateur pour s’authentifier dans le système HMC (lecture seule)
    • L’utilisateur doit avoir l’autorisation pour pouvoir se connecter à l’API REST et pour se connecter dans la shell du HMC et exécuter les commandes suivantes (minimum requis) : *** lssyscfg
      • lshwres
  • Mot de passe dudit utilisateur
  • Emplacement (FQDN/IP) du HMC (p.e. myhmc.mydomain)
  • URL de base de l’API REST du HMC (p.e. https://myhmc.mydomain:12443)



1.6.2 Modules générés par le plugin

Les paramètres qui surveille le plugin sont (regroupés par type d’élément) :

  • Current logical partitions Current logical partitions deployed
  • Max logical partitions Max available logical partitions
  • Max memory available Available memory
  • Max memory installed Max memory installed
  • Proc pool DefaultPool current proc units
  • Proc pool DefaultPool max proc units
  • Proc pool DevelopmentPool current proc units
  • Proc pool DevelopmentPool max proc units
  • Proc pool ProductionPool current proc units
  • Proc pool ProductionPool max proc units
  • Proc pool TestPool current proc units
  • Proc pool TestPool max proc units
  • Proc pool VIOPool current proc units
  • Proc pool VIOPool max proc units
  • Processor pools configured Processor pools configured
  • Processor units available Available processor units
  • Processor units installed Installed processor units
  • State Status of the managed system
  • UUID Used to query the HMC API
  • Virtual proc units max Max virtual processor units for logical partitions


LPAR:

  • Auto start Logical partition autostart configuration
  • LPAR type Logical partition type
  • LPAR UUID Used to query the HMC API
  • Max memory Max memory
  • Max memory current Available memory
  • Processor units available Available processor units
  • Processor units current Installed processor units
  • RMC IP address RMC IP address
  • RMC state RMC status on the LPAR
  • State Logical partition status
  • Virtual proc units Virtual processor units assigned to this LPAR


Virtual IO:

  • Auto start Logical partition autostart configuration
  • LPAR type Logical partition type
  • LPAR UUID Used to query the HMC API
  • Max memory Max memory
  • Max memory current Available memory
  • Processor units available Available processor units
  • Processor units current Installed processor units
  • RMC IP address RMC IP address
  • RMC state RMC status on the LPAR
  • State Logical partition status
  • Virtual proc units Virtual processor units assigned to this LPAR



1.6.3 Configuration du plugin

Configuration disponible pour le plugin Pandora FMS pour IBM HMC :

“Configuration de la communication vers le serveur de Pandora FMS”

mode
mode de transfert de données, “local” ou “tentacle”
tentacle_ip
adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle.
tentacle_port
port sur lequel le service Tentacle est écouté.
tentacle_opts
toute option supplémentaire qui ait été configurée sur le service Tentacle.
tentacle_client
chemin d’accès complet au client Tentacle
temp
répertoire de travail temporaire
local_folder
chemin d’accès de dépôt des données en mode transfert “local”.

Configuration de l’accès à HMC

hmc_host
IP ou FQDN de l’HMC
hmc_user
utilisateur avec autorisation de lecture
hmc_pass
mot de passe
as_agent_plugin
La sortie du plugin sera renvoyée en format XML pour des exécutions programmées avec l’agent de Pandora FMS (as_agent_plugin = 1). Ou sortie standard (as_agent_plugin = 0) pour des exécutions programmées avec le cron système ou réalisées comme plugin de serveur.

Configuration de l’agent”

agent_name
optionnel : indiquer un nom pour l’agent père, par défaut “hostname”.
agent_interval
intervalle de l’agent, par défaut 300.
agent_group
groupe de l’agent, par défaut IBM.

Personnalisation des modules”

module_group
groupe des modules, par défaut IBM
module_interval
intervalle des modules (multiplicateur), par défaut 1
module_tags
étiquettes pour les modules

Renommer des entités”

Pour renommer des entités, un renommage pour chaque bloc est utilisé :

rename
MyLPAR_NAME TO my new name
MyLPAR_NAME2 TO my second new name
rename_end



1.6.4 Exécution du plugin

Le plugin de Pandora FMS pour la surveillance des systèmes IBM AIX grâce à HMC se déploie de la façon suivante : En configurant le paramètre as_agent_plugin à 1 (exécution en tant que plugin d’agent) :

module_plugin /usr/bin/perl pandora_hmc.pl pandora_hmc.conf


En configurant le paramètre as_agent_plugin a 0 (exécution en tant que plugin de serveur) :

# /etc/crontab
*/5 * * * * root /usr/bin/perl /root/hmc/pandora_hmc.pl /root/vmware/pandora_hmc .conf



1.7 HPVM

La virtualisation de machines fournie par Hewlett-Packard permet d’exécuter simultanément plusieurs machines virtuelles dans n’importe quel serveur Itanium exécutant HP-UX. C’est un produit optimisé pour des serveurs.



1.7.1 Fonctionnement du plugin

Ce plugin permet de surveiller des équipements de virtualisation HPVM. Il se lance comme un plugin d’agent, en générant en parallèle, un agent en plus pour chaque équipement virtualisé et hébergé dans le système surveillé.

Pour collecter l’information, des commandes locales sont utilisées.

1.7.2 Pré-requis du plugin

  1. Déployer un agent de Pandora FMS dans l’équipement que vous souhaitez surveiller
  2. Disposer d’un utilisateur avec des autorisations pour exécuter le plugin
  3. Cet utilisateur doit disposer des autorisations pour exécuter la commande hpvmstatus pour pouvoir interpréter la sortie :
    1. hpvmstatus
    2. hpvmstatus -X
    3. hpvmstatus -r -X



1.7.3 Installation du plugin

Téléchargez votre copie du plugin de Pandora FMS pour OpenNebula de la bibliothèque de modules en allant sur le lien suivant : https://library.pandorafms.com/index.php?sec=Library&sec2=repository&lng=en&action=view_PUI&id_PUI=639

Vous pouvez programmer l’exécution en utilisant les collectes et l’agent de Pandora FMS, déployer ou bien extraire le contenu de l’archive dans un répertoire stable à partir duquel vous pourrez l’exécuter grâce au cron de votre système.

unzip pandora_HPVM.zip



1.7.4 Configuration du plugin

Configuration disponible pour le plugin Pandora FMS pour HPVM :

Configuration de la communication vers le serveur de Pandora FMS”'

mode
mode de transfert de données, “local” ou “Tentacle”
tentacle_ip
adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle.
tentacle_port
port sur lequel le service Tentacle est écouté.
tentacle_opts
toute option supplémentaire qui ait été configurée dans le service Tentacle
tentacle_client
chemin d’accès complet au client Tentacle
temp
répertoire de travail temporaire
local_folder
chemin d’accès de dépôt des données en mode “local”

Configuration de l’agent”

agent_name
facultatif : indiquer un nom pour l’agent père, par défaut `hostname`
agent_interval
intervalle de l’agent, par défaut 300
agent_group
groupe auquel les agents appartiendront, par défaut HPVM

Personnalisation des modules”

module_group
groupes des modules
module_interval
intervalle des modules (multiplicateur), par défaut 1
module_tags
étiquettes pour les modules



1.7.5 Exécution du plugin

En exécutant le plugin depuis l’agent de Pandora FMS, la ligne suivante apparaîtra dans le fichier de configuration de l’agent :

module_plugin /usr/bin/perl pandora_hpvm.pl pandora_hpvm.conf

Pour un test manuel, configurez le plugin en suivant les étapes décrites. Vous pouvez le lancer comme ci-après :

perl pandora_hpvm.pl pandora_hpvm.conf




1.7.6 Résultats du plugin

Liste des modules générés par le plugin par type d’élément. Agents serveur (qui lance le plugin)

  • Available VMs
  • HPVM Plugin HPVM Plugin execution status
  • HPVM Service Presence of hpvmctrld (X instances)
  • HPVM Service CPU usage CPU usage of hpvmctrld (X instances)
  • HPVM Service RAM usage RAM usage of hpvmctrld (X instances)
  • hpvmapp Presence of hpvmapp (X instances)
  • hpvmapp CPU usage CPU usage of hpvmapp (X instances)
  • hpvmapp RAM usage RAM usage of hpvmapp (X instances)

Machines virtuelles

  • boot_type
  • console_type
  • CPU usage
  • device_number
  • direct_io_number
  • distributed
  • effective_serverid
  • guest_type
  • Host RAM available
  • Host RAM free
  • local_id
  • memory total
  • model_name
  • networks_number
  • run_pid
  • run_serverid
  • serial_number
  • uuid
  • vcpu_number
  • vm_condition
  • vm_config_label
  • vm_config_version
  • vm_state
  • vm_version
  • vm_version_label



Revenir à l’Index de Documentation Pandora FMS