====== Supervision d’environnement virtuel ====== {{indexmenu_n>5}} Pour surveiller [[https://pandorafms.com/guides/public/books/aws-ec2-qyt|Amazon EC2®]], [[https://pandorafms.com/guides/public/books/db2-WUE|DB2®]], [[https://pandorafms.com/guides/public/books/sap-fe9|SAP®]] and [[https://pandorafms.com/guides/public/books/vmware-uU3/page/discovery-MFp|VMware®]] les éléments suivants sont utilisés [[:fr:documentation:pandorafms:monitoring:17_discovery_2#applications|Discovery PFMS®]]. ===== RHEV ===== Red Hat® Enterprise Virtualization (RHEV) est unes des technologies les plus utilisés par les entreprises qui ont comme base le système d'exploitation Red Hat dans son Data Center. **Pandora FMS Enterprise** offre la possibilité de superviser les architectures virtuelles basées sur RHEV par le biais du plugin **RHEV Monitoring Plugin**, qui permet contrôler de manière simple tous les aspects liés à l'architecture virtuelle RHEV. ==== Architecture à superviser ==== * Data Centers. * Host Clusters. * Storage Domains. * Hosts. * Virtual Machines. Pour ça, Pandora FMS utilise l'API officielle fournit par le système de virtualisation RHEV. ==== Supervision avec RHEV Monitoring Plugin ==== Pour la **supervision du système d'exploitation installé** dans las machines virtuelles, il est recommandé d'utiliser un **Agent de Pandora FMS** au lieu de l'API RHEV. La supervision d'environnements virtuels RHEV se base dans ces composants: - Un //plugin// d'Agent qui fait les tâches de auto-découverte et collecte de données. Le //plugin// d'Agent est chargé d'envoyer les informations vers Pandora FMS. - Un //script// de reconnaissance qui met à jour de différents valeurs pour les entités découvertes, ce script est nécessaire pour le correcte fonctionnement des extensions du //plugin//. - Extension RHEV Viewer et RHEV Manager. Ils sont des extensions qui ajoutent une valeur supplémentaire permettant de visualiser l'infrastructure supervisée et opérer en allumant/étendant les machines virtuelles, tout ça depuis la console web de Pandora FMS. Pour pouvoir utiliser le //script// de reconnaissance il est nécessaire d'avoir activé le [[:fr:documentation:pandorafms:introduction:02_architecture#serveur_discovery|Discovery server]]. Afin que certaines variables de l'API reflètent la valeur réelle de la machine virtuelle associée,** il est nécessaire d'installer l'agent ****RHEV **; vous pourrez trouver tout regardant la documentation de sa version RHEV. === Fonctionnement interne du plugin === Le plugin de surveillance RHEV extrait les informations via l'API web servie par l'environnement de virtualisation RHEV. Si vous avez seulement besoin de l'information de supervision, vous avez seulement à configurer le //plugin// de l'agent qui fera cette tâche. La configuration du //plugin// permet de choisir quels éléments seront superviser et la configuration de ses modules. Une fois créés les XML, le //plugin// d'agent envoi les fichiers, soit grâce à [[:fr:documentation:pandorafms:technical_reference:09_tentacle|Tentacle]] ou en les copient vers un répertoire local, selon la méthode de transfert choisie. Si en outre vous allez utiliser les extensions **RHEV Viewer** et **RHEV Manager** vous aurez besoin d'utiliser le script de reconnaissance. Le script de reconnaissance est chargé de mettre à jour quelques variables de chacun des agent détectés dans Pandora FMS selon les valeurs configurés dans RHEV. Ces **variables** sont nécessaires pour visualiser les entités correctement dans l'extension RHEV Viewer et gérer correctement les machines virtuelles avec l'extension RHEV Manager. ==== Conditions préalables à l'installation du plugin RHEV ==== * **curl**. * **perl-XML-Simple**. * [[:fr:documentation:pandorafms:monitoring:02_operations|Agent Logiciel PFMS]] et ''tentacle_client'' de Pandora FMS. === Red Hat === Vous pouvez installer les dépendances dans les systèmes fondés sur Red Hat® avec la commande: yum install perl-XML-Simple curl === SLES === Dans les systèmes fondés sur SUSE, vous pouvez installer les dépendances avec la commande: zypper install perl-XML-Simple curl === Debian/Ubuntu === Dans les systèmes fondés sur Debian/Ubuntu, vous pouvez installer les dépendances avec la commande: apt-get install libxml-simple-perl curl ==== Téléchargement du certificat RHEV ==== Avant d'utiliser le plugin, il sera nécessaire de télécharger le certificat qui permet la connexion par moyen de HTTPS à l'API de RHEV. Pour ça, exécutez la commande suivante: curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt Où ''[rhevm-host]'' est le nom du serveur auqle l'API de RHEV fournit du service. Un exemple pourrait être: curl -o rhevm.cer http://rhevm.server:8080/ca.crt Aprés le certificat est téléchargé, vous pouvez vérifier que la connexion à l'API se fait de manière correcte par le biais de l'utilisation des connecteurs de ligne ''\'': curl -X GET \ -H "Accept: application/xml" \ -u [USER:PASS] \ --cacert [CERT] https://[RHEVM-HOST]:8443/api Avec les valeurs suivantes : * USER: //user// @//domain// pour se connecter à l'API. * PASS: mot de passe de l'utilisateur avec lequel vous vous connecterez à l'API. * CERT: le chemin d'accès au certificat téléchargé à l'étape précédente. * RHEVM-HOST: adresse de l'hôte qui fournit du service à l'API. Exemple avec des données concrètes de la commande: curl -X GET \ -H "Accept: application/xml" \ -u [user@testdomain:12345] \ --cacert /home/user/ca.crt https://rhevm.server:8443/api Si l'exécution de la commande est positive, il retournera une sortie en format XML avec l'information général sur l'API de RHEV. ==== Considerations préalables sur la configuration RHEV ==== Dans l'environnement de virtualisation RHEV il se peut que quelques entités aient le même nom. Cela suppose un problème, puisque dans Pandora FMS ces entités se convertiront en des agents qui ne permettent pas la duplication des noms. En outre il généra aussi des problèmes lors de la correction avec des patchs le résultat retourné par l'API en format XML, vous montrant un erreur pareille a celui-ci : Warning: element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199 Afin de résoudre le problème, ce dont vus avez besoin est de suivre une nomenclature de noms pour les entités dans l'environnement de virtualisation RHEV dans lequel les noms ne se répètent pas. ==== Installation du plugin d'agente ==== Afin d'installer le plugin d'agent vous n'avez qu'à copier le //script// ''rhev-plugin.pl'' et le fichier de configuration ''rhev-plugin.conf'' dans un répertoire de la machine où l'agent Pandora FMS qui exécutera le plugin est installée. Le //plugin// peut être exécuté dans un agent installé dans les mêmes machines que le serveur Pandora FMS ou dans une autre machine. Pour exécuter le plugin, ajoutez le fichier de configuration de l'agent (par défaut ''/etc/pandora/pandora_agent.conf'') la ligne suivante: module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf En ajoutant cette ligne, le plugin de l'agent fera ses fonctions dans chaque exécution. ==== En supervisant l'architecture virtuelle RHEV ==== Afin de voir le résultat de l'exécution du plugin d'agent, allez vers **Operation → Monitoring → Views → Agent Detail**. Lorsque vous cliquez sur le nom de un agent, vous pourrez voir les modules de supervision créés par le plugin, outre d'autres données relatives. Le plugin crée un agent dans Pandora FMS pour chacune des entités détectées lors de la découverte de l'architecture RHEV. Pour chaque type d'entité, une série de modules déterminés sont automatiquement créés, surveillant les informations importantes de chacun d'entre eux. Si l'agent sélectionné correspond à un hôte et non à une machine virtuelle, les modules de surveillance seront différents. Le plugin RHEV surveille également les événements qui se produisent au sein de l'architecture virtuelle. Le plugin crée un module pour chaque événement surveillé au sein de chaque entité concernée. Les données des modules créés à partir des événements sont les suivantes : heure de l'événement, description de l'événement. En plus des agents et des modules liés à l'architecture RHEV elle-même, un module appelé, par défaut, **RHEV Plugin**, est généré dans l'agent qui exécute le plugin. ==== Modules d'agent de l'architecture virtuelle RHEV ==== === Data Center === * //Status//: État du Data Center. === Storage Domain === * //Available Space //: Espace disponible dans le Storage Domain. * //Committed Space //: Espace compromis dans le Storage Domain. * //Used Space //: Espace utilisé dans le Storage Domain. * //Percent Free Space //: Pourcentage d'espace libre dans le Storage Domain. === Network === * //Status //: État du réseau virtuel. * //STP Status //: État de la fonctionnalité Spanning Tree Protocol. === Cluster === * //Overcommit Percent //: Pourcentage de surallocation du //cluster//. * //Transparent HugePages //: État de la fonctionnalité Transparent HugePages. * //High threshold //: Limite supérieure dans les politiques de planification. * //Low threshold //: Limite inférieure des politiques de planification. * //Threshold duration //: Duration des limites dans les politiques de planification. === Host === * //Status //: État de l'hôte. * //Buffers size //: Taille des //buffers//. * //Cache size //: Taille du //cache//. * //Cached swap //: Quantité de mémoire Swap //caching// (en octets). * //Free memory //: Quantité de mémoire libre (en octets). * //Percent free memory //: Pourcentage de mémoire libre. * //Swap cached percent //: Pourcentage de mémoire Swap //caching//. * //Swap free //: Quantité de mémoire Swap libre (en octets). * //Swap free percent //: Pourcentage de mémoire Swap libre. * //Total Memory //: Quantité de mémoire de l'hôte (en octets). * //Total Swap //: Quantité totale de mémoire Swap (en octets). * //Used memory //: Quantité totale de mémoire utilisée (en octets). * //Used Swap //: Quantité totale de mémoire Swap utilisée (en octets). * //Nic [x] TX // et //Nic [x] RX //: Ratio de transfert et réception de l'interface du réseau [x] (en octets/seconde). Un est généré par chaque interface réseau détectée. * //Nic [x] error TX // et //Nic [x] error RX //: Nombre d'erreurs de transmission et réception de l'interface réseau [x]. Un est généré par chaque interface réseau détectée. * //User CPU //: Pourcentage d'UCT utilisé par l'utilisateur. * //System CPU //: Pourcentage d'UCT utilisée par le système. * //CPU Idle //: Pourcentage d'UCT sans utiliser. * //CPU Load //: Charge moyenne d'UCT des dérniers 5 minutes. * //KSM CPU //: Pourcentage d'UCT utilisé par KSM. * //Active VM //: Nombre de machines virtuelles actives sur l'hôte. * //Migrating VM //: Nombre de machines virtuelles dans la migration dans l'hôte. * //Total VM //: Nombre totale de machines virtuelles dans l'hote. * //Fence Status //: État du de l'hôte. === Virtual Machine === * //Status //: État de la machine virtuelle. * //Disk [x] read //: Taux de lecture du disque x (octets/seconde). Un est généré par chaque disque (**stockage**) détecté. * //Disk [x] write //: Taux d'écriture du disque x (octets/seconde). Un est généré par chaque disque détecté. * //Disk [x] size //: Taille du disque x (en octets). Un est généré par chaque disque détecté. * //Disk [x] status //: État du disque x. Un est généré par chaque disque détecté. * //Nic [x] TX // et GitLab PFMS 12929 .: Ratio de transfert et réception pour l'interface réseau [x] (en octets/segundo). Un est généré par chaque disque détecté. * //Nic [x] error TX // et //Nic [x] error RX //: Nombre d'erreurs transmission et réception pour l'interface réseau [x]. Un est généré par chaque disque détecté. * //Installed memory //: Quantité de mémoire installée (en octets). * //Percent free memory //: Pourcentage de mémoire libre. * //Used memory //: Quantité de mémoire utilisée (en octets). * //Stateless //: État de la fonctionnalité Stateless. * //HA Status //: État de la focntionnalité du HA. * //Total CPU //: Pourcentage totale de l'UCT utilisé par la machine virtuel. * //Hypervisor CPU //: Pourcentage de l'UCT de l'Hypervisor utilisé par la même machine virtuelle. * //Guest CPU //: Pourcentage de l'UCT de l'hôte qui utilise la machine virtuelle. === Événements === * //Event [x] //: Description de l’événement x qui se passe dans le système. Un sera créé par chaque événement détecté dans les agents affectés. ==== Gestion et visualisation de l'architecture RHEV ==== === Tâches de reconnaissance === Il existe la possibilité de créer des tâches personnalisés de reconnaissance grâce au [[:fr:documentation:pandorafms:monitoring:17_discovery_2#custom_netscan|Discovery server]]. === Installation d'extensions RHEV View et RHEV Manager === Pour installer les extensions juste copiez le contenu du dossier ''extensions'', que vous trouverez lorsque vous décompressez le plugin, dans le dossier correspondante ''extensions'' de la partie Enterprise de la Console Pandora FMS. La commande à exécuter est la suivante: cp -R extensions/* /enterprise/extensions/ À partir de ce moment les extensions de supervision RHEV seront disponibles. === Utilisation de l'extension RHEV View === Afin d'utiliser l'extension RHEV View juste cliquez sur l'option **RHEV View** dans le submenu **Monitoring**. {{ :wiki:rhev_view_menu.png }} L'extension vous montrera une carte comme la suivante, avec tous les composants de l'architecture RHEV découverts par le plugin. === Utilisation de l'extension RHEV Manager === L'extension RHEV Manager est disponible dans la vue d'opération des agents Pandora FMS qui se correspondent avec les machines virtuelles dans l'architecture de virtualisation RHEV. Cette extension utilise la commande **curl**, donc il sera nécessaire qu'il soit installé et accessible pour le serveur web qui supporte la Console Pandora FMS. Pour accéder à l'extension, cliquez sur le bouton avec le logo de Red Hat que vous trouverez ensemble avec les autres cils de l'agent. {{ :wiki:rhev_icon_operation_agent.png }} L'extension permet de gérer des machines virtuelles (allumer, éteindre et suspendre) sans besoin d'ouvrir la console de gestion RHEV. Dans l'extension l'état actuel de la machine virtuelle est montré avec un code de couleurs: * Vert = Allumé. * Orange = Suspendu. * Gris = Arrêté. Avec une combinaison des états disponibles et des états dans lesquels la machine virtuelle peut être amenée en appuyant sur le bouton **Change Status**. {{ :wiki:rhev_combo_options.png }} Si vous choisissez l'état **Stop** pour arrêter la machine virtuelle, l'extension connectera avec l'API RHEV et envoilera l'ordre. Le résultat sera le changement d'état dans la machine virtuelle et les options du combo : {{ :wiki:rhev_status_down.png }} Le changemant de quelques état n'est pas automatique, comme par exemple de l'état **Stop** vers **Start**. Dans ce cas, l'extension montrera l'état de la machine virtuelle selon le changement dans l'architecture de virtualisation. Exemple : {{ :wiki:rhev_status_down.png }} ==== Configuration du plugin de l'agent ==== La configuration du plugin de l'agent se fait par le biais d'un fichier de configuration dont le nom par défaut est ''rhev-plugin.conf''. Par défaut, le plugin de l'agent choisit toutes les entités et rée tous les modules correspondants avec des valeurs predéfinis pour le nom et la descripton. Tous ces aspects, ainsi que les variables générales du plugin, peuvent être configurés à travers le fichier de configuration. === Fichier de configuration === Le fichier de configuration a deux sections très bien définies: les variables globales et la configuration de supervision. La section de variables globales commence avec le jeton **Configuration** et contient les informations de configuration du plugin. Les paramètres autorisés dans cette section: * //module_name//: Nom du module de l'agent avec l'état de l'exécution du plugin. * //server//: Nom de l'hôte qui fournit du service de l'API de RHEV. * //user//: Utilisateur sous format //user// @//domain// pour se connecter à l'API. * //pass//: Mot de passe pour se connecter à l'API. * //cert//: Chemin du certificat pour se connecter à l'API. * //temporal//: Répertoire temporel. * //logfile//: Fichier journal. * //transfer_mode//: Mode de transfert. Vous pouvez prender les valeurs : ''local'' ou ''tentacle''. * //tentacle_ip//: Addresse IP du serveur Tentacle auquel envoyer les informations. Normarellement il se trouvera dans la même machine que celle du serveur Pandora FMS. Cette option s'utilise seulement si ''transfer_mode'' a la valeur ''tentacle''. * //tentacle_port//: Port du serveur Tentacle. Cette option seulement s'utilise si ''transfer_mode'' a la valeur ''tentacle''. * //tentacle_opts//: Options d'envoi de données pour Tentacle. Cette option seulement s'utilise si ''transfer_mode'' a la valeur ''tentacle''. La section de configuration de la supervision se divise en quelques sous-sections. La première sous-section a comme jeton **Reject** et liste les entités de l'environnement de virtualisation qui seront écartés de la supervision. Afin d'écarter une entité il sera nécessaire d'entrer son nom dans cette liste. Par exemple: #Dismissed entities Reject mv1 mv_Windows10 mv_WebServer1 ... Il ès possible d'écarter toutes les entités du même type, par exemple toutes les hôtes, toutes les machines virtuelles, etc. Les jeton pour chaque entité sont: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (machines virtuelles). Exemple d'utilisation de ces jetons: #Dismissed entities Reject all_dc all_host all_network all_storage all_cluster all_vm La deuxième section a comme jeton **Rename** et sert à changer les noms des entités supervisées à travers le plugin. Cette fonctionnalité est très utile si vous voulez combiner la supervision d'agent logiciels avec les données extraits de l'API de Pandora FMS. La configuration de cette section se fait en écrivant au début le nom ancienne et après le nouveau nom séparé par un espace; par exemple: #Rename entities Rename mv_WebServer1 WebServer1 mv_Windows10 Windows10 Test ... Les sous-sections suivantes correspondante la configuration de supervision pour chaque entité. Chaque entité a son propre jeton, qui sont les suivants: **DataCenter**, **StorageDomain**, **Network**, **Cluster**, **Host** et **VM**. Pour chacune des entités, il est possible de définir les modules qui seront désactivés ou définir des valeurs personnalisés pour le nom, la description et les plages de maximums et minimums pour les états ''Warning'' et ''Critical''. Un exemple serait le suivant: #VM Modules VM status disabled errors_total_tx name = Errores TX Net [%s]; desc = Erreurs totales TX réseau; limits = 60 70 71 100 memory_used name = Memoire en utilisation; desc = Mémoire utilisée par la machine virtuelle; limits = 256 1024 1025 2048 ... Chaque ligne de configuration des modules de supervision se correspond à deux options disponibles: * disabled: Le module **NE** se pas créé. * nom = ; desc = ; limits = > Le module sera créé avec le nom et la description fournis et en outre les seuils pour les maximums et minimums des valeurs ''Warning'' et ''Critical''. Il est **très important** d'avoir sur compte **l'estructure des lignes de fichier de configuration** et sourtout de voir que **le caractère** '';'' est à côté du nom et la description u module. Ces deux lignes **NE SONT PAS ÉQUIVALENTES** (voyez les espaces avent le caractère '';'' ) : errors_total_tx name = Erreurs TX Net [%s]; desc = Erreurs totales TX réseau; limits = 60 70 71 100 #Correcte errors_total_tx name = Erreurs TX Net [%s] ; desc = Erreurs totales TX réseau ; limits = 60 70 71 100 #Incorrecte Les modules sont référencies par son nom court, un nom équivalent plus facile à écrire dans la ligne de commande. La table de correspondance entre les noms courts et étendus se trouve dans la section suivante. Exemple de configuration pour les machines virtuelles, section VM: Pour la supervision de machines virtuelles une série de modules activés ou pas définis dans la section VM du fichier de configuration ont été définis. Particulièrement: le module **status** a été desactivé et pour les modules **errors_total_tx** et **memory_used** des valeurs personnalisables ont été définis. Les autres modules qui n’apparaîtront pas dans la liste seront créés avec les valeurs par défaut. Avec cette configuration, le module **memory_used** prendra les valeurs suivantes: * //Nom //: Mémoire en utilisation. * //Descripction //: Mémoire utilisée par la machine virtuelle. * //Min Warning //: 256. * //Max Warning //: 1024. * //Min Critical //: 1025. * //Max Critical //: 2048. Les modules se génèrent dynamiquement; par exemple, deux relatifs ais disques ou interfaces dont l'un de chaque élément détecté est créé. Ils ont une syntaxe spéciale pour le nom du module, qui est la suivante: errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100 Dans ces cas, comme le nom a une partie dynamique, ce qui permet d'utiliser la macro ''%s'' qui sera remplacé par le plugin par la partie variable du nom du module. Par exemple, le module **errors_total_tx** a un nom par défaut: Nic [nic1] errors TX Il changera son nom par : Errores TX Net [nic1] **nic1** étant la partie dynamique du nom du module. Tous les erreurs relatifs au fichier de configuration sont présentés dans le log défini dans le fichier de configuration et en outre sont envoyés en tant que module asynchrone vers Pandora FMS qui sera reflété en tant que module dans l'agent qui exécute le plugin. Outre les sections spécifiques à chaque élément de l'architecture, le fichier de configuration comporte une section commune pour les événements. Cette section est définie par le jeton **EventCodes** et énumère les codes d'événements à surveiller ; par exemple : EventCodes 30 920 980 509 956 Si vous ne définissez pas cette section, la supervision d'événements ne se fera pas. === Diviser la charge de la supervision entre différents agents logiciels === Par le biais du fichier de configuration du plugin de l'agent, il est possible de diviser la charge de supervision de l'infrastructure de virtualisation RHEV. Pour ça les entités à superviser entre les différents agents seront divisés entre les différents agents. Suposons qu'il a l'architecture suivante: DC1 | |- Cluster 1.1 |- c1.1mv1 |- c1.1mv2 |- c1.1mv3 |- Cluster 1.2 |- c1.2mv1 |- c1.2mv2 |- c1.2mv3 DC2 | |- Cluster 2.1 |- c2.1mv1 |- c2.1mv2 |- c2.1mv3 |- Cluster 2.2 |- c2.2mv1 |- c2.2mv2 |- c2.2mv3 Une façon de répartir la charge serait d'attribuer un centre de données à chacun des agents logiciels ; pour ce faire, nous utiliserions la fonctionnalité permettant d'écarter les entités à surveiller (//jeton// **Reject**). Le permier agent logiciel supervise le Datacenter DC1 et écarte les entités DC2. Reject DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3 Le deuxième agent logiciel supervise le Datacenter DC2 et écarte les entités de DC1. Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 Nous pourrions aussi diviser la charge partant des //clusters//, par exemple. Pour chaque //cluster// des deux Datacenters sun agent des cuatre premiers sera alloqué. Agent logiciel 1, superviser cluster 1.1 et écarte les autres entités. Reject DC1 Cluster 1.2 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3 Agent logiciel 2, superviser cluster 1.2 et il écarte les autres entités. Reject DC1 Cluster 1.1 c1.1mv1 c1.1mv2 c1.1mv3 DC2 Cluster 2.1 Cluster 2.2 c2.1mv1 c2.1mv2 c2.1mv3 c2.2mv1 c2.2mv2 c2.2mv3 Agent logiciel 3, superviser cluster 2.1 et écarte les autres entités. Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.2 c2.2mv1 c2.2mv2 c2.2mv3 Agent logiciel 4, superviser cluster 2.2 et il écarte les autres entités. Reject DC1 Cluster 1.1 Cluster 1.2 c1.1mv1 c1.1mv2 c1.1mv3 c1.2mv1 c1.2mv2 c1.2mv3 DC2 Cluster 2.1 c2.1mv1 c2.1mv2 c2.1mv3 La configuration des entités écartées est complètement flexible et la charge peut se diviser en allouant quelques entités à chaque agent logiciel. ===== Nutanix ===== ==== Fonctionnement du plugin ==== Le plugin Nutanix® est un programme écrit dans Perl, qui se connectera à l’API REST de Nutanix PRISM®, en récupérant les métriques nécessaires pour surveiller les éléments suivants: * Clusters Nutanix®. * Dispositifs de stockage * Conteneurs. * Machines Virtuelles. * //Hosts//. * Etats des processus de réplication. ==== Pré-requis du plugin ==== Pour pouvoir récupérer l’information de l’API REST, il nous faudra: * L’adresse IP/ FQDN du portail. * Un “utilisateur” avec des autorisations de lecture sur l’API. * Le //mot de passe// de l’utilisateur. En ce qui concerne la communication des résultats de la surveillance à votre Pandora FMS, il faudra : * Le //mode de transfert de l’information//, soit local ou via Tentacle. * En local, l’adresse du répertoire où les fichiers XML avec les résultats doivent être remis, tels que les autorisations d’écriture dans ledit répertoire. * Via Tentacle, il faudra pouvoir connecter contre l’adresse IP ou FQDN du serveur Pandora FMS, le port utilisé par l’installation Tentacle, la localisation du client de Tentacle, comme n’importe qu’elle option extraordinaire qu’il ait défini. ==== Installation du plugin ==== Téléchargez les archives requises par le plugin de la [[https://pandorafms.com/library/nutanix-monitoring/|bibliothèque de modules]]. Transférez les archives à l’équipement à distance d’où vous souhaitez réaliser la surveillance de votre infrastructure Nutanix et extrayez les archives du plugin : tar xvzf pandora_nutanix.tar.gz ==== Configuration du plugin Nutanix ==== Les champs suivants sont déclarés: //Nutanix API configuration// * **nx_fqdn**: adresse du serveur principal Prism. * **nx_port**: port dans lequel l’API REST est publié (par défaut 9440). * **nx_user**: utilisateur avec des avantages de lecture sur l’API REST. * **nx_pass**: mot de passe de l’utilisateur. * **use_https**: Utilisation https (1) ou non (0) * **nx_rest_version**: Version de l’API Rest (par défaut 'v1') //Nutanix agent configuration// * **agent_interval**: Intervalle des agents générés par le plugin (par défaut 300). * **agent_group**: groupe auquel appartiendront les agents générés (si ‘autocreate_group’ est commenté dans la configuration de votre PandoraServer), par défaut ''Nutanix''. * **module_interval**: intervalle des modules des agents générés (facteur de multiplication, par défaut 1). * **module_tags**: Étiquettes associées aux nouveaux modules des agents générés. * **module_group**: groupe auquel appartiendront les nouveaux modules. //Configuration de la communication vers le serveur de Pandora FMS// * **mode**: Mode de transfert de données, “local” ou “tentacle”. * **tentacle_ip**: Adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode Tentacle. * **tentacle_port**: Port sur lequel le service Tentacle écoute. * **tentacle_opts**: Toute option extra que vous ayez configurée sur votre service Tentacle. * **tentacle_client**: Chemin d’accès complet à votre client Tentacle. * **temp**: Répertoire de travail temporaire. * **local_folder**: Chemin d’accès de transfert des données pour le mode "local". //Filtres// * **cluster_monitoring**: Activer(1) ou non (0) la surveillance de clusters. * **storage_monitoring**: Activer (1) ou non (0) la surveillance de dispositifs de stockage. * **container_monitoring**: Activer (1) ou non (0) la surveillance des conteneurs de stockage. * **vm_monitoring**: Activer (1) ou non (0) la surveillance de machines virtuelles. * **host_monitoring**: Activer (1) ou non (0) la surveillance de serveurs de machines virtuelles (nœuds Nutanix). * **pd_monitoring**: Activer (1) ou non (0) la surveillance de domaines de protection. //Personnalisations// * **cluster_agent_header**: En-tête pour le nom de l’agent des dispositifs de type cluster. * **storage_agent_header**: En-tête pour le nom de l’agent des dispositifs de type dispositif de stockage. ;host_agent_header * **host_agent_header**: En-tête pour le nom de l’agent des dispositifs de type serveur de machines virtuelles (nœuds Nutanix). * **container_agent_header**: En-tête pour le nom de l’agent des dispositifs de type conteneurs de stockage. * **vm_agent_header**: En-tête pour le nom de l’agent des dispositifs de type machine virtuelle. * **pd_agent_header**: En-tête pour le nom de l’agent de dispositifs de type domaine de protection. //Règles de génération des modules// * **vm_stat**: Règle pour l’ajout de modules pour la surveillance de machines virtuelles, par défaut ''hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*''. Ceci indique les modules extraordinaires qui se généreront quand le nom de la métrique coincidera avec les expressions régulières indiquées dans ce champs. Ajoutez la valeur ''.*'' pour surveiller toutes les métriques disponibles. * **host_stat**: Règle pour l’ajout de modules pour la surveillances de machines virtuelles (noeuds Nutanix), par défaut ''hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*''. Ceci indique les modules extraordinaires qui se généreront quand le nom de la métrique coincidera avec les expressions régulières indiquées dans ce champs. Ajoutez la valeur ''.*'' pour surveiller toutes les métriques disponibles. * **pd_stat**: Règle pour l’ajout de modules pour la surveillance de domaines de protection, par défaut ''replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes''. Ceci indique les modules extraordinaires qui se généreront quand le nom de la métrique coincidera avec les expressions régulières indiquées dans ce champs. Ajoutez la valeur ''.*'' pour surveiller toutes les métriques disponibles. //Renommé des entités// * **RENAME aaa TO bbb**: Règle pour renommer des entités. Vous pouvez définir autant de directives que d’élément à renommer. //Exclusion des entités// * **REJECT aaa**: Règle pour l’exclusion de surveillance des entités. Vous pouvez définir autant de directives que d’éléments à exclure. === Exécution du plugin Nutanix === Il est recommandé d’exécuter le plugin à distance, depuis un équipement avec un accès aussi bien à Pandora FMS server qu’à votre infrastructure Nutanix® à surveiller. Exécution manuelle: ./pandora_nutanix-linux-x64 pandora_nutanix.conf Vous pouvez automatiser l’exécution du plugin dans le **cron** du système en ajoutant la ligne suivante à ''/etc/crontab''. * /5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf ===== XenServer ===== ==== Fonctionnement du plugin XenServer==== Le plugin Pandora FMS pour la surveillance des environnements Xen est écrit sur Python. Il utilise XenAPI pour récupérer toute l’information nécessaire. Il permet de surveiller les types d’éléments suivants: * Systèmes virtualisés dans Xen. * Ressources de stockage. * Propre serveur Xen 6.5 et 7.2 ((host). ==== Pré-requis du plugin ==== Il est indispensable que le système qui exécute le plugin dispose des pré-requis suivants: * Python installé * Bibliothèques Python installées: XenAPI et xmltodict. * Accès à l’API de votre XenServer (web, il active le trafic depuis l’équipement qui exécute le plugin au port 443 ou 80 du XenServer). * Il est recommandé que les machines virtuelles aient Xen Server Tools d’installée puisque, dans le cas contraire, l’information disponible est assez limitée. ==== Installation du plugin ==== Téléchargez copie du plugin de Pandora FMS pour XenServer depuis la [[http://pandorafms.com/library/xenserver-monitoring/|bibliothèque de modules]]. Vous pouvez le déployer dans l’équipement que vous préférez (MS Windows® ou GNU/Linux®), en extrayant le contenu de l’archive dans un répertoire stable d’où vous pouvez l’exécuter, et qui utilise déjà correctement l’agent Pandora FMS ou le **cron** système. ==== Configuration du plugin ==== Configuration disponible pour le plugin Pandora FMS pour Xen: //Bloc de configuration// ''[CONF]'' * **xen_server_ip**: Adresse IP/FQDN du serveur Xen. * **user**: Utilisateur avec autorisations de consultation sur l’API de Xen. * **password**: Mot de passe de l’utilisateur. * **temporal**: Adresse de travail temporaire. //Bloc de configuration// ''[PANDORA]'' * **tentacle_client**: Emplacement binaire du client de Tentacle * **tentacle_ip**: Adresse IP sur lequel le service Tentacle est écouté. * **tentacle_port**: Port sur lequel le service Tentacle est écouté. * **logfile**: Chemin d’accès complet au fichier de log. * **interval**: Intervalle des agents générés. * **group**: Groupe assigné aux agents générés. //Bloc de configuration// ''[TUNNING]'' * **time_adjustment**: Paramètre qui permet l’ajustement des différences de temps possibles entre l’équipement qui exécute le plugin et le serveur Xen. (Par défaut = 10, mesuré en secondes). * **scan_vm_ip**: Paramètre qui permet de définir si le plugin essaiera d’obtenir les IP adresses des VM du serveur Xen. Seules les IP adresses de ces VMs avec celles XenTools installées peuvent être utilisées. On peut les activer (scan_vm_ip = true) ou les désactiver (scan_vm_ip = false). Si on ne le précise pas, ce sera considéré comme activé. //Bloc de configuration// ''[RENAME]'' * **xen_element_name = pandora_agent_name**: Dans ce bloc, il est possible de définir autant d’entrées que souhaitées avec ce format. Cela permet de changer les noms des éléments du Xen Server en d’autres distincts, afin d’être utilisés commues des noms d’agents dans Pandora FMS. Les VMS, les SRs et le XenServer lui même, peuvent être renommés. ==== Exécution du plugin ==== Vous pouvez programmer l’exécution du plugin depuis n’importe quel agent de Pandora FMS, en ajoutant à la configuration de ce dernier: module_plugin python "\xen-plugin.py" "\xen-plugin.conf" Pour le programmer grâce au cron du système, vous pouvez ajouter la ligne suivante à ''/etc/crontab'': * /5 * * * * root python "\xen-plugin.py" "\xen-plugin.conf" > /dev/null 2>&1 Si vous exécutez le plugin manuellement, la sortie doit être semblable à la suivante: python "\xen-plugin.py" "\xen-plugin.conf" ===== OpenNebula ===== ==== Fonctionnement du plugin OpenNebula ==== Le plugin Pandora FMS, pour la surveillance d’environnements OpenNebula, est écrit sur Perl. Il s’exécute localement dans le serveur OpenNebula et récupérera toute l’information nécessaire en utilisant les propres commandes de gestion de OpenNebula. Il permet la surveillance des types d’éléments suivants : * Clusters * Hosts * Machines virtuelles * Ressources de stockage ==== Pré-requis du plugin ==== Il est indispensable que le système qui exécute le plugin dispose des pré-requis suivants : * Perl disponible sur l’équipement * Utilisateur avec des droits pour exécuter les commandes suivantes : * ''onehost'' * ''onecluster'' * ''onedatastore'' Le bon fonctionnement du plugin a fait ses preuves sur des systèmes OpenNebula 5.X.X ==== Installation du plugin ==== Téléchargez copie du plugin de Pandora FMS pour OpenNebula de la [[http://pandorafms.com/library/xenserver-monitoring/|bibliothèque des modules]]. Vous devez extraire le contenu de l’archive dans un répertoire stable, d’où vous pourrez l’exécuter, qui utilise déjà correctement l’agent de Pandora FMS ou le **cron** du système. unzip pandora_OpenNebula.zip ==== Configuration du plugin OpenNebula ==== === Configuration de la communication vers le serveur Pandora FMS === * **mode**: Mode de transfert de données, “local” ou “tentacle”. * **tentacle_ip**: Adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle. * **tentacle_port**: Port dans lequel le service Tentacle est écouté. * **tentacle_opts**: Toute option supplémentaire qui soit configurée dans votre service Tentacle. * **tentacle_client**: Chemin d’accès complet au client Tentacle. * **temp**: Adresse de travail temporaire. * **local_folder**: Chemin d’accès de l’emplacement des données pour le mode de transfert “local”. === Configuration de l’agent === * **agent_interval**: Intervalle de l’agent, par défaut 300 secondes. * **agent_group**: Groupe de l’agent, par défaut OpenNebula. === Personnalisation des modules === * **MODULE_GROUP**: Groupe des modules, par défaut OpenNebula. * **MODULE_INTERVAL**: Intervalle des modules (multiplicateur), par défaut 1. * **MODULE_TAGS**: Étiquettes pour les modules. === Personnalisation des noms === * **cluster_agent_header**: En-tête pour le nom de l’agent des dispositifs de type cluster. * **host_agent_header**: En-tête pour le nom de l’agent des dispositifs de type serveur de machines virtuelles. * **storage_agent_header**: En-tête pour le nom de l’agent des dispositifs de type dispositif de stockage. * **vm_agent_header**: En-tête pour le nom de l’agent des dispositifs de type machine virtuelle. === Filtres === * **cluster_monitoring**: Activer (1) ou non (0) la surveillance clusters. * **host_monitoring**: Activer (1) ou non (0) la surveillance de serveurs de machines virtuelles. * **storage_monitoring**: Activer (1) ou non (0) la surveillance de dispositifs de stockage. * **vm_monitoring**: Activer (1) ou non (0) la surveillance de machines virtuelles. === Renommer des entités === **RENAME aaa TO bbb**: Règle pour renommer des entités : vous pouvez définir autant de directives que d’éléments qui nécessitent d’être renommés. === Exclusion des entités === **REJECT aaa**: Règle pour l’exclusion de surveillance des entités : vous pouvez définir autant de directives que d’éléments à exclure. ==== Exécution du plugin ==== Pour le programmer grâce au cron du système, vous pouvez ajouter la ligne suivante à /etc/crontab: /5 * * * * root "/pandora_opennebula" "/pandora_opennebula.conf"> /dev/null 2>&1 Si vous l’exécutez manuellement, la sortie doit ressembler à la suivante : [root@valhalla ~]# ./pandora_opennebula pandora_opennebula.conf [root@valhalla ~]# echo $? 0 ===== IBM HMC ===== Ce [[http://pandorafms.com/library/ibm-hmc-lpar-monitoring/|plugin]] permet de surveiller des équipements de virtualisation IBM AIX grâce à la console d’administration de hardware HMC. Ce plugin collectera des informations de toutes les partitions logiques créées dans un environnement AIX administré par un système HMC, en créant un agent pour chaque serveur administré, chaque partition logique et chaque serveur IO virtuel. Pour récupérer l’information via SSH, le plugin peut utiliser trois modes de travail : - Basé sur expect en utilisant le ''script ssh_launcher.sh'' - Basé sur la bibliothèque ''Net::SSH::Perl'' - Basé sur la bibliothèque ''Net::SSH::Expect'' Pour compléter l’information capturée, des requêtes sur l’API REST seront réalisées par défaut sur: https://fqdn:12443/rest/api/{root_element}) ==== Pré-requis ==== Les paramètres nécessaires pour la surveillance, que doit fournir le domaine qui nécessite les services de surveillance, sont : * Nom d’utilisateur pour s’authentifier dans le système HMC (**lecture seule**) * L’utilisateur doit avoir l’autorisation pour pouvoir se connecter à l’API REST et pour se connecter dans la shell du HMC et exécuter les commandes suivantes (minimum requis) : * **lssyscfg** * **lshwres** * Mot de passe dudit utilisateur * Emplacement (FQDN/IP) du HMC (p.e. ''myhmc.mydomain'') * URL de base de l’API REST du HMC p.e. : https://myhmc.mydomain:12443 ==== Modules générés par le plugin ==== Les paramètres qui surveille le plugin sont (regroupés par type d’élément) : * **Current logical partitions** * **Max logical partitions** * **Max memory available** * **Max memory installed** * **Proc pool DefaultPool current proc units** * **Proc pool DefaultPool max proc units** * **Proc pool DevelopmentPool current proc units** * **Proc pool DevelopmentPool max proc units** * **Proc pool ProductionPool current proc units** * **Proc pool ProductionPool max proc units** * **Proc pool TestPool current proc units** * **Proc pool TestPool max proc units** * **Proc pool VIOPool current proc units** * **Proc pool VIOPool max proc units** * **Processor pools configured** * **Processor units available** * **Processor units installed** * **State** * **UUID** * **Virtual proc units max** LPAR : * **Auto start** : Configuration de partitions logiques auto démarrage. * **LPAR type** : Type de partition logique. * **LPAR UUID** : Utilisé pour vérifier les HMC API. * **Max memory** : Memoire maximale. * **Max memory** : Memoire disponible. * **Processor units available** : Unités de traitement disponibles. * **Processor units current** : Unités de traitement installées * **RMC IP address** : Addresse IP RMC. * **RMC state** : État du RMC dans LPAR * **State** : État de la partition logique. * **Virtual proc units** : Unités de traitement virtuel alloués à ce LPAR. Virtual IO : * **Auto start** : Configuration de partitions logiques auto-démarrage. * **LPAR type** : Type de partition logique. * **LPAR UUID** : Utilisé pour vérifier les HMC API. * **Max memory** : Mémoire maximale. * **Max memory current** : Mémoire disponible. * **Processor units available**//: //Unités de traitement disponibles * **Processor units current** : Unités de traitement instaladas * **RMC IP address** : Adresse IP RMC. * **RMC state RMC** : État du RMC en LPAR. * **State** : État de la partition logique. * **Virtual proc units** : Unités de traitement virtuel alloués à ce LPAR. ==== Configuration du plugin IBM HMC ==== === Configuration de communication IBM HMC vers le serveur de Pandora FMS == * **mode**: Mode de transfert de données, “local” ou “tentacle”. * **tentacle_ip**: Adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle. * **tentacle_port**: Port sur lequel le service Tentacle est écouté. * **tentacle_opts**: Toute option supplémentaire qui ait été configurée sur le service Tentacle. * **tentacle_client**: Chemin d’accès complet au client Tentacle. * **temp**: Répertoire de travail temporaire. * **local_folder**: Chemin d’accès de dépôt des données en mode transfert “local”. === Configuration de l’accès à HMC === * **hmc_host**: IP ou FQDN de l’HMC. * **hmc_user**: Utilisateur avec autorisation de lecture. * **hmc_pass**: Mot de passe. * **as_agent_plugin**: La sortie du plugin sera renvoyée en format XML pour des exécutions programmées avec l’agent de Pandora FMS (''as_agent_plugin = 1''). Ou sortie standard (''as_agent_plugin = 0'') pour des exécutions programmées avec le cron système ou réalisées comme plugin de serveur. === Configuration de l’agent HMC === * **agent_name**: Optionnel, indiquer un nom pour l’agent père, par défaut “hostname”. * **agent_interval**: Intervalle de l’agent, par défaut 300 secondes. * **agent_group**: Groupe de l’agent, par défaut IBM. === Personnalisation des modules IBM HMC === * **module_group**: Groupe des modules, par défaut IBM. * **module_interval**: Intervalle des modules (multiplicateur), par défaut 1. * **module_tags**: Étiquettes pour les modules. === Renommer des entités === Pour renommer des entités, un renommage pour chaque bloc est utilisé : rename MyLPAR_NAME TO my new name MyLPAR_NAME2 TO my second new name rename_end ==== Exécution du plugin IBM HMC ==== Le plugin de Pandora FMS pour la surveillance des systèmes IBM AIX grâce à HMC se déploie de la façon suivante: En configurant le paramètre as_agent_plugin à 1 (exécution en tant que plugin d’agent) : module_plugin /usr/bin/perl pandora_hmc.pl pandora_hmc.conf En configurant le paramètre as_agent_plugin a 0 (exécution en tant que plugin de serveur) : # /etc/crontab */5 * * * * root /usr/bin/perl /root/hmc/pandora_hmc.pl /root/vmware/pandora_hmc .conf ===== HPVM ===== ==== Fonctionnement du plugin HPVM ==== Ce plugin permet de surveiller des équipements de virtualisation HPVM. Il se lance comme un plugin d’agent, en générant en parallèle, un agent en plus pour chaque équipement virtualisé et hébergé dans le système surveillé. Pour collecter l’information, des commandes locales sont utilisées. ==== Pré-requis du plugin HPVM ==== - Déployer un agent de Pandora FMS dans l’équipement que vous souhaitez surveiller - Disposer d’un utilisateur avec des autorisations pour exécuter le plugin - Cet utilisateur doit disposer des autorisations pour exécuter la commande ''hpvmstatus'' pour pouvoir interpréter la sortie : - ''hpvmstatus'' - ''hpvmstatus -X'' - ''hpvmstatus -r -X'' ==== Installation du plugin HPVM ==== Téléchargez votre copie du plugin de Pandora FMS pour **HPVM HP Virtualization Manager monitoring** de la [[http://pandorafms.com/library/hp-virtualization-manager-monitoring/|bibliothèque de modules]]. Vous pouvez programmer l’exécution en utilisant les collectes et l’agent de Pandora FMS, déployer ou bien extraire le contenu de l’archive dans un répertoire stable à partir duquel vous pourrez l’exécuter grâce au **cron** de votre système. unzip pandora_HPVM.zip ==== Configuration du plugin HPVM ==== === Configuration de communication HPVM vers le serveur de Pandora FMS === * **mode**: Mode de transfert de données, “local” ou “Tentacle”. * **tentacle_ip**: Adresse IP du serveur Pandora FMS, qui ne s’applique qu’en mode tentacle. * **tentacle_port**: Port sur lequel le service Tentacle est écouté. * **tentacle_opts**: Toute option supplémentaire qui ait été configurée dans le service Tentacle. * **tentacle_client**: Chemin d’accès complet au client Tentacle. * **temp**: Répertoire de travail temporaire. * **local_folder**: Chemin d’accès de dépôt des données en mode “local”. === Configuration de l’agent HPVM === * **agent_name**: facultatif, indiquer un nom pour l’agent père, par défaut ''hostname''. * **agent_interval**: intervalle de l’agent, par défaut 300. * **agent_group**: groupe auquel les agents appartiendront, par défaut HPVM. === Personnalisation des modules HPVM === * **module_group**: Groupes des modules. * **module_interval**: intervalle des modules (multiplicateur), par défaut 1. * **module_tags**Étiquettes pour les modules. ==== Exécution du plugin HPVM ==== En exécutant le plugin depuis l’agent de Pandora FMS, la ligne suivante apparaîtra dans le fichier de configuration de l’agent: module_plugin /usr/bin/perl pandora_hpvm.pl pandora_hpvm.conf Pour un test manuel, configurez le plugin en suivant les étapes décrites. Vous pouvez le lancer comme ci-après: perl pandora_hpvm.pl pandora_hpvm.conf [[:fr:documentation:start|Retour à l'index de documentation du Pandora FMS]]