Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión
Revisión previa
es:documentation:07_technical_annexes:10_share_var_spool_directory_between_several_pandora_servers [2021/05/20 20:41]
admscopia
es:documentation:07_technical_annexes:10_share_var_spool_directory_between_several_pandora_servers [2022/04/28 14:35] (actual)
Línea 1: Línea 1:
 ====== Compartición del directorio de intercambio entre varios servidores ====== ====== Compartición del directorio de intercambio entre varios servidores ======
-{{indexmenu_n>10}} 
  
-[[es:documentation:start|Volver al Índice de Documentación Pandora FMS]]+{{indexmenu_n>10}}
  
 +[[:es:documentation:start|Volver al Índice de Documentación Pandora FMS]]
  
 ===== Introducción ===== ===== Introducción =====
Línea 15: Línea 15:
 Supongamos que en nuestra implantación tenemos varios Pandora FMS Datacenter trabajando en un entorno común. Supongamos que en nuestra implantación tenemos varios Pandora FMS Datacenter trabajando en un entorno común.
  
-{{ wiki:Nfs_schema.png }}+{{  :wiki:nfs_schema.png  }}
  
 Cada uno de los agentes que gestione cada servidor, se comunicará con el Dataserver que tenga asignado utilizando la carpeta //data_in//. En un arquitectura de múltiples Dataserver con una única consola, centralizaremos la gestión de los agentes utilizando NFS o GlusterFS para compartir este //pool// de información común. Cada uno de los agentes que gestione cada servidor, se comunicará con el Dataserver que tenga asignado utilizando la carpeta //data_in//. En un arquitectura de múltiples Dataserver con una única consola, centralizaremos la gestión de los agentes utilizando NFS o GlusterFS para compartir este //pool// de información común.
  
-<WRAP center round tip 60%> +<WRAP center round tip 60%> Se recomienda compartir también la carpeta //pandora_console/attachment// entre las diferentes consolas de Pandora para facilitar la gestión de colecciones. </WRAP> 
-Se recomienda compartir también la carpeta //pandora_console/attachment// entre las diferentes consolas de Pandora para facilitar la gestión de colecciones. +==== ¿Qué método utilizar? ====
-</WRAP>+
  
-==== ¿Qué método utilizar? ==== 
 A pesar de que tanto NFS como GlusterFS nos permiten compartir los ficheros que necesitamos, están indicados para diferentes instalaciones: A pesar de que tanto NFS como GlusterFS nos permiten compartir los ficheros que necesitamos, están indicados para diferentes instalaciones:
-  * Si los datos van a almacenarse en un **servidor externo** al servidor Pandora FMS y éste va a funcionar como cliente del mismo, puede utilizarse **NFS**.  
-  * Si los datos van a almacenarse **en los propios servidores** Pandora FMS o se quiere implementar **tolerancia a fallos** a nivel de software, se recomienda usar **GlusterFS**. 
  
-<WRAP center round tip 60%> +  * Si los datos van a almacenarse en un **servidor externo**  al servidor Pandora FMS y éste va a funcionar como cliente del mismo, puede utilizarse **NFS**. 
-En entornos HA es obligatorio compartir los directorios //conf//, //md5//, //collections// y //netflow//, localizados en la data_in, y se recomienda compartir la carpeta //pandora_console/attachment//. La propia carpeta //data_in// **no debe compartirse**, a menos que [[es:documentation:07_technical_annexes:10_share_var_spool_directory_between_several_pandora_servers#Configurando_Tentacle_Server_para_acceso_concurrente|se configure Tentacle para el acceso concurrente]] a los archivos XML. +  * Si los datos van a almacenarse **en los propios servidores**  Pandora FMS o se quiere implementar **tolerancia a fallos**  a nivel de software, se recomienda usar **GlusterFS**. 
-</WRAP>+ 
 +<WRAP center round tip 60%> En entornos HA es obligatorio compartir los directorios //conf//, //md5//, //collections//  y //netflow//, localizados en la data_in, y se recomienda compartir la carpeta //pandora_console/attachment//. La propia carpeta //data_in//  **no debe compartirse**, a menos que [[:es:documentation:07_technical_annexes:10_share_var_spool_directory_between_several_pandora_servers#configurando_tentacle_server_para_acceso_concurrente|se configure Tentacle para el acceso concurrente]] a los archivos XML. </WRAP>
  
 ===== Configuración de NFS ===== ===== Configuración de NFS =====
 +
 ==== Primeros pasos ==== ==== Primeros pasos ====
-Instalamos el paquete //nfs-utils// en** todos los equipos que van a compartir las carpetas **vía NFS: 
  
-  yum install -y nfs-utils+Instalamos el paquete //nfs-utils//  en** todos los equipos que van a compartir las carpetas **vía NFS: 
 +<code> 
 + 
 +yum install -y nfs-utils 
 + 
 +</code>
  
 ==== Configurando el servidor NFS ==== ==== Configurando el servidor NFS ====
-<WRAP center round important 60%> 
-Es importante que el servidor NFS sea una **máquina independiente** de los servidores Pandora, pues si uno de ellos se configura como NFS server y hay algún problema que impida que el servidor cliente se conecte, no se podrá acceder a los datos compartidos y Pandora **no funcionará correctamente**. Si no se puede contar con una servidor independiente, deberá usarse //GlusterFS//. 
-</WRAP> 
  
-Editamos el archivo ///etc/export// agregando el siguiente contenido:+<WRAP center round important 60%> Es importante que el servidor NFS sea una **máquina independiente**  de los servidores Pandora, pues si uno de ellos se configura como NFS server y hay algún problema que impida que el servidor cliente se conecte, no se podrá acceder a los datos compartidos y Pandora **no funcionará correctamente**. Si no se puede contar con una servidor independiente, deberá usarse //GlusterFS//. </WRAP> 
 + 
 +Editamos el archivo ///etc/export//  agregando el siguiente contenido:
  
 <code> <code>
Línea 51: Línea 52:
 /var/spool/pandora/data_in/netflow [IP_CLIENTE](rw,sync,no_root_squash,no_all_squash) /var/spool/pandora/data_in/netflow [IP_CLIENTE](rw,sync,no_root_squash,no_all_squash)
 /var/www/html/pandora_console/attachment [IP_CLIENTE](rw,sync,no_root_squash,no_all_squash) /var/www/html/pandora_console/attachment [IP_CLIENTE](rw,sync,no_root_squash,no_all_squash)
 +
 </code> </code>
  
-Donde //[IP_CLIENTE]// será la dirección IP de la máquina con que se vaya a compartir el elemento.  Por ejemplo:+Donde //[IP_CLIENTE]//  será la dirección IP de la máquina con que se vaya a compartir el elemento. Por ejemplo:
  
 <code> <code>
Línea 61: Línea 63:
 /var/spool/pandora/data_in/netflow 192.168.70.10(rw,sync,no_root_squash,no_all_squash) /var/spool/pandora/data_in/netflow 192.168.70.10(rw,sync,no_root_squash,no_all_squash)
 /var/www/html/pandora_console/attachment 192.168.70.10(rw,sync,no_root_squash,no_all_squash) /var/www/html/pandora_console/attachment 192.168.70.10(rw,sync,no_root_squash,no_all_squash)
 +
 </code> </code>
  
Línea 69: Línea 72:
 firewall-cmd --permanent --zone=public --add-service=nfs firewall-cmd --permanent --zone=public --add-service=nfs
 firewall-cmd --reload firewall-cmd --reload
-</code> 
  
 +</code>
  
 Una vez hecho esto, iniciamos los servicios: Una vez hecho esto, iniciamos los servicios:
Línea 80: Línea 83:
  service nfs-lock start  service nfs-lock start
  service nfs-idmap start  service nfs-idmap start
 +
 </code> </code>
  
Línea 89: Línea 93:
  chkconfig nfs-lock on  chkconfig nfs-lock on
  chkconfig nfs-idmap on  chkconfig nfs-idmap on
 +
 </code> </code>
  
 Para refrescar cualquier cambio en la configuración de /etc/export reiniciar nfs-server Para refrescar cualquier cambio en la configuración de /etc/export reiniciar nfs-server
  
-  service nfs-server restart+<code> 
 +service nfs-server restart 
 + 
 +</code>
  
 ==== Configurando los clientes NFS ==== ==== Configurando los clientes NFS ====
 +
 Primero hacemos un backup del directorio: Primero hacemos un backup del directorio:
  
-  mv /var/spool/pandora/data_in /var/spool/pandora/data_in_locale+<code> 
 +mv /var/spool/pandora/data_in /var/spool/pandora/data_in_locale
  
 +</code>
  
-**__Observación__:** si la máquina no tiene el apache instalado (no es necesario que lo tenga), agregamos a /etc/passwd y /etc/group el usuario apache para que no haya conflictos con los permisos:+**__Observación__:**  si la máquina no tiene el apache instalado (no es necesario que lo tenga), agregamos a /etc/passwd y /etc/group el usuario apache para que no haya conflictos con los permisos:
  
 <code> <code>
-echo "apache:x:48:48:Apache:/usr/share/httpd:/sbin/nologin" >> /etc/passwd +echo "apache:x:48:48:Apache:/usr/share/httpd:/sbin/nologin">> /etc/passwd 
-echo "apache:x:48:" >> /etc/group+echo "apache:x:48:">> /etc/group 
 </code> </code>
  
Línea 113: Línea 125:
  chown pandora:apache /var/spool/pandora/data_in  chown pandora:apache /var/spool/pandora/data_in
  chmod 770 /var/spool/pandora/data_in  chmod 770 /var/spool/pandora/data_in
 +
 </code> </code>
  
Línea 122: Línea 135:
 mount -t nfs [IP_SERVIDOR_NFS]:/var/spool/pandora/data_in/collections /var/spool/pandora/data_in/collections mount -t nfs [IP_SERVIDOR_NFS]:/var/spool/pandora/data_in/collections /var/spool/pandora/data_in/collections
 mount -t nfs [IP_SERVIDOR_NFS]:/var/spool/pandora/data_in/netflow /var/spool/pandora/data_in/netflow mount -t nfs [IP_SERVIDOR_NFS]:/var/spool/pandora/data_in/netflow /var/spool/pandora/data_in/netflow
 +
 </code> </code>
  
-Donde [IP_SERVIDOR_NFS] es la dirección IP del servidor que presta el servicio NFS. +Donde [IP_SERVIDOR_NFS] es la dirección IP del servidor que presta el servicio NFS. Por ejemplo:
-Por ejemplo:+
  
 <code> <code>
Línea 132: Línea 145:
 mount -t nfs 192.168.70.10:/var/spool/pandora/data_in/collections /var/spool/pandora/data_in/collections mount -t nfs 192.168.70.10:/var/spool/pandora/data_in/collections /var/spool/pandora/data_in/collections
 mount -t nfs 192.168.70.10:/var/spool/pandora/data_in/netflow /var/spool/pandora/data_in/netflow mount -t nfs 192.168.70.10:/var/spool/pandora/data_in/netflow /var/spool/pandora/data_in/netflow
 +
 </code> </code>
  
Línea 142: Línea 156:
 Si todo es correcto hasta aquí, configuramos el sistema para que se monte de manera automática la carpeta al inicio mediante la edición del fichero **/etc/fstab**> Si todo es correcto hasta aquí, configuramos el sistema para que se monte de manera automática la carpeta al inicio mediante la edición del fichero **/etc/fstab**>
  
-  # Agregamos las siguientes líneas al fichero de configuración /etc/fstab+<code> 
 +# Agregamos las siguientes líneas al fichero de configuración /etc/fstab 
 + 
 +</code>
  
 <code> <code>
Línea 150: Línea 167:
 [IP_SERVIDOR_NFS]:/var/spool/pandora/data_in/netflow    /var/spool/pandora/data_in/netflow    nfs defaults 0 0 [IP_SERVIDOR_NFS]:/var/spool/pandora/data_in/netflow    /var/spool/pandora/data_in/netflow    nfs defaults 0 0
 [IP_SERVIDOR_NFS]:/var/www/html/pandora_console/attachment    /var/www/html/pandora_console/attachment    nfs defaults 0 0 [IP_SERVIDOR_NFS]:/var/www/html/pandora_console/attachment    /var/www/html/pandora_console/attachment    nfs defaults 0 0
 +
 </code> </code>
  
-Donde [IP_SERVIDOR_NFS] es la dirección IP del servidor que presta el servicio NFS. +Donde [IP_SERVIDOR_NFS] es la dirección IP del servidor que presta el servicio NFS.
  
 ===== Configuración de GlusterFS ===== ===== Configuración de GlusterFS =====
  
-La configuración GlusterFS nos permite compartir los directorios clave de Pandora FMS entre los servidores y por tanto tener disponibilidad de los datos cuando haya una caída en una de las máquinas. +La configuración GlusterFS nos permite compartir los directorios clave de Pandora FMS entre los servidores y por tanto tener disponibilidad de los datos cuando haya una caída en una de las máquinas. Gracias a este sistema siempre tenemos un recurso activo y podremos acceder a nuestros datos aunque no estén todas las máquinas en funcionamiento.
-Gracias a este sistema siempre tenemos un recurso activo y podremos acceder a nuestros datos aunque no estén todas las máquinas en funcionamiento.+
  
 ==== Requisitos mínimos ==== ==== Requisitos mínimos ====
-  * **Selinux** desactivado o con las reglas apropiadas activas. + 
-  * **Firewall** desactivado o con las reglas apropiadas activas. +  * **Selinux**  desactivado o con las reglas apropiadas activas. 
-    * El **puerto 24009/tcp** debe estar abierto. +  * **Firewall**  desactivado o con las reglas apropiadas activas. 
-  * Nombre y dirección IP de todas las máquinas en el archivo **/etc/hosts** de ambos servidores implicados. +      * El **puerto 24009/tcp**  debe estar abierto. 
-  * Creación de **discos adicionales sin particionar** en todos los servidores.+  * Nombre y dirección IP de todas las máquinas en el archivo **/etc/hosts**  de ambos servidores implicados. 
 +  * Creación de **discos adicionales sin particionar**  en todos los servidores.
  
 ==== Instalación de paquetes ==== ==== Instalación de paquetes ====
 +
 Para instalar GlusterFS, buscamos las versiones disponibles: Para instalar GlusterFS, buscamos las versiones disponibles:
  
-  yum search centos-release-gluster+<code> 
 +yum search centos-release-gluster 
 + 
 +</code>
  
 E instalamos la versión estable (LTS) más reciente: E instalamos la versión estable (LTS) más reciente:
Línea 176: Línea 198:
  yum install centos-release-gluster37  yum install centos-release-gluster37
  yum install glusterfs glusterfs-cli glusterfs-libs glusterfs-fuse  yum install glusterfs glusterfs-cli glusterfs-libs glusterfs-fuse
 +
 </code> </code>
  
 ==== Creación de las particiones XFS (bricks) ==== ==== Creación de las particiones XFS (bricks) ====
-<WRAP center round tip 60%> + 
-En esta guía utilizaremos dos nodos llamados //gluster1.example.com// y //gluster2.example.com//. +<WRAP center round tip 60%> En esta guía utilizaremos dos nodos llamados //gluster1.example.com//  y //gluster2.example.com//. </WRAP>
-</WRAP>+
  
 Creamos un nuevo volumen físico usando el disco /dev/xvdb: Creamos un nuevo volumen físico usando el disco /dev/xvdb:
Línea 188: Línea 210:
 pvcreate /dev/xvdb pvcreate /dev/xvdb
    Physical volume “/dev/xvdb” successfully created    Physical volume “/dev/xvdb” successfully created
 +
 </code> </code>
  
Línea 195: Línea 218:
 vgcreate vg_gluster /dev/xvdb vgcreate vg_gluster /dev/xvdb
    Volume group “vg_gluster”  successfully created    Volume group “vg_gluster”  successfully created
 +
 </code> </code>
  
Línea 202: Línea 226:
 lvcreate -L 5G -n brick1 vg_gluster lvcreate -L 5G -n brick1 vg_gluster
  Logical volume "brick1" created.  Logical volume "brick1" created.
 +
 </code> </code>
  
 De manera alternativa puede indicarse el espacio a asignar como un porcentaje del disco: De manera alternativa puede indicarse el espacio a asignar como un porcentaje del disco:
  
-  lvcreate -l 100%FREE -n brick1 vg_gluster+<code> 
 +lvcreate -l 100%FREE -n brick1 vg_gluster 
 + 
 +</code>
  
 Configuramos el filesystem como XFS: Configuramos el filesystem como XFS:
  
-  mkfs.xfs /dev/vg_gluster/brick1+<code> 
 +mkfs.xfs /dev/vg_gluster/brick1 
 + 
 +</code>
  
 Creamos el punto de montaje y montamos el brick XFS: Creamos el punto de montaje y montamos el brick XFS:
Línea 217: Línea 248:
  mkdir -p /glusterfs/brick1  mkdir -p /glusterfs/brick1
  mount /dev/vg_gluster/brick1 /glusterfs/brick1  mount /dev/vg_gluster/brick1 /glusterfs/brick1
 +
 </code> </code>
  
 Abrimos el archivo /etc/fstab, en el que hay que añadir la siguiente línea: Abrimos el archivo /etc/fstab, en el que hay que añadir la siguiente línea:
  
-  /dev/vg_gluster/brick1 /glusterfs/brick1 xfs defaults 0 0+<code> 
 +/dev/vg_gluster/brick1 /glusterfs/brick1 xfs defaults 0 0 
 + 
 +</code>
  
 Habilitamos e iniciamos glusterfsd.service en ambos nodos: Habilitamos e iniciamos glusterfsd.service en ambos nodos:
  
-  systemctl enable glusterd.service --now+<code> 
 +systemctl enable glusterd.service --now 
 + 
 +</code>
  
 Desde el primer nodo GlusterFS, conectamos con el segundo y creamos el Trusted Pool (Storage Cluster). Desde el primer nodo GlusterFS, conectamos con el segundo y creamos el Trusted Pool (Storage Cluster).
Línea 232: Línea 270:
 gluster peer probe gluster2.example.com gluster peer probe gluster2.example.com
   peer probe: success.   peer probe: success.
 +
 </code> </code>
  
Línea 241: Línea 280:
   Hostname: gluster2.example.com   Hostname: gluster2.example.com
   Uuid: e528dc23-689c-4306-89cd-1d21a2153057   Uuid: e528dc23-689c-4306-89cd-1d21a2153057
-  +
    State: Peer in Cluster (Connected)    State: Peer in Cluster (Connected)
 +
 </code> </code>
  
 ==== Creación del volumen HA ==== ==== Creación del volumen HA ====
 +
 A continuación usaremos la partición XFS /glusterfs/brick1 en ambos nodos para crear un **volumen replicado de alta disponibilidad (HA)**. A continuación usaremos la partición XFS /glusterfs/brick1 en ambos nodos para crear un **volumen replicado de alta disponibilidad (HA)**.
  
 Primero creamos el subdirectorio en el punto de montaje /glusterfs/brick1. Será necesario para el funcionamiento de GlusterFS. Primero creamos el subdirectorio en el punto de montaje /glusterfs/brick1. Será necesario para el funcionamiento de GlusterFS.
  
-  mkdir /glusterfs/brick1/brick+<code> 
 +mkdir /glusterfs/brick1/brick 
 + 
 +</code>
  
 Crear un volumen replicado GlusterFS: Crear un volumen replicado GlusterFS:
  
-<WRAP center round important 60%> +<WRAP center round important 60%> Ejecuta este comando **solamente en uno**  de los nodos (//gluster1.example.com//  en el ejemplo). </WRAP>
-Ejecuta este comando **solamente en uno** de los nodos (//gluster1.example.com// en el ejemplo). +
-</WRAP>+
  
 <code> <code>
Línea 262: Línea 304:
 gluster2.example.com:/glusterfs/brick1/brick gluster2.example.com:/glusterfs/brick1/brick
   volume create: glustervol1: success: please start the volume to access data   volume create: glustervol1: success: please start the volume to access data
 +
 </code> </code>
  
Línea 267: Línea 310:
 gluster volume start glustervol1 gluster volume start glustervol1
   volume start: glustervol1: success   volume start: glustervol1: success
 +
 </code> </code>
  
Línea 284: Línea 328:
   Options Reconfigured:   Options Reconfigured:
    performance.readdir-ahead: on    performance.readdir-ahead: on
 +
 </code> </code>
  
 ==== Montaje de volúmenes en los clientes ==== ==== Montaje de volúmenes en los clientes ====
 +
 Instalamos los paquetes de cliente para GlusterFS: Instalamos los paquetes de cliente para GlusterFS:
  
-  yum install glusterfs glusterfs-fuse attr -y+<code> 
 +yum install glusterfs glusterfs-fuse attr -y 
 + 
 +</code>
  
 Creamos la carpeta de archivos para Pandora: Creamos la carpeta de archivos para Pandora:
  
-  mkdir /pandora_files/+<code> 
 +mkdir /pandora_files/
  
-<WRAP center round tip 60%> +</code> 
-La ruta /pandora_files/ sólo se utiliza como ejemplo, y puede establecerse una diferente. + 
-</WRAP>+<WRAP center round tip 60%> La ruta /pandora_files/ sólo se utiliza como ejemplo, y puede establecerse una diferente. </WRAP>
  
 Montamos los volúmenes GlusterFS en el cliente: Montamos los volúmenes GlusterFS en el cliente:
  
-  mount -t glusterfs gluster1.example.com:/glustervol1 /pandora_files/+<code> 
 +mount -t glusterfs gluster1.example.com:/glustervol1 /pandora_files/ 
 + 
 +</code>
  
 Añadimos la siguiente línea al /etc/fstab: Añadimos la siguiente línea al /etc/fstab:
  
-  gluster1.example.com:/glustervol1 /pandora_files glusterfs defaults,_netdev 0 0+<code> 
 +gluster1.example.com:/glustervol1 /pandora_files glusterfs defaults,_netdev 0 0 
 + 
 +</code>
  
 Una vez montada la partición en /pandora_files/ se pueden crear todos los directorios que necesitemos dentro de esta carpeta: Una vez montada la partición en /pandora_files/ se pueden crear todos los directorios que necesitemos dentro de esta carpeta:
Línea 311: Línea 367:
 <code> <code>
  cd /pandora_files/  cd /pandora_files/
- mkdir collections md5 conf netflow attachment + mkdir collections md5 conf netflow attachment 
 </code> </code>
  
Línea 322: Línea 379:
  cp -rp /var/spool/pandora/data_in/netflow /pandora_files/  cp -rp /var/spool/pandora/data_in/netflow /pandora_files/
  cp -rp /var/www/html/pandora_console/attachment /pandora_files/  cp -rp /var/www/html/pandora_console/attachment /pandora_files/
 +
 </code> </code>
  
Línea 332: Línea 390:
  rm -rf /var/spool/pandora/data_in/netflow  rm -rf /var/spool/pandora/data_in/netflow
  rm -rf /var/www/html/pandora_console/attachment  rm -rf /var/www/html/pandora_console/attachment
 +
 </code> </code>
  
Línea 342: Línea 401:
  ln -s /pandora_files/netflow /var/spool/pandora/data_in/  ln -s /pandora_files/netflow /var/spool/pandora/data_in/
  ln -s /pandora_files/attachment /var/www/html/pandora_console/  ln -s /pandora_files/attachment /var/www/html/pandora_console/
 +
 </code> </code>
  
-<WRAP center round tip 60%> +<WRAP center round tip 60%> En este punto, los dos servidores estarán compartiendo los directorios claves de Pandora, por lo que el proceso está completo. En caso de necesitar ampliar el volumen compartido, puede hacerse como [[:es:documentation:07_technical_annexes:10_share_var_spool_directory_between_several_pandora_servers#ampliar_volumenes|indica el siguiente punto de la guía]]. </WRAP>
-En este punto, los dos servidores estarán compartiendo los directorios claves de Pandora, por lo que el proceso está completo. En caso de necesitar ampliar el volumen compartido, puede hacerse como [[es:documentation:07_technical_annexes:10_share_var_spool_directory_between_several_pandora_servers#Ampliar_volumenes|indica el siguiente punto de la guía]]. +
-</WRAP> +
  
 ==== Ampliar volúmenes ==== ==== Ampliar volúmenes ====
-Es posible ampliar el volumen utilizado por GlusterFS sin necesidad de detener el servicio, incrementando el número de //bricks// en un volumen. 
  
-Para ello hay que crear un nuevo discosiguiendo el mismo procedimiento que antes:+Es posible ampliar el volumen utilizado por GlusterFS sin necesidad de detener el servicioincrementando el número de //bricks//  en un volumen.
  
 +Para ello hay que crear un nuevo disco, siguiendo el mismo procedimiento que antes:
 <code> <code>
 +
  lvcreate -L 5G -n brick2 vg_gluster  lvcreate -L 5G -n brick2 vg_gluster
    Logical volume "brick2" created.    Logical volume "brick2" created.
 +
 </code> </code>
  
 Darle formato XFS: Darle formato XFS:
  
-  mkfs.xfs /dev/vg_gluster/brick2+<code> 
 +mkfs.xfs /dev/vg_gluster/brick2 
 + 
 +</code>
  
 Crear punto de montaje y montar el nuevo brick: Crear punto de montaje y montar el nuevo brick:
Línea 368: Línea 430:
  mkdir -p /bricks/brick2  mkdir -p /bricks/brick2
  mount /dev/vg_gluster/brick2 /bricks/brick2  mount /dev/vg_gluster/brick2 /bricks/brick2
 +
 </code> </code>
  
 Extender en /etc/fstab: Extender en /etc/fstab:
  
-  /dev/vg_gluster/brick2 /bricks/brick2 xfs defaults 0 0+<code> 
 +/dev/vg_gluster/brick2 /bricks/brick2 xfs defaults 0 0 
 + 
 +</code>
  
 Crear la carpeta para el segundo brick: Crear la carpeta para el segundo brick:
  
-  mkdir /glusterfs/brick2/brick+<code> 
 +mkdir /glusterfs/brick2/brick 
 + 
 +</code>
  
 Extender el volumen: Extender el volumen:
Línea 383: Línea 452:
  gluster volume add-brick glustervol1 gluster1.example.com:/glusterfs/brick2/brick \  gluster volume add-brick glustervol1 gluster1.example.com:/glusterfs/brick2/brick \
  gluster2.example.com:/glusterfs/brick2/brick  gluster2.example.com:/glusterfs/brick2/brick
 +
 </code> </code>
  
Línea 400: Línea 470:
   Brick3: gluster1.example.com:/glusterfs/brick2/brick   Brick3: gluster1.example.com:/glusterfs/brick2/brick
   Brick4: gluster2.example.com:/glusterfs/brick2/brick   Brick4: gluster2.example.com:/glusterfs/brick2/brick
 +
 </code> </code>
  
 Comprobar el uso en disco antes del reequilibrado: Comprobar el uso en disco antes del reequilibrado:
  
-  df -h | grep brick+<code> 
 +df -h | grep brick 
 + 
 +</code>
  
 Reequilibrar: Reequilibrar:
 +<code>
  
-  gluster volume rebalance glustervol1 start+gluster volume rebalance glustervol1 start 
 + 
 +</code>
  
 Comprobar el reequilibrado: Comprobar el reequilibrado:
  
-  gluster volume rebalance glustervol1 status+<code> 
 +gluster volume rebalance glustervol1 status 
 + 
 +</code>
  
 Volver a comprobar el uso en disco: Volver a comprobar el uso en disco:
  
-  df -h | grep brick+<code> 
 +df -h | grep brick 
 + 
 +</code>
  
 Comprobar los archivos en los bricks: Comprobar los archivos en los bricks:
 +<code>
  
-  ls -l /glusterfs/brick*/brick/+ls -l /glusterfs/brick*/brick/ 
 + 
 +</code>
  
 ===== Configurando Tentacle Server para acceso concurrente ===== ===== Configurando Tentacle Server para acceso concurrente =====
  
 En caso de querer almacenar los archivos XML de los agentes en el mismo disco compartido (en lugar de que los gestione localmente cada uno de los servidores), deberemos configurar los servidores de Tentacle de ambos equipos de tal manera que distribuyan los ficheros XML en carpetas separadas. De esta manera, evitaremos problemas a la hora de procesar los ficheros por parte de los Dataserver de ambos servidores Pandora. En caso de querer almacenar los archivos XML de los agentes en el mismo disco compartido (en lugar de que los gestione localmente cada uno de los servidores), deberemos configurar los servidores de Tentacle de ambos equipos de tal manera que distribuyan los ficheros XML en carpetas separadas. De esta manera, evitaremos problemas a la hora de procesar los ficheros por parte de los Dataserver de ambos servidores Pandora.
- 
  
 Para ello, creamos dos carpetas dentro del directorio ///var/spool/pandora/data_in//: Para ello, creamos dos carpetas dentro del directorio ///var/spool/pandora/data_in//:
Línea 432: Línea 517:
  mkdir /var/spool/pandora/data_in/xml_srv1  mkdir /var/spool/pandora/data_in/xml_srv1
  mkdir /var/spool/pandora/data_in/xml_srv2  mkdir /var/spool/pandora/data_in/xml_srv2
 +
 </code> </code>
  
Línea 439: Línea 525:
  chmod pandora:apache /var/spool/pandora/data_in/xml_srv1  chmod pandora:apache /var/spool/pandora/data_in/xml_srv1
  chmod pandora:apache /var/spool/pandora/data_in/xml_srv2  chmod pandora:apache /var/spool/pandora/data_in/xml_srv2
 +
 </code> </code>
  
-<WRAP center round important 60%> +<WRAP center round important 60%> En caso de haber seguido la guía de GlusterFS, debe sustituirse ///var/spool/pandora/data_in//  / por ///pandora_files//  / en los pasos anteriores, y hacerse enlaces simbólicos: 
-En caso de haber seguido la guía de GlusterFS, debe sustituirse ///var/spool/pandora/data_in/// por ///pandora_files/// en los pasos anteriores, y hacerse enlaces simbólicos:+
 <code> <code>
  ln -s /pandora_files/xml_srv1 /var/spool/pandora/data_in/  ln -s /pandora_files/xml_srv1 /var/spool/pandora/data_in/
  ln -s /pandora_files/xml_srv2 /var/spool/pandora/data_in/  ln -s /pandora_files/xml_srv2 /var/spool/pandora/data_in/
 +
 </code> </code>
 +
 </WRAP> </WRAP>
  
 Editamos el valor de TENTACLE_EXT_OPTS en el fichero /etc/init.d/tentacle_serverd para ajustar la carpeta de entrega de los ficheros XML: Editamos el valor de TENTACLE_EXT_OPTS en el fichero /etc/init.d/tentacle_serverd para ajustar la carpeta de entrega de los ficheros XML:
  
-  TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections"+<code> 
 +TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections" 
 + 
 +</code>
  
 En el servidor número 1 pasa a ser: En el servidor número 1 pasa a ser:
  
-  TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections;.*\.data:xml_srv1"+<code> 
 +TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections;.*\.data:xml_srv1" 
 + 
 +</code>
  
 En el servidor número 2 pasa a ser: En el servidor número 2 pasa a ser:
  
-  TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections;.*\.data:xml_srv2"+<code> 
 +TENTACLE_EXT_OPTS="-i.*\.conf:conf;.*\.md5:md5;.*\.zip:collections;.*\.data:xml_srv2"
  
 +</code>
  
 Por último, editamos el fichero de configuración de ambos servidores de pandora de la siguiente manera: Por último, editamos el fichero de configuración de ambos servidores de pandora de la siguiente manera:
Línea 469: Línea 566:
  # You could set directory relative to base path or absolute, starting with /  # You could set directory relative to base path or absolute, starting with /
  incomingdir /var/spool/pandora/data_in/xml_srv1  incomingdir /var/spool/pandora/data_in/xml_srv1
 +
 </code> </code>
  
Línea 476: Línea 574:
  # You could set directory relative to base path or absolute, starting with /  # You could set directory relative to base path or absolute, starting with /
  incomingdir /var/spool/pandora/data_in/xml_srv2  incomingdir /var/spool/pandora/data_in/xml_srv2
 +
 </code> </code>
  
-Después de aplicar todos los cambios indicados, reiniciamos tanto el servicio pandora_server como el servicio tentacle_serverd en **ambos** servidores.+Después de aplicar todos los cambios indicados, reiniciamos tanto el servicio pandora_server como el servicio tentacle_serverd en **ambos**  servidores. 
 + 
 +[[:es:documentation:start|Volver al Índice de Documentación Pandora FMS]]
  
-[[es:documentation:start|Volver al Índice de Documentación Pandora FMS]] 
  
ºº