por Pandora FMS team | Mar 11, 2025 | Pandora FMS, Release
En la reciente actualización NG 781 RRR, Pandora FMS ha mejorado significativamente su sistema Discovery mediante la potente funcionalidad NetScan, facilitando aún más la detección automática y monitorización integral de activos tecnológicos en redes complejas.
¿Qué novedades trae NetScan en Discovery?
NetScan permite descubrir automáticamente dispositivos en redes, determinar su topología y aplicar monitorización inmediatamente. Esta función puede configurarse en dos modos, adaptados a diferentes necesidades:
- Modo simple: Detección automática de todas las redes accesibles desde el servidor Pandora FMS, mediante traceroute hacia Internet (8.8.8.8), revisión de la tabla de rutas local y escaneo directo de redes conectadas.
- Modo avanzado: Permite personalizar detalladamente parámetros como redes específicas (CIDR), exclusión de IPs concretas, escaneo SNMP avanzado, WMI, resolución de nombres y detección de sistemas operativos.

Principales ventajas del Discovery actualizado
- Automatización y rapidez: Reduce notablemente el tiempo invertido en procesos manuales.
- Validación y control: Confirma manualmente qué activos se añaden tras el escaneo.
- Mapas de red automáticos: Visualiza instantáneamente la topología de activos descubiertos.
- Reglas avanzadas de autoconfiguración: Aplica automáticamente políticas específicas, ejecuta scripts o lanza eventos personalizados según activos detectados.

Mejoras visuales y funcionales en los mapas de red
Se han rediseñado los mapas de red para ofrecer mejor experiencia visual y navegación:
- Rejilla intuitiva para movimiento y organización.
- Límites visibles claros para una gestión más precisa.
- Generación dinámica y optimizada con métodos como spring 1 y radial dynamic.
Estos mapas están sincronizados con los resultados del Discovery, actualizándose automáticamente con cada ejecución.

Cómo sacarle el máximo partido
Esta versión está especialmente orientada a administradores con entornos grandes o dinámicos, optimizando recursos mediante automatización del descubrimiento inicial de activos y facilitando así una monitorización más proactiva y estratégica.
La actualización Discovery en Pandora FMS NG 781 RRR transforma la gestión operativa, aumentando considerablemente la eficiencia desde el primer momento.
Explora todas las novedades en nuestra nota de release completa y optimiza tu monitorización desde hoy mismo.
por Isaac García | Mar 10, 2025 | Pandora FMS
Tengo la sospecha nada secreta de que el sueño de todo el que trabaja con tecnología es la computadora del Enterprise en Star Trek. Controlar escudos, comunicaciones, motores y todo lo necesario desde un mismo lugar. Y además, hablando… «Un ‘botón’ para controlarlos a todos», tal y como susurraría Sauron. Pero hasta que esa utopía se haga realidad, al menos podemos implementar una infraestructura hiperconvergente en la tecnología de nuestra organización (HCI en sus siglas en inglés).
Esta infraestructura hiperconvergente permite gestionar de forma unificada:
- Computación.
- Redes.
- Almacenamiento.
Mucho menos atractivo que navegación o motores de curvatura, pero la clave es: ¿cómo manejar de forma homogénea aspectos tan diferentes?
Con una solución habitual en tecnología, creando una capa de abstracción. Introduciendo un intermediario, un software que aglutine todo esto tan distinto, mediante virtualización. El hipervisor, como parte de esta virtualización, actúa como el facilitador que permite gestionar todos estos recursos de manera unificada desde un mismo sitio. Una especie de «traductor universal», otro sueño trekkie.
Así, múltiples tecnologías (hiper)convergen en un lugar y una forma de control.
Esto no es solo una evolución tecnológica, sino un cambio de paradigma: pasar de gestionar «piezas sueltas» a orquestar un organismo unificado, donde la infraestructura responde como un todo.
Ventajas de una infraestructura hiperconvergente frente a una tradicional
Para quien lidia con el caos heterogéneo de una infraestructura tecnológica tradicional, lo anterior habrá iluminado varias bombillas en su mente con las ventajas de una solución así, como son:
La simplicidad. De infraestructura y manejo, de modo que no tenemos que saber de cada uno de los elementos que la componen, integrar hardware heterogéneo o controlar mil actualizaciones de firmware, sino conocer el software que controla todo.
Veamos una comparación sencilla que ilustre esta ventaja:
Infraestructura Tradicional
|
HCI
|
Silos fragmentados: Servidores físicos, almacenamiento (SAN/NAS) y redes gestionados por equipos y herramientas separadas.
|
Unificación: Computación, almacenamiento y redes integrados en nodos estandarizados gestionados por software.
|
Ejemplo: Un clúster VMware con almacenamiento NetApp y switches Cisco independientes.
|
Ejemplo: Nutanix o VMware vSAN, donde el almacenamiento se distribuye en discos locales de los nodos.
|
La escalabilidad. Pudiendo redimensionar de manera modular, o añadir y quitar prestaciones según necesitemos, de forma más rápida y menos costosa. Ejemplo:
Infraestructura Tradicional
|
HCI
|
Añadir almacenamiento requiere expandir el SAN, escalar computación implica nuevos servidores.
Y eso, con el riesgo de overprovisioning, al comprar capacidad «por si acaso».
|
Agregar nodos estandarizados incrementa todos los recursos (CPU, almacenamiento, red) simultáneamente.
En este caso, escalamos según demanda, sin recursos desperdiciados (ni su sobrecoste, claro).
|
La eficiencia. Que permite gestionar de manera centralizada y sencilla, automatizar, usar menos hardware…
Infraestructura Tradicional
|
HCI
|
Múltiples consolas: vSphere para VMs, NetApp OnCommand para almacenamiento, Cisco Prime para redes…
|
Gestión unificada: Una interfaz para aprovisionar, gestionar y monitorizar toda la infraestructura.
|
Tiempos de respuesta lentos: Coordinar equipos para resolver incidentes.
|
Automatización nativa: Políticas predefinidas (ej: auto-reparación de nodos).
|
Respecto a qué solución de HCI elegir, cada organización debe considerar sus necesidades y cómo se adaptan las diversas opciones existentes. Algunas de ellas son:
- VMware vSAN. Especialmente indicada para quienes ya estén familiarizados con las soluciones VMware.
- Nutanix. Para quien depende mucho de la nube e infraestructuras multi-cloud, por ejemplo.
- Microsoft Azure Stack HCI. Dentro de Azure Local, para el omnipresente ecosistema de Redmond en muchas organizaciones.
- HPE SimpliVity. Con su apuesta por IA, tendencia cada vez más presente en estas soluciones.
Pero sea cual sea la elegida, todas tienen un desafío común…
El desafío de la monitorización de Infraestructuras Hiperconvergentes
La gran ventaja de la HCI es que tienes todo en un mismo lugar. Su gran reto es que tienes todo en un mismo lugar.
No, lo anterior no es una errata.
El hecho de que todo lo importante esté en un solo «sitio», plantea el desafío de monitorizarlo adecuadamente, por la enorme cantidad de factores diferentes a controlar.
Todo está bajo un mismo paraguas, pero ese todo es mucho, y puede resultar apabullante por la cantidad de información y datos. Es el concepto de métrica overload, que se resume en que, en medio de un mar de indicadores, es fundamental distinguir las gotas importantes, pero resulta complicado.
Ahí radica el valor crítico de un sistema especializado, como Pandora FMS que, de una forma similar a cómo la HCI facilita la gestión de infraestructura, esta herramienta también nos facilita monitorizar de forma sencilla las múltiples variables críticas.
Los retos en la monitorización y observabilidad en HCI
Quienes trabajan con HCIs suelen encontrar ciertos problemas habituales, derivados de la naturaleza de la solución, ya que algunas capas críticas quedan algo más opacas debido a la integración.
Esto genera desafíos de monitorización, como por ejemplo:
- Falta de visibilidad sobre el rendimiento en infraestructuras hiperconvergentes. Es genial que todo funcione unificado, pero ¿funciona bien? ¿Tenemos los indicadores clave de rendimiento siempre a la vista? ¿Alertas automatizadas para que, cuando algo suceda, lo sepamos al instante?
- Dificultades en la predicción de degradaciones. Dos máquinas virtuales, por ejemplo, compiten por almacenamiento en un mismo nodo HCI, eso puede degradar la infraestructura global fácilmente pero, ¿cómo sabemos si ocurrirá? ¿Cómo sabemos si ese es el motivo real de la bajada de rendimiento que estamos experimentando?
- La necesidad de correlacionar métricas entre almacenamiento, redes y virtualización.
- Falta de visibilidad granular. Si tenemos un problema de latencia, por ejemplo, ¿cómo sabemos si es un cuello de botella de la red física que hay por debajo o un problema de software?
- El problema de la interdependencia de componentes. Ya que un fallo en un nodo HCI afecta simultáneamente a computación, almacenamiento y redes, provocando un efecto dominó.
- Métrica overload. Al monitorizar no solo VM/containers, sino también hipervisor, pool de almacenamiento distribuido, tráfico interno East-West o políticas de Quality of Service (QoS), lo que puede sobrecargar enseguida.
¿Cómo ayuda Pandora FMS a la monitorización de HCI?
Pandora FMS se erige como la clave para superar esos retos, porque los hemos vivido y esa frustración nos guió para crear una solución experta. Porque las soluciones HCI integran cierta monitorización, pero suele tener unas limitaciones comunes:
- Prestaciones básicas. Con monitorización sencilla, alertas simples preconfiguradas e integración limitada. Buena para su ecosistema, pero cuando también hay que jugar con tecnologías externas, adiós a poder hacerlo en equipo.
- Visión fragmentada. Al no correlacionar datos de otras posibles infraestructuras (¿y si no podemos evitar ese servidor legacy del sótano, que nadie sabe cómo apareció, pero es vital y tiene ese aterrador cartel de «no desenchufar»?). No solo eso, la fragmentación de dashboards la tendremos también en un entorno Multivendor (Nutanix + Proxmox, por ejemplo).
- Poca personalización. Por ejemplo, cuando precisamos alertas personalizadas para nuestras operaciones específicas como organización.
Es ahí donde una herramienta como Pandora FMS, que permite monitorización experta de infraestructuras hiperconvergentes, soluciona eso permitiendo:
- Observabilidad en tiempo real. Unificando métricas multientorno, ya que las HCI rara vez existen aisladas. Así, tenemos una supervisión en entornos híbridos y multi-cloud, por ejemplo.
- Monitorización de virtualización. Gracias a su integración con VMware, Proxmox, Nutanix y KVM.
- Supervisión de almacenamiento y redes. En cuanto a latencia, disponibilidad y uso de recursos.
- Detección de anomalías e incidentes. Con alertas y correlación de eventos que ayudan a encontrar causas raíz, no solo detectar síntomas.
- Integración con SIEM y logs. Proporcionado seguridad y capacidad de auditoría de eventos. Indispensable para actividades críticas que, por ejemplo, estén bajo la normativa NIS2 y su exigencia de pasar controles. Buena suerte unificando los logs necesarios de mil sitios diferentes bajo la mirada del auditor que, por alguna razón, nunca pestañea.
- Análisis de tendencias y capacity planning. Con la implementación de Machine learning para una optimización más sencilla y adecuada de esa capacidad.
En algo tan crítico como monitorizar infraestructuras hiperconvergentes, no solo es necesario «llamar al especialista», como Pandora FMS. Es que su implementación va más allá, porque permite tener toda la información crítica en un punto, tanto de la HCI, como del resto de elementos clave de nuestra tecnología, como equipos portátiles, otros servidores o incluso móviles.
Eso completa de forma natural el círculo de la filosofía HCI, porque podemos decir que Pandora FMS permite a su vez la hiperconvergencia de la monitorización en un solo lugar.
El ansiado «Anillo Único» para dominarlos a todos.
(Pandora FMS no incluye un anillo mágico, el equipo legal me obliga a aclarar esto).
Beneficios de usar Pandora FMS en entornos HCI
Las decisiones serán tan buenas como la información que tengamos para tomarlas, y ese es uno de los valores estratégicos principales que proporciona Pandora FMS.
En su monitorización de HCIs, eso se traduce en estos beneficios directos:
- Reducción del tiempo de respuesta ante incidentes.
- Optimización del rendimiento y predicción de fallos.
- Mayor seguridad con correlación de eventos y supervisión de actividad sospechosa.
- Compatibilidad con múltiples tecnologías sin necesidad de herramientas adicionales.
- Reducción de costes operativos, mediante automatización y mejor distribución de recursos.
- Escalabilidad sin impacto en la operativa.
Y sobre todo, sensación de control, cordura y paz mental, porque sabes qué está pasando en todo momento.
En un entorno cada vez más complejo y diverso, las infraestructuras hiperconvergentes contribuyen a optimizar y simplificar. Y como si estuviéramos en la película Origen de Christopher Nolan, podemos ir un nivel más allá en esa gesta por la hiperconvergencia, optimizando y facilitando también la monitorización de dichas infraestructuras con Pandora FMS.
Sin eso, es imposible operar de una forma óptima que nos sitúe en la punta de lanza de nuestra actividad.
Y si quieres saber más sobre Pandora FMS en Infraestructuras Hiperconvergentes, no dudes en contactar con nosotros, porque te demostraremos estas palabras con acciones.
por Isaac García | Mar 3, 2025 | Pandora FMS
Los endpoints son el blanco principal de los ciberataques. Los datos más conservadores cuantifican que, entre un 68% y un 70% de las brechas, comienzan en estos dispositivos. Por eso, la implantación de un EDR (Endpoint Detection and Response) es imprescindible para protegerlos en el contexto actual de amenazas informáticas.
Este EDR es una herramienta avanzada de seguridad que se instala en los dispositivos finales de la infraestructura tecnológica (ordenadores personales, servidores, teléfonos…) y que monitoriza su actividad en tiempo real, sabiendo qué sucede exactamente en cada uno de esos endpoints.
Esto hace posible detectar, analizar y responder a amenazas de seguridad de manera proactiva e inteligente. Y en caso de incidencia, también permite al equipo de respuesta tener toda la información necesaria para investigarlo y solventarlo.
Esto va más allá de las capacidades de un antivirus, solución tradicional para la protección de algunos endpoints, pero que resulta insuficiente para el contexto de seguridad actual en las organizaciones.
Cómo funciona un EDR
Las prestaciones de un EDR y la seguridad que ofrecen en el endpoint dependen en última instancia de cada fabricante, pero todos se basan en tres pilares fundamentales, que permiten comprender su funcionamiento y la protección que ofrecen:
- Monitoreo constante de la actividad: desde los procesos, hasta las conexiones del dispositivo, recopilando datos y analizándolos de manera inteligente.
- Detección de amenazas: cuando lo anterior alerta sobre comportamientos anormales, como movimientos laterales, malware, intentos de phishing y otras acciones maliciosas.
- Respuesta automática ante esas amenazas: como aislar el dispositivo comprometido del resto de la red, bloquear procesos con actividades dudosas o eliminar archivos dañinos.
Los EDR se diferencian de los antivirus tradicionales, tanto en capacidades de detección (afrontando amenazas desconocidas y sofisticadas), como de respuesta, siendo capaces de aislar un dispositivo de la red, por ejemplo. En contraposición, un antivirus, como mucho, pone en cuarentena o borra un archivo infectado.
Así, un actor malicioso puede haber creado un malware nuevo que extraiga datos críticos de una organización, como credenciales o información privilegiada.
Mientras que un antivirus no reconocerá el malware y le dejará hacer, un EDR puede detectar, entre otras cosas, la actividad de ese archivo malicioso, como puede ser la fuga de información. Así, puede detenerla si detecta una conexión desconocida y un flujo masivo de datos hacia ella.
Algo similar ocurre si esa exfiltración de datos se produce, por ejemplo, por la acción de un empleado descontento, sin malware de por medio.
Este usuario puede tratar de copiar información a un dispositivo externo y, mientras que un antivirus no reaccionará ante eso, un EDR puede detectar la conexión de una llave USB o el comportamiento anómalo de una copia de gran volumen de datos, y actuar en consecuencia ante este acto sospechoso.
La diferencia entre gestión de seguridad y gestión de infraestructura
Para una óptima protección de endpoints y de nuestro sistema en general, es importante comprender esta diferencia y conseguir que ambos conceptos estén alineados.
La gestión de la infraestructura tecnológica tiene como fin que esta funcione adecuadamente y ayude a los objetivos de la organización. Pero esto quedará comprometido si no tiene también la seguridad en mente.
Por su parte, la gestión de la seguridad implica poner los medios y políticas que protejan la infraestructura, como una integración de SIEM (Security Information and Event Management) y EDR, por ejemplo. Sin embargo, no es lo mismo poner medidas para proteger un edificio de paja construido de cualquier manera, que para un castillo de piedra bien planificado.
Así una gestión de infraestructura tecnológica adecuada facilitará:
- La gestión de la seguridad.
- El trabajo integrado de EDR y SIEM.
- La labor de nuestro blue team en caso de tenerlo.
- La respuesta a posibles incidentes.
Veamos un ejemplo de la diferencia que marca una infraestructura bien gestionada de una desprotegida.
Imaginemos una gestión con una segmentación adecuada de redes, un buen control de accesos de dispositivos y una política de parcheo constante.
Incluso en el caso de que algún elemento de la infraestructura falle (como la actualización tardía del firmware de un dispositivo IoT ante una vulnerabilidad), si ese dispositivo ha sido configurado con políticas adecuadas de red y acceso, contribuiremos a la seguridad. Así, reduciremos las probabilidades de que un actor malicioso que haya comprometido ese endpoint pueda moverse lateralmente a otro elemento más crítico de la red.
Si, además de esa gestión adecuada de la infraestructura, tenemos una buena gestión de seguridad con un EDR integrado con SIEM, se detectará el intento de movimiento extraño, avisando y mitigando.
Pero si ese dispositivo IoT sigue teniendo configurado el usuario y contraseña de fábrica (algo demasiado habitual, por desgracia) o bien no se ha limitado a qué tiene acceso en nuestra red, dicho actor malicioso tiene enormes posibilidades de moverse por ella hasta elementos fundamentales, o comprometer el dispositivo de otras maneras, como grabarnos con una webcam.
Enfoques desde la gestión de infraestructura para fortalecer la seguridad
Siguiendo con el símil anterior, ¿cómo levantamos nuestro castillo con piedra robusta y un diseño resistente?
Una gestión de infraestructura así pasaría por estrategias prácticas como estas:
- Políticas estrictas de actualización y parcheo: para evitar la acción de malware o técnicas que exploten vulnerabilidades de versiones antiguas. Esto implica actualización tanto de software como de firmware en los endpoints.
- Diseño óptimo de redes: segmentándolas adecuadamente y con la política de que cada dispositivo acceda solamente a lo mínimo necesario para funcionar correctamente, tanto en lo que se refiere a datos, como a otros dispositivos.
- Implementación de soluciones SIEM: que recoja información para el Network Operations Center (NOC) de lo que sucede en nuestra infraestructura, la unifique, analice y alerte ante cualquier hecho sospechoso.
- Políticas de supervisión y análisis de logs: que detecten anomalías en esos registros. Actualmente las políticas de seguridad permiten a las empresas cumplir con los más altos estándares y certificaciones de seguridad como la ISO 27001 y normativas a nivel gubernamental como la nueva NIS2, que muchas empresas ya están comenzando a implementar.
Con estas premisas, nuestra infraestructura será más sólida por sí misma a ataques, a la vez que cumple su objetivo principal, apoyar los objetivos y el trabajo de la organización.
Se suele hablar de la elección entre seguridad y conveniencia, o seguridad y rendimiento, pero es una falsa dicotomía. Una buena gestión de infraestructuras apoya seguridad y funcionamiento, no tiene que elegir. Aunque las infraestructuras actuales de los sistemas y los entornos de naturaleza híbrida constituyan un bache a sortear para obtener una visión unificada, Pandora FMS unifica fuentes de datos y permite llevar a cabo una gestión centralizada.
Cómo abordan la seguridad diferentes EDR y Antivirus (A/V)
Aunque hablamos de EDRs y antivirus como de dos enfoques generales en seguridad de endpoints, es cierto que no todo es homogéneo dentro de cada opción.
Por eso, es interesante conocer las principales características de cada solución, y cómo pueden variar en ocasiones según el fabricante de la misma.
EDR
|
Antivirus
|
Monitorización constante de la actividad en los endpoints para detectar comportamientos sospechosos.
|
Escanea archivos y aplicaciones en busca de firmas de malware conocidas.
|
Utiliza análisis de comportamiento para identificar amenazas desconocidas.
|
Utiliza bases de datos de firmas para identificar malware conocido.
|
Algunas opciones usan IA predictiva, como Pandora FMS, para detección y toma de decisiones.
|
Algunos fabricantes usan heurística (reglas predefinidas de comportamientos sospechosos), una tecnología menos avanzada con más falsos positivos.
|
Respuesta automatizada sofisticada: puede aislar dispositivos, bloquear procesos sospechosos y generar alertas avanzadas (el alcance de dicha respuesta dependerá de las prestaciones de cada fabricante).
|
Respuesta automatizada limitada a cuarentena o eliminación de archivos infectados.
|
Capacidad forense avanzada, registrando todo lo ocurrido para facilitar auditorías o la labor del equipo de respuesta a incidentes.
|
Capacidad forense limitada a registrar detecciones básicas.
|
Protección activa y reactiva.
|
Protección reactiva basada en el fichero de firmas.
|
Elevada capacidad de integración con SIEM y la infraestructura en general.
|
Integración limitada.
|
Ese último aspecto de integración de SIEM y EDR es crítico hoy y la clave de la seguridad en un entorno tan cambiante.
Sin embargo, en el otro plato de la balanza, la capacidad de los antivirus es mucho más reducida, tanto en información que pueden enviar a un SIEM, como en capacidad de integración con estos. Además, algunos antivirus son proclives a no llevarse bien con el resto de la infraestructura tecnológica o de seguridad, produciendo problemas de compatibilidad con firewalls u otras herramientas de protección.
Ventajas e inconvenientes de un EDR frente a un antivirus tradicional
Lo anterior no significa que todo sean puntos positivos en el caso de los EDRs, de modo que un análisis imparcial debe poner sobre la mesa dichas ventajas, pero también inconvenientes y desafíos.
Ventajas de un EDR frente a un antivirus
- Mayor capacidad de detección y protección ante amenazas, conocidas o no.
- Mayor capacidad de respuesta automatizada ante incidentes.
- Mayor capacidad de gestión de seguridad gracias a una visibilidad detallada sobre qué ocurre exactamente en cada endpoint.
Desventajas de un EDR frente a un antivirus
- Más complejo de implementar y gestionar.
- Requiere de personal capacitado para interpretar y responder a los incidentes. También para su instalación e integración, especialmente en soluciones on-premise.
- Mayor coste económico por regla general.
Ventajas de un antivirus frente a un EDR
- Facilidad y rapidez de implementación.
- Eficaz contra malware conocido y amenazas comunes.
- Más económico que los EDR, e incluso gratis.
Desventajas de un antivirus frente a un EDR
- Protección insuficiente en el contexto actual de ciberseguridad para casos más allá de un usuario individual de bajo riesgo.
- Puede generar problemas de gestión, como falsos positivos o interacciones con otras aplicaciones.
- Capacidad de respuesta muy limitada ante sucesos de seguridad.
Enfoques prácticos para la seguridad de endpoints en entornos on-premise
Ya sea por exigencias legales, como protección y gestión de datos sensibles, o por estrategia tecnológica, como la necesidad de un mayor control o rendimiento de los equipos, las soluciones on-premise ganan atractivo frente al enfoque de 100% en la nube.
Por eso, es interesante tener en cuenta estas estrategias fundamentales para implementar con éxito soluciones EDR en estos entornos on-premise.
- Análisis y evaluación de necesidades de nuestra infraestructura. Toda acción realmente estratégica, del tipo que sea, empieza por este paso. Debemos conocer bien nuestra red, sus activos críticos y las principales amenazas a las que nos enfrentamos, lo que conformará una parte importante de nuestro threat model particular, que será diferente del de otras organizaciones.
- Elección de la solución EDR adecuada. Según las conclusiones del punto anterior y nuestro presupuesto.
- Poner en marcha una fase de pruebas. En un entorno controlado que nos permita ver si la elección ha sido adecuada.
- Establecer una estrategia de despliegue gradual. Aunque las pruebas hayan sido exitosas, es importante ir poco a poco, para localizar y corregir los inconvenientes y desafíos que aparecerán inevitablemente.
- Integración con el resto de herramientas. En especial con un SIEM, configurando reglas y probando que funcionen.
- Establecer una buena política de monitoreo y auditoría. La herramienta no es nada sin un buen proceso detrás, con lo que es conveniente sistematizar las labores de supervisión.
- Establecer planes de contingencia. ¿Qué ocurriría si todo fallara? La seguridad debe hacerse siempre esta pregunta, incluso cuando aplique las mejores prácticas, ya que la probabilidad de eventos imprevistos de cisne negro nunca es cero. Para esos casos, debemos tener un plan de «botón rojo» que permita continuar el funcionamiento y la restauración de datos e infraestructura en el menor tiempo posible.
Si bien la noción on-premise vuelve a ganar adeptos, nada es una cuestión de absolutos, con lo que se puede optar por una solución híbrida.
Por eso, estas son las diferencias entre una implementación 100% local (también conocida como on-premise), una híbrida y una 100% en la nube.
- 100% local: la infraestructura de seguridad se encuentra dentro de las instalaciones de la organización. Su beneficio principal es el control total sobre datos, dispositivos y seguridad, así como un probable mayor rendimiento y menor latencia. A cambio, su desafío es que es más costosa en cuanto a recursos económicos y humanos. Estos, además de ser más numerosos, deben tener también mayor capacitación y realizarán una labor más intensiva de gestión. Hay que destacar que muchas veces por requerimientos de ENS o NIS2 ciertas piezas de infraestructura deben ser on-premise.
- Implementación Híbrida: combina elementos on-premise y en nube. La clave es aprovechar lo mejor de ambos mundos y, por ejemplo, que los datos sensibles se mantengan en local, pero que el análisis de amenazas y su respuesta se gestionen en la nube. Una buena planificación híbrida nos da la ventaja de reducir costes y aumentar la flexibilidad. El mayor desafío es que no dependeremos solamente de nosotros, existiendo puntos de fallo que escaparán a nuestro control.
- 100% nube: Su principal beneficio es la reducción de coste económico y humano, así como una menor complejidad tecnológica, que descansa en el proveedor de la nube. La otra cara de la moneda es que ponemos lo más importante en manos ajenas, en las que deberemos confiar. Y en caso de incidencia, dependeremos también de su capacidad de respuesta.
Esto no es cualquier cosa y en la mente de todo responsable de seguridad resuenan los ecos del 19 de julio de 2024. Aquella mañana, millones de sistemas Windows mostraron la famosa pantalla azul de fallo catastrófico, provocada por una mala actualización remota de CrowdStrike, uno de los EDRs más famosos.
Cómo complementa la seguridad de los endpoints el uso de Pandora FMS
Durante todo este recorrido, se ha hecho hincapié en que las soluciones de EDR son más avanzadas, pero también tan efectivas como la capacidad de supervisión y detección de amenazas en tiempo real que tengamos.
Ahí es donde conecta el siguiente eslabón de la cadena de seguridad, con un sistema de monitorización flexible como Pandora FMS, que complementa la seguridad de los endpoints.
¿Cómo?
- Mediante la integración con Pandora SIEM, que recoge y centraliza todo, para saber siempre de un vistazo lo que ocurre.
- Con el análisis de registros y auditorías, que refuerzan aún más la protección de endpoints. Cada empresa es un mundo y sus amenazas propias, también. Eso implica que debemos conocer exactamente lo que ocurre en nuestra infraestructura, sus particularidades propias y sus desviaciones sospechosas frente a la norma, que serán diferentes de las de otros.
- Con una correlación avanzada de eventos de seguridad, para identificar eficazmente esas anomalías en nuestro caso concreto, respondiendo de forma adecuada.
- Con una integración sin fisuras con dispositivos de red y firewalls, asegurando que todo funcione suavemente.
- Con una recogida de eventos desde agentes en endpoints multiplataforma (Windows, macOS o Linux).
Como hemos visto, para una organización que se tome en serio la seguridad, el uso de EDR, más una estrategia SIEM, es imprescindible.
El entorno de ciberamenazas cambia mucho y muy rápido. Los ataques son cada vez más frecuentes y los actores maliciosos, más sofisticados. Apoyados por la irrupción de las IAs, estas permiten, incluso a adversarios con poco conocimiento técnico, modificar malware para comprometer las defensas y evadir sistemas tradicionales de detección como antivirus, por ejemplo. O incluso crear nuevos programas maliciosos desde cero.
Así, amenazas que antes eran territorio exclusivo de actores con gran conocimiento y motivación, ahora están al alcance de muchos. De ahí la importancia de diseñar nuestra infraestructura con la resiliencia en mente e integrar medidas de seguridad capaces de anticiparse a ese panorama cambiante.
Sin eso, nos adentraremos desprotegidos cada mañana en un contexto más hostil y complejo que nunca.
por Isaac García | Feb 26, 2025 | Pandora FMS
Los tiempos en los que un antivirus y sentido común garantizaban la ciberseguridad de una organización, quedan lejos en el retrovisor. Especialmente, si trabajas en un sector crítico. Por eso, la Directiva NIS2 (2022/2555) de la Unión Europea establece las obligaciones de ciberseguridad para dichas actividades clave… y las consecuencias de no cumplirlas.
Estas últimas son importantes, así que analicemos la normativa, cuándo corresponde aplicarla y cómo debemos hacerlo.
Qué es la Directiva NIS2 y qué cambia respecto a NIS1
Los actores maliciosos cada vez más sofisticados (estatales o no), la omnipresencia del malware o la proliferación de brechas de datos dejan clara una cosa:
La Unión Europea debe mejorar su gestión de ciberseguridad en sectores críticos y la directiva NIS1 ya no era suficiente.
Por eso, en noviembre de 2022 se aprobó la nueva directiva NIS2, que afecta a las llamadas entidades esenciales e importantes, y los diversos países ya la están aplicando con este horizonte temporal:
- 16/01/2023. Entrada en vigor.
- 18/10/2024. Derogación de la NIS1. Adopción y publicación de las medidas por estados miembros.
- 17/01/2025. Comienza la actuación de las redes estatales de CSIRT (Computer Security Incident Response Team) y se establece el régimen sancionador.
- 17/04/2025. Fin del plazo para elaboración del registro de entidades esenciales e importantes. Comunicación del número de las mismas a la Comisión y Grupo de Cooperación. Comienzo de las evaluaciones de las estrategias nacionales de ciberseguridad (al menos cada 5 años).
¿Y qué cambia respecto a la NIS1?
- Requisitos de seguridad más estrictos.
- Mayor control de cumplimiento.
- Sanciones más elevadas (máximo 10 millones de euros o 2% de la facturación a entidades esenciales y 7 millones de euros o 1,4% de facturación a entidades importantes).
- Ampliación de lo que se considera entidad esencial o importante.
Esto es clave, porque muchas organizaciones que no se veían obligadas a la NIS1 sí entran ahora dentro del ámbito de aplicación de la NIS2.
Quién está obligado a cumplir la Directiva NIS2
La directiva se aplica con carácter general a empresas medianas y grandes, ya sean públicas o privadas, que operen en sectores de alta criticidad (los establecidos en el Anexo I de la Directiva) y otros sectores críticos (los incluidos en el Anexo II).
Así pues, lo primero a considerar es el tamaño de la organización:
- Mediana empresa es la que tiene entre 50 y 250 empleados y un volumen de negocio de hasta 50 millones de euros, o un balance que supere los 43 millones.
- Gran empresa es la que sobrepasa esas condiciones: más de 250 empleados y volumen de negocio o balance de 43 millones de euros o más.
¿Y cuáles son esos sectores críticos y altamente críticos?
La lista es más amplia que la NIS1 que, por ejemplo, consideraba al sector energía como altamente crítico. Pero ahora, la NIS2, dentro de dicho sector, ha añadido a los sistemas urbanos de climatización o hidrógeno, que la NIS1 excluía.
El Anexo I de alta criticidad incluye:
- Energía.
- Transporte.
- Sanidad.
- Banca.
- Agua potable y residual.
- Infraestructuras financieras y digitales (proveedores de dominios, cloud, etc.).
- Gestión de servicios TIC B2B.
- Algunas Administraciones públicas.
- Espacio.
En el Anexo II de sectores críticos encontramos:
- Servicios postales y de mensajería.
- Gestión de residuos.
- Fabricación, producción y distribución de sustancias químicas y alimentos.
- Fabricación de productos clave (sanitarios, eléctricos y electrónicos, informáticos, maquinaria y transporte).
- Proveedores de servicios digitales (buscadores, marketplaces en línea y proveedores de redes sociales).
Si una organización es mediana o grande, y opera en estos ámbitos, la NIS2 debe estar como lectura en su mesilla de noche.
Nuestra recomendación práctica es descargar esta guía del INCIBE que detalla más claramente esos Anexos con actividades. Así solo perderemos las dioptrías justas entre las líneas de la Directiva.
Cumplimiento de la NIS2 por pequeñas empresas y microempresas
Tras lo anterior, la pregunta es clara: «Si soy microempresa o pequeña empresa, ¿entonces no me afecta?».
La respuesta correcta es la palabra más temida: «Depende».
Porque la ley dice que pequeñas empresas y microempresas que tengan un papel clave para la sociedad, la economía o ciertos tipos de servicios fundamentales, también están obligadas.
Son entidades críticas (definidas en el artículo 6 de la directiva UE 2022/2557), las que prestan servicios esenciales y en las que “un incidente tendría efectos perturbadores significativos”. En ese caso, aunque fuera una organización de menor tamaño, también estaría bajo la directiva.
Pero la propia NIS2, en su consideración inicial número 20, comprende implícitamente que esta definición es compleja. Por eso, cada estado miembro de la unión debe decidir si una pequeña empresa es crítica y proporcionarle pautas e información para que pueda cumplir la ley.
Recomendación práctica: Si se sospecha que lo anterior podría aplicarse a una organización, por pequeña que sea, mejor consultar con el INCIBE u otro organismo similar del país en cuestión.
Requisitos clave de la NIS2 en ciberseguridad
Si se está obligado, la siguiente cuestión lógica es: «¿A qué, exactamente?».
La normativa establece unos mínimos en su artículo 21.2. Estos pretenden que la seguridad europea esté unificada y abarcan todo el proceso de la misma: desde prevención a respuesta ante incidentes, pasando por defensa de sistemas de información, garantía de continuidad de la actividad y concienciación y formación del personal.
Cada país de la UE debe integrar la NIS2 en sus leyes, y la directiva tiene un margen a la interpretación, lo que provoca inseguridad en el día a día de los CISOs. Sobre todo, cuando se establece que las medidas deben ser: proporcionadas al tamaño, coste y riesgo de la actividad y tener en cuenta el estado de la técnica.
Como pasa siempre en tecnología, no puedes dar indicaciones prácticas concretas porque, en el momento en el que las pones en un papel, para entonces seguramente hayan quedado obsoletas. De ahí lo de “tener en cuenta el estado de la técnica”, como frase para decir que debemos estar a la vanguardia de la misma.
Además, qué es proporcionado o no puede quedar a discreción de quien aplica la norma, de modo que mejor curarse en salud con estas consideraciones prácticas.
Seguridad de sistemas según la NIS2
Debemos demostrar que somos capaces de defender la organización crítica, y eso implica dos vertientes.
La primera es construir una infraestructura fuerte, un castillo de murallas resistentes bien gestionado por nuestro NOC (Network Operations Center), lo que significa principalmente:
- Un hardening de servidores y endpoints, blindando cada elemento con las mejores prácticas.
- Una buena gestión de los accesos a esas murallas, con autenticación multifactor y una política estricta de accesos e identidades, tanto de usuarios como de dispositivos.
- Sistemas de cifrado, backup, redundancias y lo necesario para la resiliencia y continuación de las operaciones que exige la NIS2.
La segunda vertiente es que, una vez construidas unas murallas robustas, las defendamos activamente, lo que implica:
- El uso de EDR (Endpoint Detection and Response).
- Sistemas de detección y prevención de intrusiones (IPS/IDS) para una monitorización de seguridad adecuada.
- Uso de SIEM (Security Information and Event Management).
Actuación y gestión de incidentes según la NIS2
Este es otro punto clave de la ley, que exige:
- La comunicación rápida y clara de dichos incidentes (al CSIRT ya nombrado) en 24 horas o menos desde el descubrimiento.
- La gestión adecuada de los mismos.
Considerando lo cuantiosas que son las sanciones de la NIS2 por alguna dejación en estos aspectos, es interesante profundizar un poco más.
SIEM e IPS/IDS como elementos clave para cumplir la Directiva NIS2
Para una organización crítica es imprescindible el uso de sistemas SIEM y de detección de amenazas a la hora de una defensa suficiente.
En combinación con los EDRs que protegen los endpoints, y los IDS e IPS que operan a nivel red y host, un sistema como Pandora SIEM es el equivalente al cerebro de tu operación de seguridad, ya que:
- Recolecta logs: De redes, servidores y hasta la cafetera de la oficina, porque se nos ocurrió comprarla “inteligente”.
- Correlaciona eventos: Si alguien en Bangladesh accede al servidor en Barcelona y ese “empleado” descarga un archivo extraño, el SIEM une los puntos y actúa, alertando y mitigando. Las funcionalidades IA de Pandora, por ejemplo, hacen que esa correlación sea aún más efectiva.
- Genera informes automáticos, para que no tengas que quemarte las pestañas con Excel en la auditoría.
De esta forma, nos aseguramos de tener siempre en cuenta “el estado de la técnica” y sus avances.
Requisitos de recolección de logs según NIS2
Podemos ser los mejores en seguridad, pero el proverbio siempre tiene razón: No se trata de si ocurrirá un incidente, sino de cuándo ocurrirá.
Los requisitos de actuación y comunicación que establece la NIS2 requieren una recolección, almacenamiento y gestión adecuada de logs, que también necesitaremos para pasar las revisiones a las que estaremos obligados.
Porque sí, el Capítulo VII (Artículo 32) es claro al respecto y debemos ser capaces de pasar esas auditorías y revisiones, incluso en ausencia de incidentes. Eso significa recogida, almacenaje y revisión sencilla de registros, garantizando su integridad y veracidad.
Para una organización crítica, esto implica herramientas profesionales que nos hagan la vida fácil en este sentido.
La tentación de aplicaciones gratuitas es poderosa, pero no alcanzan para las amenazas actuales que sobrevuelan los sectores clave… Ni para asegurar que el auditor no levante la ceja y acaricie el sello de “no apto”.
Cómo Pandora FMS y Pandora SIEM ayudan a cumplir con la NIS2
Todo lo que no sean las mejores prácticas de seguridad, apoyadas con herramientas avanzadas, es insuficiente para una organización crítica, nos complica el trabajo y el cumplimiento de la ley.
Por eso, Pandora SIEM permite:
- La monitorización de seguridad avanzada con detección de amenazas en tiempo real.
- Una correlación de eventos de seguridad apoyada por IA, en la punta de lanza de las mejores prácticas y tecnología de seguridad que exige la NIS2.
- La generación de informes que demuestran el cumplimiento normativo en auditorías y controles.
- La recogida, centralización y análisis de logs, con retención prolongada, para una comunicación clara en caso de incidente y una resolución más fácil de este, detectando de un vistazo qué ha pasado, cómo y dónde.
La NIS2 es la respuesta europea a un escenario global más agitado que nunca en ciberseguridad, pero afrontémoslo, las leyes sobre tecnología suelen ir un paso por detrás de esta y, en ocasiones, resultar nebulosas en el ámbito o la interpretación.
Esto causa pesadillas a CISOs y profesionales para el cumplimiento, pero la solución es clara: Adelantarnos a la legislación. Ponernos a la vanguardia de las mejores prácticas y herramientas para que, cuando la normativa de turno descienda con el peso de sus mil folios, estemos un paso más allá y no caiga en nuestras cabezas.
De esta forma, nos aseguraremos de que las líneas de la ley no se unirán a las de código malicioso para complicarnos el día a día.
por Pandora FMS team | Last updated Feb 13, 2025 | ITSM
Con la nueva versión de Pandora ITSM, ahora cuentas con funcionalidades diseñadas para mejorar tu flujo de trabajo y optimizar la administración de tickets y proyectos.
Mejoras clave en Pandora ITSM 105
Nuevo sistema de filtros
Ahora puedes filtrar y visualizar resultados de manera más eficiente en Tickets, Usuarios, Board de Proyectos, Contratos y Facturas. Este sistema se expandirá a más secciones en futuras versiones, permitiendo una mayor flexibilidad en la gestión diaria.
Vista de tickets mejorada
Se ha reorganizado la disposición de los campos en los tickets para mejorar la visibilidad y facilitar su uso. Además, se ha incluido una nueva sección de contratos para agilizar la consulta de información relevante, asegurando una mejor experiencia de usuario.
Diseño personalizable de tickets
Ahora puedes reordenar, agregar o eliminar campos en la vista de tickets según tus necesidades, con una configuración editable en tiempo real a través de los nuevos filtros. Esta flexibilidad permite a cada equipo adaptar Pandora ITSM a su flujo de trabajo específico.
Optimización del timetracker en móvil
La versión móvil del timetracker ha sido rediseñada para ser más intuitiva y funcional. Se han incorporado todas las opciones disponibles en la consola web, asegurando que los usuarios puedan gestionar su tiempo de manera eficiente en cualquier momento y desde cualquier dispositivo.
Soporte para ChatGPT en el chat
Se ha integrado ChatGPT en la funcionalidad de chat de Pandora ITSM, permitiendo obtener respuestas rápidas y precisas a consultas técnicas o de soporte. Esta integración mejora la asistencia al usuario y facilita la resolución de dudas en tiempo real.
Tags en tickets y proyectos
Ahora es posible añadir etiquetas en tickets y proyectos, facilitando la categorización y búsqueda de información relevante. Esta funcionalidad permite un acceso más ágil a los elementos de trabajo y mejora la organización interna.
Nueva vista de gestión de proyectos
Con una interfaz visual similar a Trello, esta nueva vista facilita la gestión de tareas y proyectos con etiquetas, estados personalizados y mayor flexibilidad organizativa. Además, permite mover tareas de manera sencilla entre columnas para un seguimiento más dinámico.
Nuevo workflow para timetracker
Se ha optimizado el flujo de trabajo del timetracker, permitiendo configurar alertas y automatizar recordatorios para mejorar el registro de jornada laboral. Ahora es posible programar notificaciones que avisen sobre el límite de jornada o fichajes olvidados.
Mejoras en gestión y seguridad
Nuevo sistema de licenciamiento
A partir de esta versión, los clientes que actualicen necesitarán solicitar una nueva licencia a través del menú Warp Update > License. Este cambio garantiza una mayor seguridad y control sobre las licencias activas en la plataforma.
Actualización de la base de datos
Para optimizar el rendimiento y compatibilidad, la actualización a Pandora ITSM 105 requiere la migración de MySQL 5 a MySQL 8. Esta actualización asegura mayor estabilidad y rendimiento en la gestión de datos, mejorando el funcionamiento general de la plataforma. Consulta la documentación oficial para más información.
Otras mejoras y correcciones
- Se ha añadido una nueva sección de notificaciones para superadministradores.
- Mejoras en la exportación de datos y personalización de informes.
- Interfaz optimizada en la gestión de unidades de trabajo.
- Actualización en la integración con sistemas de terceros para mayor compatibilidad.
Explora todas las novedades de Pandora ITSM 105 y optimiza la gestión de tu equipo →
Accede a nuestra Wiki oficial o revisa la documentación técnica para conocer más detalles sobre esta versión.
por Sancho Lerena | Last updated Feb 4, 2025 | Pandora FMS
En el mundo de la gestión de infraestructuras y software empresarial, la elección entre soluciones on-premise y SaaS (Software as a Service) se ha convertido en una decisión estratégica para toda organización que influye en áreas clave como la seguridad, la flexibilidad y los costes operativos.
Ambos modelos presentan enfoques diferentes de implementación y uso del software. Mientras que SaaS destaca por su accesibilidad y facilidad de adopción, el modelo on-premise nos ofrece un control absoluto sobre los datos y la infraestructura, siendo especialmente relevante en sectores donde la seguridad y el cumplimiento normativo son prioritarios.
En este artículo analizamos las ventajas y desventajas de cada modelo, abordando casos prácticos y ofreciendo consejos estratégicos para ayudar a las organizaciones a tomar decisiones informadas. Independientemente de tus necesidades, entender estos enfoques te permitirá optimizar tu gestión de infraestructuras de forma efectiva.
¿Qué es el modelo on-premise?
El término on-premise se refiere a un modelo en el que el software se instala y opera en los servidores locales de la organización. En lugar de depender de un proveedor externo para el alojamiento y gestión de la aplicación, la empresa adquiere una licencia perpetua y mantiene un control total sobre su infraestructura y datos. Esto implica que todos los recursos necesarios para operar el sistema—hardware, almacenamiento, red y personal de TI—están bajo el control directo de la organización. Por ejemplo, una empresa del sector financiero puede optar por un modelo on-premise para garantizar que sus datos sensibles permanezcan completamente bajo su dominio y cumplan con estrictas normativas locales.
En el ámbito del software de gestión de infraestructuras, este modelo es común en herramientas como:
- ITIM (IT Infrastructure Management): Supervisión y optimización de infraestructuras críticas, como servidores y redes.
- ITOM (IT Operations Management): Automatización y gestión de tareas operativas en entornos TI complejos.
- SIEM (Security Information and Event Management): Permite la monitorización y análisis de seguridad.
- ITSM (IT Service Management): Gestión de servicios TI.
- CMDB (Configuration Management Database): Documenta los activos y sus relaciones con los servicios.
El modelo on-premise proporciona una experiencia personalizada y controlada, lo que muchas empresas consideran imprescindible, especialmente en sectores donde la seguridad y el cumplimiento normativo son fundamentales.
¿Qué es el modelo SaaS?
El modelo SaaS (Software as a Service) se basa en aplicaciones alojadas en la nube y ofrecidas como un servicio por proveedores externos. Este enfoque es especialmente beneficioso para empresas con equipos distribuidos o que necesitan escalar rápidamente, ya que permite acceder a las herramientas desde cualquier lugar con conexión a internet y ajustar la capacidad según las necesidades en tiempo real.
En lugar de instalar el software localmente, las empresas acceden a él a través de Internet mediante una suscripción mensual o anual. Este modelo es común en herramientas como:
- RMM (Remote Monitoring and Management): Gestión remota de dispositivos.
- APM (Application Performance Management): Optimización del rendimiento de las aplicaciones.
- ESM (Enterprise Service Management): Amplía las capacidades de ITSM a toda la organización.
El SaaS ha ganado popularidad debido a ventajas como:
- Facilidad de implementación: Permite comenzar a utilizar las herramientas casi de inmediato, eliminando la necesidad de complejas configuraciones iniciales.
- Costes iniciales reducidos: Ofrece una inversión inicial baja en comparación con las soluciones on-premise, con tarifas recurrentes que pueden ser previsibles.
- Acceso inmediato y ubicuo: Los usuarios pueden acceder al software desde cualquier lugar y dispositivo con conexión a Internet.
Sin embargo, este modelo también tiene limitaciones que deben sopesarse:
- Dependencia del proveedor: Las interrupciones en el servicio o cambios unilaterales en las condiciones del contrato pueden afectar a las operaciones de la empresa.
- Riesgos en la seguridad de los datos: La información sensible podría estar expuesta debido a brechas de seguridad o accesos no autorizados en los servidores del proveedor.
A pesar de sus beneficios, el modelo SaaS no siempre es la opción más adecuada para organizaciones que priorizan la soberanía de los datos o que requieren altos niveles de personalización.
Tabla comparativa SaaS vs On-premise
Criterio
|
On-Premise
|
SaaS
|
Implementación inicial
|
Requiere tiempo para instalación y configuración local.
|
Implementación rápida y acceso inmediato a través de la nube.
|
Costes
|
Inversión inicial alta, pero predecible a largo plazo.
|
Costes iniciales bajos, pero tarifas recurrentes que pueden variar.
|
Seguridad
|
Control total sobre la infraestructura y los datos.
|
Riesgo de exposición de datos al depender del proveedor externo.
|
Flexibilidad
|
Personalización e integración totales con sistemas heredados.
|
Limitada a las capacidades estándar del proveedor.
|
Dependencia del proveedor
|
Baja, la organización tiene control completo.
|
Alta, incluyendo soporte y continuidad del servicio.
|
Actualizaciones
|
La empresa decide cuándo y cómo actualizarlas.
|
Automáticas, pero pueden ser disruptivas.
|
Escalabilidad
|
Control interno sobre la infraestructura, escalabilidad a medida.
|
Escalabilidad inmediata, pero sujeta a los límites del proveedor.
|
Cumplimiento normativo
|
Garantiza la soberanía de los datos y facilita el cumplimiento legal.
|
Puede ser complicado cumplir con regulaciones locales o sectoriales.
|
Rendimiento
|
Bajo impacto en la latencia al operar en redes internas.
|
Dependiente de la calidad de la conexión a Internet.
|
Casos reales: los riesgos ocultos del SaaS
Aunque el modelo SaaS ofrece beneficios significativos, también plantea riesgos que pueden afectar gravemente las operaciones de una organización si no se toman las precauciones necesarias. A continuación, se presentan cinco casos reales que ilustran los desafíos más comunes asociados a este modelo:
- Dependencia crítica del proveedor:
Una gran empresa del sector retail experimentó una interrupción de varios días debido a un fallo masivo en los servidores de su proveedor SaaS. La falta de copias locales de los datos y de un sistema de respaldo interno paralizó sus operaciones, causando pérdidas millonarias.
- Cambios inesperados en la política de precios:
Una startup tecnológica vio un aumento del 40% en las tarifas de su proveedor SaaS sin previo aviso. Debido a su profunda integración con la herramienta, no pudo migrar rápidamente, lo que afectó de forma directa a sus márgenes de beneficio.
- Pérdida de datos por cierre del proveedor:
Una PYME que utilizaba una solución SaaS de nicho perdió todos sus datos cuando el proveedor cesó operaciones de forma abrupta. Al no contar con un plan de respaldo externo, las pérdidas fueron irreparables.
- Exposición a ataques de seguridad:
Una institución educativa sufrió un ciberataque que comprometió información sensible alojada en los servidores del proveedor SaaS. Este incidente derivó en problemas legales y regulatorios que afectaron a su reputación.
- Limitaciones en la integración:
Una empresa manufacturera tuvo que invertir en costosas adaptaciones para integrar su sistema ERP local con una herramienta SaaS que no era compatible de forma nativa con sus sistemas heredados.
Estos ejemplos subrayan la importancia de realizar un análisis exhaustivo antes de adoptar soluciones SaaS. Es fundamental evaluar aspectos como la dependencia del proveedor, la seguridad de los datos y la compatibilidad con la infraestructura existente. Además, contar con estrategias de mitigación, como copias de seguridad locales y análisis de riesgos, puede reducir significativamente el impacto de estos desafíos.
Por qué el modelo on-premise sigue siendo relevante en el siglo XXI
En una era dominada por las soluciones en la nube, el modelo on-premise ha evolucionado para mantenerse como una opción estratégica, especialmente para organizaciones que valoran la soberanía de los datos, la seguridad y el control total sobre sus operaciones. A continuación, se presenta un análisis detallado de las principales ventajas del modelo on-premise, respaldado por casos reales que ilustran su relevancia.
Control total sobre los datos
Con un modelo on-premise, las organizaciones mantienen un control absoluto sobre su información, evitando que los datos se transfieran a terceros o se almacenen en ubicaciones fuera de su alcance. Esta autonomía refuerza la seguridad y garantiza que, en caso de interrupciones o desastres, las copias de seguridad locales permitan una recuperación completa y rápida, minimizando cualquier impacto en las operaciones.
Un ejemplo destacado es el de Basecamp, que decidió volver a modelos locales tras experimentar problemas con soluciones SaaS. Su decisión estuvo motivada por preocupaciones sobre la seguridad de los datos y la necesidad de un control total sobre la operación.
De manera similar, Dropbox migró gran parte de su infraestructura desde la nube pública a centros de datos propios en 2016. Esta transición no solo les permitió aumentar la eficiencia operativa, sino también fortalecer su soberanía tecnológica al gestionar sus recursos críticos de forma interna. Estas estrategias reflejan cómo el modelo on-premise puede ser una herramienta esencial para organizaciones que priorizan la protección de datos sensibles.
Personalización avanzada y flexibilidad
El modelo on-premise ofrece un nivel de personalización único que permite a las organizaciones adaptar completamente sus sistemas a sus necesidades específicas. Desde configuraciones técnicas, hasta integraciones profundas con sistemas heredados, este enfoque es ideal para empresas con procesos operativos complejos o requisitos únicos.
Un ejemplo relevante es el de Airbus, que eligió soluciones on-premise para gestionar su infraestructura de TI crítica. Gracias a esta decisión, la empresa pudo integrar sus sistemas heredados de producción aeronáutica, asegurando la continuidad operativa y optimizando procesos sin las restricciones impuestas por soluciones SaaS. Esta capacidad de personalización convierte al on-premise en una herramienta clave para industrias que demandan soluciones adaptadas a su realidad operativa.
Soberanía tecnológica
Al operar con un modelo on-premise, las empresas se deshacen de la dependencia de un proveedor externo y consiguen libertad para definir sus propias estrategias tecnológicas. Esto incluye controlar los tiempos de actualización, ajustar configuraciones según sus necesidades y evitar los riesgos asociados a cambios unilaterales en políticas o precios.
Por ejemplo, en 2016, Dropbox lanzó el proyecto “Magic Pocket”, con el que trasladó gran parte de su infraestructura de la nube pública a centros de datos propios. Este movimiento no solo les permitió reducir costos operativos, sino que también les otorgó un control absoluto sobre sus sistemas y datos críticos. Este nivel de independencia tecnológica es esencial para empresas que priorizan la estabilidad y la seguridad a largo plazo.
Cumplimiento normativo garantizado
En sectores como la banca, la salud y las administraciones públicas, las normativas exigen que los datos permanezcan dentro de fronteras nacionales o cumplan con medidas específicas de seguridad. El modelo on-premise ofrece una ventaja clara, al permitir que las organizaciones gestionen sus datos en infraestructuras locales, asegurando un control absoluto sobre su almacenamiento, acceso y protección.
En el caso de las administraciones públicas, el cumplimiento de normativas locales no solo es una obligación legal, sino también una cuestión de confianza y soberanía. Este modelo permite a los gobiernos y organismos públicos garantizar que la información sensible, como datos de ciudadanos o información fiscal, no se transfieran a terceros ni se alojen fuera del país, minimizando riesgos legales y estratégicos.
Por ello, muchas instituciones públicas han optado por implementar soluciones on-premise, priorizando la seguridad de la información y cumpliendo de manera rigurosa con las normativas locales e internacionales.
Costos predecibles a largo plazo
El modelo on-premise se caracteriza por una inversión inicial elevada en infraestructura y licencias, pero ofrece una previsibilidad financiera que muchas empresas consideran indispensable. A diferencia del modelo SaaS, que depende de pagos recurrentes y puede estar sujeto a cambios repentinos en las tarifas, el enfoque on-premise elimina estos costes variables y permite a las organizaciones mantener un control directo sobre sus gastos operativos.
Según un artículo de Xataka, cada vez más empresas están optando por repatriar sus infraestructuras desde la nube hacia entornos on-premise debido a los costes inesperados y descontrolados asociados con los servicios en la nube. Este fenómeno, conocido como “repatriación de la nube”, subraya la necesidad de muchas organizaciones de recuperar el control financiero y estratégico de sus sistemas tecnológicos.
Además, un análisis de Forbes explica que, aunque la nube podría parecer una opción más económica inicialmente, los gastos operativos tienden a aumentar con el tiempo, especialmente para organizaciones con cargas de trabajo intensivas. En contraste, el modelo on-premise permite a las empresas planificar sus inversiones tecnológicas con mayor precisión, sin depender de factores externos que puedan influir en sus presupuestos.
Por ejemplo, industrias como la banca y la salud, que tienen altos requerimientos normativos y operativos, han encontrado en el modelo on-premise una solución más sostenible. Estos sectores han migrado desde la nube hacia infraestructuras locales para evitar fluctuaciones de costes y garantizar el cumplimiento normativo. Leobit refuerza en un estudio esta tendencia, destacando que muchas organizaciones consideran que el retorno de inversión (ROI) del on-premise supera al de las soluciones en la nube cuando se analiza en horizontes temporales superiores a cuatro años.
Finalmente, es importante resaltar que la decisión de optar por un modelo SaaS u on-premise no debe basarse únicamente en comparaciones de costes anuales o mensuales. Un análisis estratégico a medio y largo plazo demuestra que las soluciones on-premise suelen ser significativamente más rentables para empresas que buscan estabilidad financiera y control total sobre sus activos tecnológicos.
Mayor rendimiento en redes internas
Las soluciones on-premise, al operar directamente sobre la infraestructura local de una empresa, ofrecen ventajas significativas en términos de rendimiento, especialmente en la reducción de la latencia y la dependencia de la conexión a Internet. Al trabajar en redes locales, estas soluciones garantizan tiempos de respuesta más rápidos y un rendimiento más consistente en comparación con las aplicaciones basadas en la nube.
Un ejemplo destacado mencionado en Puppet es el caso de empresas como Basecamp, que decidieron repatriar su infraestructura de la nube pública hacia centros de datos on-premise. Este movimiento les permitió recuperar el control sobre su infraestructura, mejorar la seguridad y reducir vulnerabilidades, al tiempo que implementan medidas personalizadas para cumplir con normativas locales.
Además, según un informe de EETimes, el 83% de los CIOs planean repatriar cargas de trabajo hacia infraestructuras locales en 2024. Las principales razones de esta tendencia incluyen el control sobre el rendimiento, la reducción de costes operativos y la mejora de la seguridad de los datos críticos.
Un análisis de The New Stack también destaca cómo empresas de sectores como las finanzas y las telecomunicaciones están reevaluando el uso exclusivo de la nube, favoreciendo un enfoque híbrido o completamente on-premise para optimizar el rendimiento de aplicaciones críticas y reducir la latencia en sus operaciones.
Estos ejemplos reflejan una tendencia creciente hacia la repatriación de cargas de trabajo, donde las empresas buscan equilibrar las ventajas de la nube con la necesidad de un control total y una mayor eficiencia operativa que ofrecen las soluciones on-premise.
Cumplimiento de normativas específicas (Soberanía y regulaciones locales)
Las soluciones on-premise ofrecen ventajas significativas en términos de cumplimiento normativo, especialmente en sectores donde las regulaciones exigen que los datos permanezcan dentro de las fronteras nacionales. Este enfoque permite a las empresas garantizar que la información sensible no se transfiera a servidores en el extranjero, minimizando riesgos legales y estratégicos, algo fundamental en sectores como la banca, la salud y las administraciones públicas.
Un análisis de Capgemini señala que muchas organizaciones han decidido repatriar sus datos desde entornos cloud hacia infraestructuras locales para cumplir con normativas estrictas de soberanía. Este movimiento les ha permitido implementar medidas más específicas y personalizadas que aseguran la protección de los datos sensibles frente a vulnerabilidades inherentes a los entornos cloud compartidos.
En este contexto, el uso de sistemas de gestión de eventos e información de seguridad (SIEM) on-premise ha demostrado ser una solución crucial para cumplir con los requisitos regulatorios y garantizar la soberanía de los datos. Por ejemplo, herramientas como Pandora SIEM no solo ofrecen una plataforma altamente personalizable y confiable, sino que también permiten mantener los datos dentro de la infraestructura de la empresa, garantizando su seguridad y cumplimiento normativo.
De manera similar, soluciones como OpenText ArcSight™ Enterprise Security Manager destacan por su capacidad para facilitar el cumplimiento de normativas locales y mantener un control absoluto sobre la información crítica.
Estos ejemplos subrayan cómo las soluciones on-premise son esenciales para empresas que operan en sectores regulados, al proporcionarles las herramientas necesarias para garantizar el cumplimiento normativo de manera rigurosa. Además, refuerzan la autonomía operativa de las organizaciones, asegurando que los datos sensibles permanezcan bajo su control directo.
Escalabilidad a medida
Las soluciones on-premise permiten a las empresas ejercer un control completo sobre su infraestructura tecnológica, ofreciendo una escalabilidad adaptada a sus necesidades específicas. Este nivel de personalización elimina las limitaciones que suelen imponer los proveedores SaaS, proporcionando a las organizaciones la flexibilidad necesaria para ajustar sus recursos a medida que evolucionan sus operaciones.
Un ejemplo reconocido en la industria es el de Spotify, que, tras migrar a AWS en 2011, decidió en 2018 repatriar algunos de sus servicios de streaming a centros de datos propios. Este movimiento les permitió recuperar un mayor control sobre la escalabilidad de sus sistemas, asegurando tanto la calidad de su servicio como la optimización de costes operativos.
Seguridad
Las soluciones on-premise destacan por permitir a las empresas gestionar completamente la seguridad de sus sistemas, proporcionando un control absoluto sobre su infraestructura tecnológica. Este enfoque posibilita la implementación de controles personalizados diseñados específicamente para proteger datos sensibles, lo que resulta crucial en sectores con estrictas normativas de seguridad y privacidad, como el financiero, sanitario, gubernamental y de defensa.
En respuesta a incidentes de seguridad registrados en entornos cloud, muchas empresas han optado por migrar a soluciones on-premise. Este cambio les ha permitido reforzar la protección de datos críticos, adaptando medidas específicas que superan las limitaciones de los entornos compartidos en la nube.
Integración sencilla con sistemas heredados
Las soluciones on-premise son especialmente adecuadas para empresas que dependen de sistemas heredados (legacy), ya que permiten una integración más profunda y controlada con sus infraestructuras tecnológicas existentes. Este enfoque no solo facilita la continuidad operativa, sino que también optimiza el aprovechamiento de las inversiones previas en tecnología, asegurando que los sistemas actuales puedan evolucionar sin interrupciones o incompatibilidades.
Al operar en un entorno completamente gestionado por la organización, el modelo on-premise ofrece la flexibilidad necesaria para adaptar las soluciones a los requisitos específicos de los sistemas heredados. Esto resulta esencial para empresas con procesos críticos que dependen de tecnologías establecidas y que necesitan minimizar riesgos asociados a migraciones complejas o fallos de compatibilidad.
Reflexiones finales sobre la propiedad del software
El modelo on-premise otorga a las empresas la propiedad completa de la licencia del software, una ventaja fundamental para evitar los riesgos asociados al control externo que caracteriza a los modelos SaaS. Este enfoque es especialmente valioso en contextos donde la estabilidad y la previsibilidad a largo plazo son esenciales para las operaciones empresariales.
Control total de las licencias
Una vez adquirida, la licencia de software bajo el modelo on-premise no está sujeta a ajustes imprevistos de precios impuestos por proveedores externos. Este control permite a las empresas planificar sus inversiones tecnológicas sin sorpresas, asegurando una mayor estabilidad financiera y operativa.
Cambios de precios imprevistos
Los modelos SaaS otorgan a los proveedores la capacidad de modificar unilateralmente las tarifas, lo que puede impactar negativamente en los costos operativos de las empresas. Además, estos ajustes suelen ir acompañados de actualizaciones obligatorias que no siempre son relevantes o necesarias para el cliente.
Un ejemplo notable ocurrió en 2020, cuando Adobe incrementó los precios de suscripciones a Creative Cloud, lo que generó quejas entre usuarios empresariales que dependían de estas herramientas. Muchas empresas, incluidas pequeñas firmas de diseño, optaron por versiones perpetuas o alternativas de software que pudieran gestionar internamente para evitar estos costes adicionales.
Discontinuación del servicio
Otro riesgo asociado al modelo SaaS es la posible discontinuación del servicio por parte del proveedor, lo que podría interrumpir operaciones críticas. Las empresas que dependen de estas herramientas están sujetas a las decisiones estratégicas de los proveedores, poniendo en riesgo la continuidad de sus procesos.
Por ejemplo, en 2019, Google decidió descontinuar Google Cloud Print, dejando a muchas organizaciones sin una solución adecuada para la impresión en entornos empresariales complejos. Como respuesta, varias de estas empresas migraron a soluciones on-premise, asegurando la continuidad y el control total sobre sus operaciones.
(Supuestas) Ventajas del modelo SaaS sobre On-Premise
Acceso inmediato y disponibilidad global
El SaaS permite acceder a la solución desde cualquier lugar y en cualquier momento, utilizando solo una conexión a internet. Esto es ideal para organizaciones con equipos distribuidos o necesidades de movilidad.
Eso simplemente no es cierto: Aunque el SaaS facilita el acceso, las soluciones On-Premise también pueden proporcionar acceso remoto mediante configuraciones como VPN o portales seguros. Además, estas opciones suelen ser más seguras, ya que el tráfico está controlado y protegido por la infraestructura interna de la empresa, en lugar de depender de medidas generales implementadas por un proveedor.
Costos iniciales bajos
No requiere una gran inversión inicial en hardware ni en licencias perpetuas, ya que se paga una tarifa recurrente. Esto facilita su adopción para empresas con presupuestos limitados.
¡Ojo!: Un modelo On-Premise no siempre implica altos costos iniciales. Las empresas pueden reutilizar la infraestructura existente y comenzar con licencias ajustadas a su escala actual. Además, los períodos de prueba y las versiones iniciales de On-Premise suelen ser igual de accesibles que los SaaS. A largo plazo, los costos recurrentes del SaaS pueden superar con creces la inversión inicial en On-Premise.
Implementación rápida
Las soluciones SaaS están listas para usar casi de inmediato, sin necesidad de largos procesos de instalación o configuración en servidores locales.
Cuidado, aunque las implementaciones SaaS suelen ser rápidas, muchas veces requieren procesos de “onboarding” que incluyen consultoría externa y ajustes específicos, lo que añade costos ocultos y tiempo. Por otro lado, los sistemas On-Premise, bien planificados, pueden configurarse rápidamente y ofrecen la ventaja de estar totalmente adaptados a los entornos locales desde el principio.
Escalabilidad sencilla
Es fácil aumentar o reducir la capacidad según las necesidades de la empresa, pagando sólo por lo que se utiliza. Esto permite responder a picos de demanda sin adquirir infraestructura adicional.
Tenga en cuenta que muchos sistemas SaaS están diseñados para un rango específico de clientes, principalmente pymes, y no escalan eficazmente para grandes empresas. En contraste, las soluciones On-Premise permiten una escalabilidad controlada y optimizada, sin estar sujetas a las limitaciones técnicas o comerciales de un proveedor externo.
Actualizaciones automáticas
Las actualizaciones y mejoras de software se implementan automáticamente, asegurando que los usuarios siempre tengan acceso a la última versión sin interrupciones ni costos adicionales.
Aunque ésta es una ventaja relevante, las soluciones On-Premise también pueden incluir actualizaciones gestionadas por el proveedor a través de contratos de soporte integral. La diferencia radica en que con On-Premise, la empresa decide cuándo implementar las actualizaciones, evitando posibles interrupciones no deseadas que ocurren con las actualizaciones automáticas de SaaS.
Menor carga para el equipo de TI
La gestión de la infraestructura, el mantenimiento del sistema y la resolución de problemas técnicos son responsabilidad del proveedor, liberando recursos del equipo interno.
Al igual que en el punto anterior, un contrato de soporte para On-Premise puede cubrir la gestión de infraestructura y mantenimiento, dejando al equipo interno libre para centrarse en otras tareas. La diferencia está en la autonomía: con On-Premise, la empresa tiene el control final.
Mayor facilidad de integración
Muchas soluciones SaaS están diseñadas para integrarse rápidamente con otras herramientas a través de APIs, lo que simplifica la interoperabilidad en entornos complejos.
Sin embargo, las integraciones SaaS suelen estar limitadas a soluciones estándar y ampliamente utilizadas, dejando fuera sistemas propietarios o tecnologías específicas que no están en el radar de los desarrolladores SaaS. Las soluciones On-Premise permiten integraciones profundas y personalizadas con sistemas heredados, adaptándose mejor a las necesidades únicas de cada empresa.
Respaldo y recuperación de datos incluidos
La mayoría de los proveedores SaaS incluyen soluciones avanzadas de backup y recuperación ante desastres como parte del servicio, lo que hace innecesario gestionar estas tareas de forma interna.
Dependerá completamente del proveedor, ya que la seguridad de los datos depende completamente del proveedor. Esto puede resultar problemático, ya que la responsabilidad del proveedor suele estar limitada a la tarifa pagada, lo que no refleja el verdadero valor de los datos de la empresa. Además, muchos proveedores SaaS restringen la capacidad de realizar copias completas de los datos, ligando a las empresas al ecosistema del proveedor.
Predictibilidad de costos
Los modelos de suscripción permiten prever gastos operativos, con tarifas mensuales o anuales fijas que facilitan la planificación financiera.
Las licencias perpetuas de On-Premise también ofrecen predictibilidad, ya que los costos de soporte son estables y las actualizaciones son opcionales. Por el contrario, los proveedores SaaS pueden cambiar sus tarifas y políticas unilateralmente, dejando a las empresas sin alternativas viables.
Para calcular costes a cuatro años es imposible hacerlo con soluciones SaaS (como mucho le podrán hacer un proyecto a tres años), mientras que en proyectos OnPremise es normal establecer proyectos a 10 años.
Acceso a tecnologías avanzadas
Las plataformas SaaS suelen adoptar rápidamente tecnologías emergentes, como inteligencia artificial o analítica avanzada, asegurando que las empresas tengan acceso a innovaciones sin realizar inversiones adicionales.
Aunque las tecnologías emergentes son atractivas, los entornos SaaS tienden a centrarse en las últimas tendencias, dejando de lado tecnologías más maduras y probadas que muchas empresas todavía necesitan. Esto puede generar problemas de compatibilidad y falta de soporte para sistemas existentes.
Conclusión
El modelo SaaS presenta ventajas claras en términos de accesibilidad, costos iniciales y mantenimiento reducido, pero estas ventajas a menudo vienen con limitaciones significativas. Las soluciones On-Premise ofrecen un control, seguridad y flexibilidad que puede superar a SaaS en muchos escenarios, especialmente cuando las necesidades de personalización, integración profunda y soberanía de datos son críticas.
Afortunadamente, con Pandora FMS no tienes por qué elegir, ya que ofrecemos modelos Saas y onPremise ¿Cuál prefieres? Consulta con nosotros.
por Pandora FMS team | Last updated Jan 29, 2025 | Pandora FMS
Grafana es una plataforma de código abierto para la visualización y monitorización de datos en tiempo real. Una de sus funciones es la creación de paneles interactivos y personalizables que facilitan el análisis de métricas provenientes de diversas fuentes, como bases de datos, sistemas de monitorización y plataformas en la nube.
Su flexibilidad y compatibilidad con múltiples proveedores de datos lo convierten en una herramienta esencial para la observabilidad y toma de decisiones en entornos de TI.
¿Qué ventajas ofrece para tu infraestructura?
- Monitorización en tiempo real de métricas y logs.
- Compatibilidad con múltiples fuentes de datos, como Prometheus, InfluxDB, MySQL, AWS CloudWatch y más.
- Alertas y notificaciones personalizables para una respuesta proactiva.
- Interfaz intuitiva y altamente personalizable para análisis visual eficaz.
- Escalabilidad y extensibilidad mediante plugins y paneles personalizados.
Grafana es ideal para organizaciones que buscan mejorar la visibilidad de sus sistemas, optimizar la monitorización y facilitar la toma de decisiones basada en datos.

Integración de Grafana y Pandora FMS
Grafana dispone de una integración en Pandora FMS, que permite unificar ambas plataformas de monitorización. Para poder usar esta integración, sólo son necesarios unos prerrequisitos mínimos:
- Extensión API cargada en Pandora.
- Acceso desde Grafana a la máquina de Pandora de la que va a recibir los datos y que tiene cargada la Extensión API.
- Habilitar el ID del plugin en el fichero de configuración de Grafana.
Estas configuraciones se pueden realizar rápidamente siguiendo los siguientes pasos:
1. Añadir la extensión de Pandora FMS
Lo primero de todo será cargar en nuestra consola de Pandora FMS la extensión que nos permitirá obtener los datos a representar en los dashboard de Grafana.
Para ello, solo tendremos que descargar el paquete ZIP que podemos encontrar en nuestra librería y subirlo a la consola de Pandora FMS desde el menú: Admin tools > Extension manager > Extension uploader:

Es importante no marcar la opción de “Upload enterprise extension”.
En definitiva, lo que estamos haciendo es ubicar el contenido del fichero ZIP en el directorio de extensiones de la consola de Pandora FMS, lo que resultará en la creación del directorio:
/var/www/html/pandora_console/extensions/grafana
Si, como en nuestro caso, la instalación parte de una ISO de Pandora FMS, también será necesario modificar un parámetro de la configuración del servidor Apache.
Basta con editar el fichero /etc/httpd/conf/httpd.conf, e introducir el parámetro “AllowOverride none” como “AllowOverride All”, dentro de las directivas del bloque ‘’ ya que es donde se encuentra localizada nuestra consola de Pandora FMS. Tendría que quedar por lo tanto de esta manera:

También añadiremos un parámetro en la configuración de PHP. Tendremos que agregar la siguiente línea al final del fichero /etc/php.ini: serialize_precision = -1
Y para que estos cambios tengan efecto se debe reiniciar el servicio de Apache:
2. Cargar el plugin de Pandora FMS para Grafana
Tendremos que subir al servidor de Grafana el fichero ZIP con todos los ficheros del plugin y ubicarlo en la ruta “/var/lib/grafana/plugins”. Descomprimimos el fichero en esta ruta con el comando “unzip” y reiniciamos el servicio de Grafana para que lo cargue:

3. Configurar Pandora FMS como origen de datos para los dashboards de Grafana
Agregar las siguientes líneas al final del fichero de configuración de Grafana (/etc/grafana/grafana.ini):

Después de este cambio se deberá volver a reiniciar el servicio de Grafana mediante el siguiente comando: service grafana-server restart
En este punto lo que tenemos que hacer es configurar el plugin subido en Grafana para que se conecte con la extensión cargada en Pandora FMS y nos permita usar sus datos en los dashboards de Grafana.
Tenemos que acceder en Grafana al menú “Configuration > Datasources” y hacer click en el botón “Add datasource”:

Nos aparecerán distintos plugins que podremos configurar, y en la parte inferior del listado veremos el plugin que acabamos de cargar para Pandora FMS. Hacemos click en él:

Esto nos llevará a un formulario donde solo necesitaremos rellenar 3 campos para la conexión con la extensión de Pandora FMS:
- URL a la extensión, que de acuerdo a la sugerencia que veremos será (por defecto) “http://x.x.x.x/pandora_console/extensions/grafana”, siendo “x.x.x.x” la dirección IP o nombre DNS a nuestra consola de Pandora FMS.
- Usuario de Pandora FMS, el cual nos permitirá obtener los datos para los dashboards de Grafana. Este usuario debe tener al menos permisos de lectura de agentes (AR) y únicamente podrá obtener los datos de aquellos agentes sobre los que tenga permisos.
- Contraseña del usuario de Pandora FMS.
Con estos campos completados, podremos hacer click en el botón “Save & Test” para verificar el funcionamiento de nuestro nuevo origen de datos:

¿Qué pasa si no funciona correctamente?
En configuración podríamos ver distintos errores, como por ejemplo:
- HTTP Error Bad Gateway → Si Grafana no pudiese conectarse con Pandora FMS o si la dirección IP indicada fuese incorrecta.
- HTTP Error Not Found → Si la URL indicada no fuese correcta, por ejemplo porque la extensión de Pandora FMS no se hubiese cargado correctamente o simplemente por un error al escribir la URL en el formulario.
- Datasource connection error: Unauthorized → Si el usuario y/o contraseña indicados no fuesen correctos o si el usuario no tuviese los permisos mínimos de lectura de agentes (AR).
Crea tu primer Dashboard en Grafana
Primero tenemos que ir al menú “Create > Dashboard”, y en el panel que nos aparecerá hacer click en el botón “Add visualization”:

Esto nos llevará a un formulario donde, en el desplegable “Query”, elegiremos nuestro origen de datos de “Pandora FMS”. Esto hará que la parte inferior del formulario cambie y veamos una consulta para elegir un módulo del que mostrar los datos en el panel:
- Label: Nos permitirá indicar la etiqueta que queramos que tengan los datos representados para esta consulta.
- Group: Lo usaremos para filtrar el agente del que representar los datos. Es necesario indicar algún grupo.
- Agent: Lo usaremos para filtrar el módulo del que representar los datos. Es necesario indicar algún agente.
- Module: Lo usaremos para indicar exactamente el módulo del que representar los datos.
- TIP: Se trata de un campo que nos permitirá indicar si los datos a representar irán compactados o no. Si no se marca, los datos se compactarán, lo que resultará en gráficas más fáciles de interpretar y rápidas de cargar, aunque la muestra de datos no será la real sino más bien una media de los mismos.
Y con esto ya tendríamos nuestros primeros datos de Pandora FMS en Grafana.
Podemos incluir más de una consulta en un mismo panel, lo que nos permite comparar los datos de distintos módulos:

Y también podemos añadir más paneles dentro de un mismo dashboard de Grafana, de modo que tengamos en una misma pantalla toda la información necesaria.
Crea tu primera alarma en Grafana
Podremos crear una alerta desde el menú “Alert” , en la visualización del dashboard (una vez guardado el Dashboard).

En este menú deberemos ajustar unas cuantas reglas, para configurar nuestra alerta:
1 . Establecer el nombre de la regla de alerta.

2. Definir la consulta y la condición de alerta.

3. Establecer el comportamiento de evaluación de alertas.

4. Añadir anotaciones.

5. Configurar notificaciones.

Una vez configurada y guardada la alerta, podremos verla en el dashboard:

por Pandora FMS team | Last updated Jan 27, 2025 | Pandora FMS
GLPI es una solución libre de gestión de servicios de TI (ITSM) que permite administrar activos, incidencias y solicitudes dentro de una organización. Funciona como un sistema de seguimiento de incidencias y service desk, optimizando el soporte técnico y los recursos tecnológicos.
También incluye la gestión de inventarios de hardware y software, contratos y licencias, ofreciendo una visión centralizada de toda la infraestructura. Su interfaz web intuitiva y opciones de personalización garantizan su flexibilidad y escalabilidad para empresas de cualquier tamaño.
¿Qué aporta a tu empresa?
- Gestión centralizada de activos de TI.
- Seguimiento y resolución de incidencias.
- Optimización del soporte técnico.
- Escalabilidad: adaptable a empresas de cualquier tamaño.
GLPI es ideal para organizaciones que buscan mejorar la administración de sus recursos tecnológicos, automatizar procesos y optimizar la gestión de servicios de TI.
Todas las ventajas de GLPI junto con Pandora FMS
GLPI dispone de una integración en Pandora FMS de la que ya están disfrutando algunos clientes.
Con ella se puede automatizar la creación de tickets, para lo cual se hace uso de un plugin que podrás encontrar en la librería. Este plugin permite la integración en el alertado de Pandora de la creación de tickets en tu entorno de GLPI a través de la API Rest de la que dispone el servicio.
Cada vez que una alerta se ejecute y dispare el plugin, este abre un ticket en GLPI con información del módulo que hizo dispararse la alerta: agente, dato del módulo, dirección IP, timestamp y descripción del módulo, con un título para el ticket, categoría, grupo de asignación y prioridad, que pueden variar dependiendo de la acción de alerta.
La ejecución del plugin con los parámetros de este, en un intervalo de tiempo configurable, permite automatizar todo el proceso de creación de un ticket que normalmente realizaría un usuario. Siendo necesario usar unas credenciales para autenticar con tu entorno (usuario y password o de un token, que habrá que generar previamente). La configuración del plugin permite especificar un título, descripción, prioridad, categoría, grupo, tipo de consulta. Además, este comprobará si existe ya un ticket creado con estas características para que en caso de que este ya esté creado, solo haga falta añadir su correspondiente seguimiento.
El plugin hace uso de un parámetro llamado “–recovery” que marca dos caminos distintos en la ejecución de este. Si se usa, el plugin comprobará el estado del ticket especificado y si no está cerrado añade un comentario en este, si está cerrado no hará nada más. Si no se usa, el comportamiento será igual, pero cambiará si el ticket está cerrado o no existe. Si está cerrado, creará un nuevo ticket. Si no existe, creará el ticket si existe un ordenador con el mismo nombre que el del agente que se especifica con el parámetro “–agent_name”.
El plugin no necesita de dependencias adicionales para su uso, puesto que estas ya vienen incorporadas. Pero es necesario que en el entorno de GLPI esté habilitado el uso de rest api, puesto que el plugin hace uso de esta para la creación de los tickets.
Para ello se deberá acceder, en tu entorno de GLPI a Setup → General

La opción “Enable Rest API” deberá estar habilitada.
Desde ese menú también puedes habilitar si quieres poder autenticar con credenciales, con token o ambas opciones.
Una vez hecho esto será posible usar el plugin, para ello, será necesario configurar un comando de alerta. Creando comandos de alerta, podremos especificar y automatizar la creación de tickets.
Esto se puede hacer desde el menú de alertas, en comandos:

Se deberá introducir un nombre, grupo, y el comando, usando como valores para los parámetros la macro _fieldx_, siendo x el número del parámetro (no distinguen ningún orden, simplemente cada macro tiene que tener un número diferente).
Una vez configurado, se puede configurar el valor de la macro debajo en los campos de descripción.

por Olivia Díaz | Jan 14, 2025 | Pandora FMS
Cualquier estratega de TI debe tener en mente el objetivo de negocio, de manera que sus iniciativas tecnológicas estén encaminadas a entregar, más que servicios e infraestructura, el valor agregado de confiabilidad y rendimiento óptimo que las haga alcanzar metas empresariales y ser más competitivas. Sigue leyendo para entender qué son los KPIs y cómo éstos nos ayudan a una correcta gestión empresarial.
Definición de KPIs
Según Techopedia, un KPI (Key performance indicators, indicadores clave de rendimiento) puede ser cualquier cosa que una organización identifique como un factor importante para el negocio. Bajo el principio de que “si algo no se mide, no se mejora”, un KPI nos sirve para medir resultados y, a partir de ahí, si algo amerita nuestra atención, tomar acciones para corregir, mejorar y optimizar. Si tu empresa pertenece al comercio minorista, un KPI puede ser los tiempos de entrega; en otras empresas, la tasa de cierre de ventas puede ser un KPI sumamente importante.
Esto quiere decir que, aun cuando KPI es un término orientado al negocio, los estrategas de TI deben saber qué son y para qué se usan en la inteligencia empresarial.
Ejemplos de KPIs

Importancia de los KPIs en la gestión empresarial
Los KPI nos ayudan a medir el progreso, identificar problemas potenciales y tomar decisiones. Para ello, los KPIs se deben definir de acuerdo con un marco de gestión empresarial, con estas características:
- Ser medibles en forma cuantitativa y cualitativa.
- Tener un objetivo vinculado al negocio.
- Identificar y resolver las variables en la organización.
Para definir los KPIs de TI, primero debes comprender los objetivos empresariales para alinearlos con el negocio; luego puedes definir los KPIs de negocio y por tipo (financiero, operativo, de ventas, TI, etc.). Con esto, se redactan los KPIs y se les da seguimiento en tiempo real y de forma periódica.
Cómo herramientas como Pandora FMS transforman la monitorización de KPIs en tiempo real
Poder medir con indicadores el negocio asegura una visibilidad sobre el rendimiento empresarial, buscando alcanzar objetivos por cumplir e incluso superarlos. Con Pandora FMS, es posible definir tableros de mando (dashboards) personalizados con gráficos y resúmenes, para la monitorización de los KPIs en tiempo real.
Ejemplo: Monitorización de la Experiencia del Usuario (UX)

La centralización de la información permite obtener una misma visualización, agilizando la comunicación y la colaboración en tu equipo de TI. Te invitamos a conocer un caso de éxito en logística aplicando los KPIs, haciendo click en este enlace.
¿Qué son los KPIs?
Comprender qué son los KPIs permite definirlos y saber interpretarlos para el éxito de un área funcional de la organización y su contribución al éxito general de la organización.
Concepto de KPIs como indicadores medibles
Los KPI son las medidas que han sido seleccionadas para tener visibilidad sobre el desempeño organizacional y son la base para la toma de decisiones encaminadas a obtener los resultados esperados. Los KPI se monitorizan y se presentan en tableros de mando para comprender el progreso o las alertas sobre una estrategia implementada.
Diferencia entre KPIs y métricas generales
Aun cuando KPI y las métricas miden el desempeño, hay diferencias en su concepto: los KPI son medidas cuantificables para medir el rendimiento o el progreso sobre objetivos clave para la organización y actúan como puntos de referencia medibles para objetivos a largo plazo. En tanto que las métricas son medidas cuantificables, pero se usan para procesos de negocio específicos a nivel operativo y a corto plazo.
Relación entre KPIs y los paneles de control que ofrece Pandora FMS
En Pandora FMS, desde una sola plataforma, se puede tener interfaces gráficas que muestran los KPIs de manera visual, intuitiva y organizada. Se puede visualizar datos en tiempo real, analizar tendencias, tomar decisiones informadas y tomar acciones oportunas. Cada panel es personalizable con gráficos, tablas y otros elementos visuales que representan los KPIs. Eso permite que los KPIs proporcionen las métricas esenciales, mientras que los paneles de control (dashboards) son una forma accesible y comprensible de visualizar y analizar esas métricas.
Tablero de mando de Pandora FMS

Tipos de KPIs más comunes
Algo que recomendamos es considerar las mejores prácticas de cada industria, ya que te ayudan a identificar cuáles son los posibles KPIs aplicables a tu organización, basándote en datos disponibles y la monitorización constante. Algunos de los KPIs más comunes son:
- Financieros:
- En ventas, el costo de adquisición de clientes (CAC) mide el costo total de adquirir un nuevo cliente, incluyendo todos los gastos relacionados con las iniciativas de marketing y ventas.
- El margen de beneficio se usa para medir la cantidad de beneficio que obtiene una empresa por cada peso obtenido. Este KPI revela la cantidad de beneficios que un negocio puede extraer de sus ventas totales.
- El flujo de caja evalúa la capacidad de la empresa para generar liquidez, lo que a su vez refleja que puede pagar las deudas más próximas a vencer y también permite tener un margen suficiente de efectivo para posibles impagos.
- Operativos:
- El tiempo de ciclo de suministro evalúa el tiempo promedio desde que se genera una orden de compra hasta la recepción del producto.
- La tasa de rotación de inventario mide el número de veces que el inventario se renueva en un periodo definido.
- De TI:
- El tiempo de actividad de la red se refiere a la cantidad de tiempo en que una infraestructura de TI está operativa y accesible. Es uno de los más críticos para la gestión de TI ya que tiene un impacto directo en la productividad y la eficiencia del negocio.
- El tiempo de respuesta es el que se necesita para que un equipo de TI responda a un incidente, desde el momento en que se informa hasta que se reconoce y resuelve.
Cómo Pandora FMS permite configurar alertas y visualizar estos KPIs en un único dashboard
La plataforma Pandora FMS está diseñada para poder configurar alertas y visualizar KPIs en un mismo dashboard de manera eficiente e intuitiva. Para hacerlo, se realiza lo siguiente:
- Definir las condiciones: Establece las condiciones bajo las cuales se activará una alerta. Esto puede incluir valores incorrectos de un módulo, eventos específicos, o traps SNMP.
- Elegir las acciones: Configura las acciones que se realizarán cuando se dispare una alerta, como enviar un correo electrónico, ejecutar un script, o registrar un evento.
- Crear comandos: Define los comandos que se ejecutarán en el servidor de Pandora FMS al disparar la alerta. Puedes utilizar macros para personalizar los parámetros de estos comandos.
- Asignar grupos: Define qué comandos se asignan a grupos específicos de alertas.
Una vez hecho esto, se añaden widgets (que son elementos GUI, interfaz gráfica de usuario, o una pequeña aplicación que pueda mostrar información y/o interactuar con el usuario) al dashboard para mostrar los KPIs que deseas monitorizar. Puedes incluir gráficos, tablas, y otros elementos visuales. Después de añadirlos, se personalizan los widgets para mostrar los datos específicos que necesitas, ajustando formato, intervalos de tiempo, y otros parámetros. También, se configura el dashboard para que se actualice en tiempo real, permitiendo una supervisión remota y continua de los KPIs.
Cómo seleccionar los KPIs adecuados
Para que los KPIs sean efectivos, se deben seleccionar adecuadamente aquellos que realmente estén alineados con los objetivos de la organización. Para ello, debes implementar KPIs que sigan la misma línea de las metas de la empresa y los objetivos estratégicos.
Como te decíamos anteriormente, los KPIs deben añadir valor a la organización, por lo que es importante conocer los objetivos y metas estratégicos de tu empresa (o los objetivos de un proyecto estratégico) para poder definir qué KPIs tienen sentido, puesto que deben reflejar el avance hacia esa meta y sus objetivos. Por ejemplo, si tu empresa es de manufactura y distribución, debes considerar los KPIs que mencionábamos antes, como tiempo de ciclo de suministro, tasa de rotación de inventario, así como también la eficiencia de producción (porcentaje de tiempo productivo en la línea de producción), costos operativos totales, el cumplimiento de entregas, entre otros.
Ejemplo práctico: selección de KPIs en un entorno gestionado con Pandora FMS
La empresa Conferma, proveedor de tecnología de pagos virtuales en 193 países, nos da un ejemplo de selección de KPIs gestionados con Pandora FMS. Para esta empresa, la Plataforma de Liquidación de Conferma (PLC), es fundamental, ya que es el motor de reconciliación y liquidación. La monitorización era una labor ineficiente y que tomaba tiempo, considerando múltiples servidores de bases de datos, firewalls, estabilizadores de carga, módulos de seguridad de hardware, plataformas virtuales y servidores web. Se requería también visualización en tiempo real de datos y procesos. Al implementar Pandora FMS, se pudo contar con un software hecho a medida y la información clave de la base de datos para definir los KPIs y el tablero de mando para informar los empleados sobre las métricas de rendimiento actuales de la plataforma de negocios de Conferma, además de la automatización en tiempo real de estadísticas vitales sobre el rendimiento.
Herramientas para monitorizar y analizar KPIs
En la monitorización de los indicadores de gestión, la inteligencia de negocio y la inteligencia artificial resultan ser herramientas poderosas para agilizar la visualización y análisis sobre el comportamiento de los KPIs, además de poder automatizar tareas correctivas e incluso preventivas, lo que en suma hace más eficiente y rápida la labor del equipo de TI.
Importancia de la automatización y visualización en la gestión de KPIs
Cuando se aprovecha la automatización para la gestión de KPIs, la recopilación y el análisis de datos ahorra tiempo muy valioso y evita errores humanos; y la información en tiempo real es siempre crítica en la visión actualizada del desempeño. También la automatización contribuye a la consistencia mediante procesos estandarizados y claros para todos.
En cuanto a la visualización, los gráficos y dashboards son material de conocimiento intuitivo y claro para todos. La colaboración y la comunicación se agilizan cuando todos tenemos la misma versión de lo que está sucediendo, permitiendo trabajar de forma más sincronizada y efectiva; y, desde luego, la toma de decisiones se hace de forma oportuna y se basa en información consistente y fidedigna.
Funcionalidades específicas de Pandora FMS
Pandora FMS tiene las capacidades para apoyar a tu equipo en la visualización y monitorización en tiempo real de los KPIs, tales como:
- La configuración de paneles personalizados es una funcionalidad de Pandora FMS que permite que cada usuario construya su propia página de monitorización. Se puede añadir más de una página, y en ella se pueden añadir mapas de monitorización, gráficas y resúmenes de estado, entre otros elementos.
- La monitorización remota y en tiempo real, desde una misma plataforma, proporciona un inventario detallado y actualizado en tiempo real de servidores, hardware de red, paquetes de software instalados, usuarios, routers, etc. Además, ofrece gráficos en tiempo real para la resolución de problemas y la supervisión del rendimiento. También, las APIs y la monitorización remota son de gran valor para el análisis de estado de la infraestructura y redes para una mejor respuesta de tu equipo.
- La generación de informes personalizados y detallados para evaluar rendimiento, e incluso de diferentes áreas, como soporte, gestión del tiempo y proyectos. También se pueden crear informes personalizados con consultas SQL. Además, los informes pueden ser presentados en diferentes formatos, como HTML o PDF, para luego enviarlos por e-mail de manera automática a tus clientes.
Ejemplo de informe de Pandora FMS sobre SLA

Ejemplo práctico de KPIs y su impacto
Para tener claro el impacto de adoptar los KPIs, qué mejor que un caso práctico de implementación de KPIs en una empresa que usa Pandora FMS:
En Salvesen Logística, operador de logística para empresas de alimentos fabricantes y distribuidoras. Se requería una herramienta que no solo midiera indicadores técnicos como performance, CPU, memoria, etc., sino la inteligencia basada en Experiencia de Usuario e indicadores de negocio. Se implementó una sonda programada para emular el comportamiento de un usuario y que cada pocos minutos se realicen transacciones sobre sondas programadas para emular el comportamiento del usuario, al mismo tiempo que se realizan transacciones sobre los principales servicios globales de TI para los clientes de Salvesen. Esta monitorización integral de KPI claves (como gestión de pedidos, recepciones, despachos) permite mantener los niveles de servicio esperados, además de poder anticipar posibles problemas antes de que ocurran.
Resultados obtenidos: Reducción de tiempos de respuesta y mejora de SLA. Con Pandora FMS se ha implantado una monitorización transaccional del negocio, reproduciendo el ciclo completo por el que pasa un mensaje, desde que sale del cliente, hasta que llega a nuestro buzón (Office 365, EDI, AS2, FTP, etc.). También se ha integrado Pandora FMS con las plataformas de SGA (Servicio Gestión Almacén) y TMS (Transport Management System, sistema de gestión de transporte) de Salvesen.
Los beneficios principales han sido:
- Alarmas tempranas y gestión de proactividad: detección de todos los niveles de servicio antes de que afecte a las operaciones, lo que permite una reacción temprana para atacar el problema, junto con un sistema de comunicación automático con el empleado o cliente mediante alarmas basadas en plantillas (vía email o SMS).
- Gestión de SLA para un control exhaustivo de la calidad de los Servicios Globales IT de Salvesen. Se puede crear un informe ejecutivo al comité de la dirección y a los principales directivos de la compañía. También, la gestión de SLA, permite tener la información para poder negociar una renovación de contrato con un proveedor.
- Reducción de la carga operativa, ahorrando un 24% en la carga operacional del área de TI que antes debía hacer chequeos de salud específicos, pudiendo centrarse en mejoras en productos y servicios para los clientes.
Conclusión
Las áreas de negocio tienen claro cuáles son sus iniciativas y estarán influyendo en las decisiones sobre las iniciativas de TI que estén alineadas a la meta de la organización. Tú y tu equipo debéis definir claramente los KPIs de TI que añadan valor a la empresa, apoyándoos en herramientas con información en tiempo real y de forma intuitiva, además de aprovechar las capacidades de inteligencia de negocios y la automatización que aseguren la respuesta oportuna de tu equipo.
Te invitamos a apoyarte en Pandora FMS para optimizar la monitorización, el análisis y la toma de decisiones basada en KPIs, mediante:
- La recopilación de datos, de forma automática a partir de múltiples fuentes, como servidores, aplicaciones y redes.
- La gestión de alertas y notificaciones, configurando alertas automáticas para recibir notificaciones en tiempo real cuando se detecten problemas o cambios significativos en los KPIs.
- APIs para integrar procesos de negocio y automatizar la gestión de configuraciones, notificaciones y otros procesos.
Acércate a nuestro equipo de consultores para ayudarte a definir los KPIs y el dashboard intuitivo que requieren tú y tu equipo.
por Pandora FMS team | Last updated Jan 10, 2025 | Pandora FMS
Si Spotify puede hacer su wrapped-up anual, ¡nosotros también podemos! Cierto es que no descubrirás tu evolución musical este 2024, pero sí que podrás comprobar todas las ventajas que un año más se suman al portfolio de Pandora FMS y como consecuencia a la operabilidad de tu negocio.
El 2024 ha sido un año transformador para Pandora FMS, marcado por avances significativos en nuestras soluciones y un enfoque claro en las necesidades globales de nuestros clientes. Hemos reforzado nuestra posición como líderes en monitorización y observabilidad, ampliando nuestra oferta con funcionalidades clave que integran la seguridad en la gestión IT.
Uno de los hitos más destacados de este año ha sido el lanzamiento de Pandora SIEM, una solución que permite a las organizaciones integrar la ciberseguridad en su estrategia de supervisión diaria, detectando y mitigando amenazas de forma proactiva. Este avance refuerza nuestra apuesta por proporcionar herramientas que van más allá de la monitorización tradicional, ayudando a nuestros clientes a gestionar entornos complejos con total confianza. La posibilidad de visualizar de forma centralizada las amenazas, detectar aquellas que son más críticas y facilitar su resolución por parte de las personas adecuadas convierte la gestión de las mismas en una tarea abordable y garantiza la seguridad de tus infraestructuras.
También hemos continuado mejorando nuestra solución de gestión remota (RMM), clave para entornos distribuidos, optimizando la supervisión y el control de infraestructuras críticas. Esta herramienta adopta un enfoque de visibilidad global de la infraestructura y establece un modelo de mantenimiento preventivo en vez de simplemente reactivo, mediante por ejemplo la automatización de tareas, lo que contribuye en última instancia a una mayor seguridad y al cumplimiento de SLA. Este esfuerzo se ve reflejado en las cuatro nuevas versiones de ITSM lanzadas este año, cada una diseñada para responder a las demandas cambiantes de nuestros usuarios y garantizar la máxima flexibilidad en la gestión de sus sistemas. Además, la integración de Pandora ITSM con Pandora FMS permite a nuestros usuarios unificar la gestión de tickets desde la consola de Pandora FMS.
Nuestros resultados hablan por sí mismos: más de 2.000 tickets gestionados con un índice de satisfacción notablemente positivo, y un total de 1.700 tickets en desarrollo procesados, que reflejan el trabajo continuo de nuestro equipo para perfeccionar nuestras soluciones. Cada nuevo lanzamiento ha sido posible gracias a un proceso de desarrollo completamente optimizado, que este año se ha transformado radicalmente para alcanzar un rendimiento aún mayor.
A lo largo del año, también hemos fortalecido nuestra presencia internacional, destacando como solución líder en más de 30 categorías clave en plataformas como G2, donde obtuvimos una calificación promedio de 4,5/5. Nuestro compromiso con la innovación y la flexibilidad ha sido reconocido por clientes en mercados de todo el mundo, desde grandes corporaciones hasta medianas empresas, que valoran nuestra capacidad de adaptación a múltiples necesidades tecnológicas.
De cara a 2025, estamos preparados para seguir innovando y expandiendo nuestras capacidades. Nuestro objetivo es claro: proporcionar soluciones aún más robustas y seguir siendo el socio tecnológico de confianza para organizaciones de cualquier sector y cualquier parte del mundo. Para ello, nos proponemos seguir añadiendo funcionalidades a Pandora SIEM, como filtros o informes avanzados; así como auditoría interna a Pandora RMM. También seguiremos explorando los límites de la monitorización, abarcando la monitorización de actividad de usuario
por Pandora FMS team | Last updated Jan 29, 2025 | Pandora FMS
¿Qué son los objetivos SMART y por qué son importantes en TI?
Ya sea en la vida personal o profesional, los objetivos siempre establecen una dirección hacia dónde queremos llegar, además de definir las pautas con las cuales llegar a ese fin deseado. Además, se genera una conciencia y una motivación sobre las acciones que se llevan a cabo, lo que permite concentrar nuestras energías y esfuerzos. También es importante considerar que, para lograr los objetivos, se necesita un camino claro sobre cómo llegar allí, ya que, sin objetivos claros, es como estar disparando al aire a ciegas y muy probablemente se genere frustración. De ahí que definir objetivos es mejorar la productividad de tu equipo de TI, con comunicación y motivación. Para estructurar los objetivos, se recomienda la Metodología S.M.A.R.T. que refiere al acrónimo en inglés de Specific (Específico), Measurable (Medible), Achievable (Alcanzable), Relevant (Relevante) y Time-based (de Tiempo Definido o Temporal).

Como veremos más adelante, crear objetivos SMART en IT implica definir cinco aspectos que ayudan a concentrar y reevaluar iniciativas según sea necesario. Estos consideran que los objetivos claros y medibles te ayudarán a la planificación de objetivos y la implementación de mejoras en la gestión de proyectos de TI, impulsando la monitorización planeada y predictiva, la gestión de TI y la productividad de tus empleados para generar una infraestructura y servicios de tecnologías resilientes y confiables, que garanticen una mejor experiencia para los usuarios y la organización en general.
Desglose de los objetivos SMART en proyectos IT
Si no tienes en cuenta todos los aspectos SMART, es posible que estés estableciendo objetivos para la monitorización y optimización de los sistemas y recursos de TI, pero no definiéndolos de manera efectiva en un plan para lograr cumplirlos. Por eso debes tener claro cuáles son cada uno de esos cinco aspectos, que pasamos a resumir:
- Specific (Específico): Aquí nos referimos a que el objetivo debe estar claramente articulado para que todos en tu equipo lo comprendan y estén en sintonía. Debes definir qué es lo que se logrará y qué acciones se deben tomar para lograr dicho objetivo. Los objetivos deben estar detallados en la medida en que sea necesario para los componentes clave de TI, tales como porcentajes de disponibilidad de los servidores y las redes. Puedes plantearte preguntas como las siguientes: ¿para qué? y ¿qué se quiere conseguir?
- Measurable (Medible): Los objetivos deben ser cuantificables para poder realizar un seguimiento del progreso. Debes definir qué datos se utilizarán para medir el objetivo y establecer un método de recopilación. En este caso, debes definir los KPI o métricas, como las que has definido en la gestión de SLA, SLI o SLO, para poder hacer un seguimiento sobre el avance hacia los objetivos deseados. Las preguntas que puedes plantearte podrían ser: ¿qué indicadores o factores nos dicen si lo estamos logrando?
- Achievable (Alcanzable): Cualquier objetivo debe ser realista con el fin de mantener el entusiasmo para intentar alcanzarlo. Quizá debas definir objetivos por etapas, para ir de escalón a escalón y no tratar de subir una escalera de un solo salto. Ten en mente que debes evitar la sobrecarga de los recursos de TI y humanos. Si el objetivo no es factible en el momento, es posible que antes debas aumentar los recursos para tener posibilidades de tener éxito. Quizá primero debas establecer un objetivo SMART sobre la obtención de los recursos antes de definir otro objetivo. Las preguntas que deberías plantearte podrían ser las siguientes: ¿qué se necesita para conseguirlo? y ¿disponemos de los recursos para hacerlo?
- Relevant (Relevante): Los objetivos deben estar alineados con las necesidades estratégicas y operativas de la empresa. A lo que nos referimos es que no establezcas objetivos solo como un ejercicio. Una forma de determinar si el objetivo es relevante es definir el beneficio clave para la organización, tales como mejorar la atención al cliente, acelerar la recuperación en caso de desastre, etc. Las preguntas correspondientes son las siguientes: ¿contribuye a la meta de la organización?, ¿a quiénes impacta?, ¿por qué es importante?
- Time-bound (Tiempo definido): Los objetivos deben tener una fecha límite para mantener el enfoque y la productividad. Esto es porque un objetivo sin fecha límite no sirve de mucho para poder identificar si se tuvo éxito o se ha fracasado en el intento. También nos referimos a que, a partir del éxito o no, puedas establecer nuevas metas. Por eso es importante establecer fechas límite en los objetivos. Las preguntas que puedes plantearte son: ¿cuál es la fecha límite para conseguirlo? o ¿hay fechas para algunas fases del proyecto?
Para tener más claro cómo aplicar esta metodología, veremos a continuación algunos ejemplos de objetivos SMART, tomando en cuenta cada uno de sus elementos.
Ejemplos prácticos de objetivos SMART en IT
A continuación, te damos algunos ejemplos de objetivos SMART en la gestión de TI para saber cómo definirlos y redactarlos, considerando sus cinco elementos en una tabla para que sea más claro:
- Objetivo SMART para mejorar el tiempo de respuesta de servidores.
Specific (Específico)
|
Measurable (Medible)
|
Achievable (Alcanzable)
|
Relevant (Relevante)
|
Time-bound (Tiempo definido)
|
Reducir el tiempo de respuesta de los servidores web.
|
Disminuir de 500 ms a 200 ms el tiempo de respuesta promedio.
|
Mejorar la configuración del servidor y en la red de distribución de contenido (CDN).
|
Mejorar la experiencia de usuario y aumentar la satisfacción de los clientes.
|
Lograr la reducción del tiempo de respuesta de los servidores en un plazo de 6 meses.
|
Cómo lo puedes redactar: Reducir el tiempo de respuesta de los servidores web de 500 ms a 200 ms, mediante mejoras en la configuración del servidor y en la red de distribución de contenido, con el fin de crear una mejor experiencia de los usuarios y clientes en un plazo de 6 meses.
|
- Objetivo SMART para reducir el tiempo de inactividad de aplicaciones críticas
Specific (Específico)
|
Measurable (Medible)
|
Achievable (Alcanzable)
|
Relevant (Relevante)
|
Time-bound (Tiempo definido)
|
Reducir el tiempo de inactividad de las aplicaciones críticas.
|
Disminuir el tiempo de inactividad de 5 horas al mes a menos de 1 hora al mes.
|
Implementar un sistema de monitoreo 24×7, realizar mantenimientos preventivos regulares y establecer un protocolo de respuesta rápida ante incidentes.
|
Asegurar la disponibilidad continua de las aplicaciones críticas para mantener la productividad y la satisfacción del cliente.
|
Lograr la reducción de la inactividad de las aplicaciones críticas en un plazo de 3 meses.
|
Cómo lo puedes redactar: Reducir el tiempo de inactividad de las aplicaciones críticas de 5 horas a menos de 1 hora al mes, implementando la monitorización de sistemas y aplicaciones sobre una base de 24 x 7, el mantenimiento preventivo regular y protocolos de respuesta rápida ante incidentes, con el fin de asegurar la disponibilidad, la productividad y la satisfacción del cliente en un plazo de 3 meses.
|
- Objetivo SMART para la optimización de la capacidad de red en entornos distribuidos.
Specific (Específico)
|
Measurable (Medible)
|
Achievable (Alcanzable)
|
Relevant (Relevante)
|
Time-bound (Tiempo definido)
|
Optimizar la capacidad de red en entornos distribuidos.
|
Aumentar la capacidad de red en un 30% y reducir la latencia en un 20%.
|
Implementar tecnologías de balanceo de carga, mejorar la infraestructura de red y utilizar herramientas de monitoreo avanzadas.
|
Asegurar un óptimo rendimiento y una alta disponibilidad de los servicios en entornos distribuidos.
|
Lograr las mejoras en la capacidad de la red en un plazo de 4 meses.
|
Cómo lo puedes redactar: Optimizar en 4 meses la capacidad de red en entornos distribuidos, mediante el incremento de 30% en la capacidad de red y la reducción de la latencia en un 20%, implementando tecnologías de balanceo de carga (tales como red de distribución de contenido, adopción de MPLS, priorización de tráfico), mejoras en la infraestructura de red y el uso de herramientas de monitoreo avanzadas, para asegurar el rendimiento óptimo y la alta disponibilidad de los servicios en entornos distribuidos.
|
Beneficios de los objetivos SMART
Cuando has establecido objetivos SMART puedes obtener claras ventajas para ti y tu equipo a cargo de la gestión de TI:
- Mejoras en la comunicación mediante la claridad sobre lo que se quiere lograr y cómo lograrlo.
- Cuando se mide, se puede mejorar, sin subjetividad. Se puede dar seguimiento al progreso, además de establecer mecanismos de responsabilidad e incluso incentivos.
- Aumento en la confianza y prevención de frustraciones gracias al carácter alcanzable de los objetivos.
- Compromiso del equipo para lograr objetivos en un plazo definido generando un sentido de priorización y responsabilidad.
Y algo muy importante es la relevancia de los objetivos, buscando que éstos siempre estén alineados con las metas de la organización, generando un impacto positivo y tangible para el negocio.
Desventajas o, mejor dicho, consideraciones sobre los objetivos SMART
Siempre hay que ver la otra cara de la moneda para evitar alguna frustración al implementar una metodología. Por lo que te recomendamos tener en cuenta lo siguiente:
- Evita caer en la falta de flexibilidad. Puede ser que existan limitaciones por aspectos específicos que te impidan explorar opciones fuera de la metodología. Debes ser capaz de adaptarte ante condiciones cambiantes. Es perfectamente posible reajustar objetivos.
- Enfoque excesivo en los resultados. Cierto es que los objetivos SMART se enfocan en los resultados finales. Esto puede generar frustración si no se logra el éxito inmediato. No pierdas de vista el aprendizaje en el camino.
- No usar la intuición. Aunque los objetivos SMART son redactados con el fin de mantener una planificación, no dejes de lado la intuición. Confía en lo que tus instintos y la experiencia pueden complementar a lo que has dejado por escrito en tus objetivos SMART.
Y no solo hay objetivos SMART sino también los SMARTER
A los elementos de SMART se han añadido más como Evaluación y Revisión, convirtiéndose en objetivos S.M.A.R.T.E.R. donde E.R. se refieren a:
- Evaluation (Evaluación): Los objetivos deben ser evaluados periódicamente sobre su progreso con el fin de poder realizar los ajustes necesarios.
- Review (Revisión): Hay que revisar continuamente los objetivos para asegurarnos de que sigan siendo relevantes y alcanzables, sobre todo cuando sabemos que las condiciones del negocio cambian y, por ende, las iniciativas de TI deben sincronizarse a esas necesidades
Como puedes ver, al incorporar evaluación y revisión en los objetivos SMART, se busca garantizar una evaluación y adaptación continuas, manteniendo el enfoque y las mejoras a largo plazo.
Conclusión: Cómo los objetivos SMART mejoran los proyectos IT
Adoptar la metodología de objetivos SMART ayuda a optimizar los proyectos de monitorización de TI, ya que permite que el staff de TI mirar hacia los mismos objetivos, mejorando la comunicación sobre qué y cómo se quiere lograr en forma objetiva, medible y confiable, además de establecer un compromiso conjunto. El fin último de este tipo de objetivos es generar un impacto relevante para el negocio y sus clientes.
Pandora FMS recomienda acercarse a sus consultores para saber cómo llevar a cabo los objetivos SMART apoyándose en una solución integral e intuitiva para la monitorización y la observabilidad de los sistemas, de cada uno de sus componentes y sus servicios. Por ejemplo, Pandora FMS cuenta con capacidades para detectar los factores que impactan en la experiencia del usuario.
por Olivia Díaz | Oct 18, 2024 | Pandora FMS
Introducción a MPLS y su relevancia en las redes empresariales
¿Qué es MPLS?
En la infraestructura de TI que da servicio a las empresas cada vez más digitalizada, la criticidad de la calidad del servicio de la red es más que evidente para asegurar la conectividad a todos y en cualquier momento. Los administradores de sistemas y redes deben comprender qué tecnología permite la transmisión de datos eficiente, confiable y con la menor latencia posible entre aplicaciones y servicios de TI. Por esa razón te presentamos el método MPLS (Multiprotocol Label Switching), que hace referencia al “switcheo” o la conmutación de etiquetas multiprotocolo (redes conmutadas por circuitos y redes conmutadas por paquetes). Esto es porque MPLS integra la información de los enlaces de red (ancho de banda, latencia, uso de red) con la IP (Internet Protocol, protocolo de internet) dentro de un sistema en particular (un ISP, Internet Service Provider, o proveedor de servicios de internet) para simplificar y mejorar el intercambio de paquetes IP. A diferencia de las redes tradicionales, basadas en IP, MPLS usa un sistema de etiquetas para gestionar el tráfico en la red de manera más rápida y efectiva.
Importancia de MPLS en infraestructuras de red para empresas que buscan reducir la latencia y mejorar la fiabilidad
Para una estrategia integral de conectividad resiliente, el valor de MPLS radica en la capacidad de ayudar a los operadores en la gestión adecuada de los recursos de la red, a partir de etiquetas, para desviar y enrutar el tráfico en forma flexible y de acuerdo con las necesidades del negocio, logrando mayor velocidad y reduciendo la latencia, al mismo tiempo que se evitan fallos en los enlaces, la congestión de la red y aparición de cuellos de botella.
Ventajas de MPLS para las infraestructuras IT
Como hemos visto, el objetivo principal de MPLS es simplificar significativamente el enrutamiento y mejorar el rendimiento general de la red.
Entre sus ventajas, tenemos lo siguiente:
- Mejora en la calidad del servicio (QoS, Quality of Service)
Desde el punto de vista de la calidad de servicio, los ISP ayudan a gestionar los distintos tipos de flujos de datos en función de la prioridad y el plan de servicio. Por ejemplo, hay distintas necesidades para un área de negocio con un plan de servicio premium o que recibe una gran cantidad de contenido multimedia en streaming (o de gran ancho de banda), pudiendo experimentar latencia en el servicio de la red. Al ingresar los paquetes a una red MPLS, los enrutadores de borde de etiqueta (LER, Label Edge Routers) asignan una etiqueta o identificador que contienen información basada en la entrada de la tabla de enrutamiento (i.e. destino, ancho de banda, latencia y otras métricas) y hacen referencia al campo de encabezado IP (dirección IP de origen), la información del número de socket y el servicio diferenciado. Cada router de núcleo utiliza las etiquetas para determinar cuál es la ruta más eficiente hacia su destino. Es decir, se está realizando una conmutación (o switching) con base en etiquetas y su prioridad para que los paquetes de datos se muevan a lo largo de la red con precisión y rapidez. Cabe tener en cuenta que las métricas de QoS incluyen parámetros como ancho de banda, retraso, fluctuación, pérdida de paquetes, disponibilidad y confiabilidad, que reflejan las características y el comportamiento de la red y el tráfico. Lo relevante de esto es que MPLS admite mecanismos de QoS que priorizan el tráfico crítico, lo que garantiza que las aplicaciones de alta prioridad se beneficien de la optimización del ancho de banda y una baja latencia.
- Cumplimiento de SLA en redes distribuidas
En la gestión de servicios, se debe vigilar el cumplimiento de los compromisos asentados en un acuerdo de nivel de servicio (SLA, Service-Level Agreement). Mediante MPLS, es posible garantizar el rendimiento de la red, ya que permite la creación de rutas dedicadas para paquetes de datos. Esto asegura la implementación de métricas de rendimiento de la red (latencia, fluctuación y pérdida de paquetes) en forma consistente. También las redes MPLS están diseñadas con capacidades de redundancia y conmutación por error, que mejoran la confiabilidad y el tiempo de actividad de la red. La suma de esto garantiza que la operabilidad de la red permanezca operativa y el cumplimiento con los objetivos de disponibilidad especificados en los SLA.
- Eficiencia en el uso del ancho de banda y priorización de tráfico
Las redes MPLS proporcionan herramientas sólidas para supervisar y gestionar el rendimiento de la red, ya que se utilizan etiquetas para enrutar paquetes a través de la red. A cada paquete se le asigna una etiqueta que determina su ruta y prioridad. En comparación con el enrutamiento tradicional, MPLS es más eficiente, ya que permite implementar la ingeniería de tráfico, ayudando a los operadores de red a optimizar el flujo de datos a través de la red. Al controlar las rutas que toman los paquetes de datos, MPLS puede evitar la congestión y garantizar que el tráfico de alta prioridad se entregue de manera eficiente. También MPLS permite adoptar la clase de servicio (CoS, Class of service), que es un parámetro que se usa en los protocolos de datos y voz, críticos para muchas aplicaciones de negocio. Esto es porque MPLS ayuda a clasificar y administrar el tráfico en función de las clases de servicio predefinidas, según su criticidad y el nivel de servicio requerido. Por esta razón, los proveedores de servicios pueden abordar con MPLS los problemas de forma más proactiva e incluso escalar fácilmente para adaptarse a las crecientes demandas de la red sin comprometer el rendimiento de la red.
MPLS vs. tecnologías emergentes como SD-WAN
En cuanto a la gestión de redes, como dicen los expertos, la elección entre MPLS, SD-WAN y tecnologías emergentes debe basarse en las necesidades específicas y el contexto de la organización.
Comparativa entre MPLS y SD-WAN
Para poder comparar entre estos métodos, debemos considerar que las redes de área amplia definidas por software (SD-WAN) usan la tecnología de virtualización para aplicar los beneficios de las redes definidas por software, a diferencia de las redes tradicionales, que se basan en hardware y están centradas en enrutadores para dirigir el tráfico través de una red de área amplia (WAN). SD-WAN aprovecha la conectividad de red para mejorar el rendimiento de las aplicaciones, acelerar la productividad y simplificar la gestión de la red. Generalmente, los dispositivos SD-WAN suelen estar conectados a múltiples enlaces de red para garantizar la resiliencia ante una posible interrupción o degradación del servicio de la red de un proveedor. Lo que sí hay que tener en mente es que SD-WAN no necesariamente se sujeta al cumplimiento y niveles de servicio (SLA).
Por otro lado, MPLS, como explicábamos antes, envía los paquetes por rutas de red predeterminadas, evitando la conexión a Internet pública y brindando mayor garantía de confiabilidad y rendimiento para el servicio WAN corporativo. Además, los acuerdos de nivel de servicio (SLA) de MPLS garantizan un cierto nivel de rendimiento y tiempo de actividad. Entonces, MPLS es un método recomendado para organizaciones que necesitan alta confiabilidad, baja latencia y calidad de Servicio (QoS) para aplicaciones críticas, aunque hay que considerar que su costo de implementación es más alto y es menos flexible que SD-WAN. Esto es porque MPLS requiere circuitos dedicados entre cada ubicación, lo cual tiene su ciencia y puede llevar un tiempo considerable para agregar o eliminar ubicaciones de la red.
Para dejar más claras la diferencias, hemos añadido esta tabla:
SD-WAN
|
MPLS
|
Ofrece un modelo de costos más predecible con precios fijos.
|
El coste generalmente se basa en el uso del ancho de banda.
|
Ofrece un buen rendimiento al aprovechar múltiples enlaces de transporte y una gestión inteligente del tráfico.
|
Ofrece mayor confiabilidad y desempeño especialmente para aplicaciones sensibles a la latencia, como VoIP y videoconferencias.
|
Se puede integrar fácilmente con aplicaciones y servicios basados en la nube, lo que puede resultar ideal para las organizaciones que se están expandiendo rápidamente o que tienen una fuerza laboral distribuida.
|
Se requieren circuitos dedicados entre los destinos de la red, por lo que realizar cambios no es tan ágil y puede tomar su tiempo y costo realizarlos.
|
Ofrece funciones de seguridad avanzadas (ejemplo: cifrado y microsegmentación) que pueden mejorar la seguridad de la red y proteger contra ciberamenazas.
|
Generalmente depende de medidas de seguridad físicas, como circuitos privados y líneas dedicadas para proteger el tráfico de la red.
|
Confiabilidad potencialmente menor que MPLS, particularmente para aplicaciones sensibles a la latencia.
|
Confiabilidad alta, especialmente para aplicaciones que son muy sensibles a la latencia y el desempeño.
|
Cómo SD-WAN y MPLS pueden complementarse
Ahora que tenemos claro la diferencia entre SD-WAN y MPLS, también debemos considerar que ambos métodos no compiten entre sí, sino que pueden complementarse por lo siguiente:
- Rentabilidad: SD-WAN puede aprovechar conexiones de Internet de banda ancha de menor costo junto con MPLS, lo que reduce los costos generales de la red y, al mismo tiempo, mantiene un alto rendimiento de la red para aplicaciones críticas.
- Rendimiento de la red: MPLS proporciona conexiones confiables y de baja latencia para aplicaciones de misión crítica, mientras que SD-WAN puede enrutar el tráfico menos crítico a través de banda ancha u otras conexiones disponibles. La suma de ambos métodos optimiza el uso del ancho de banda.
- Redundancia y confiabilidad: Combinar MPLS y SD-WAN ofrece mayor redundancia. Si falla un enlace MPLS, SD-WAN puede redirigir automáticamente el tráfico a través de rutas alternativas. Con esto, se garantiza una conectividad continua.
- Escalabilidad: Mediante SD-WAN, tu equipo puede simplificar la incorporación de nuevos sitios y conexiones. Con MPLS se puede gestionar el tráfico de alta prioridad, dejando que el resto se gestione con SD-WAN. Con esto, estarás implementando la escalabilidad y la flexibilidad para adaptarse a las necesidades del negocio.
- Seguridad: Mediante SD-WAN tus empleados de TI y seguridad pueden aprovecharse de que es común que incluya funciones de seguridad integradas (cifrado y firewalls) que pueden complementar la estrategia de seguridad de MPLS, ya que estarías añadiendo una capa adicional de protección.
También, MPLS combinada con tecnologías emergentes como la Inteligencia Artificial, puede ofrecer mejoras significativas en la gestión y optimización de redes mediante la optimización del tráfico de la red, la detección de anomalías, la automatización de tareas para gestionar las redes, entre otras.
Como puedes ver, tu equipo puede aprovechar los puntos fuertes de ambos métodos y tecnologías emergentes para lograr una red más eficiente, confiable y rentable.
Cómo Pandora FMS monitoriza redes MPLS
Características de Pandora FMS que permiten monitorizar el tráfico de redes MPLS
Pandora FMS es una solución de monitorización flexible y escalable que ofrece múltiples funcionalidades específicas para supervisar redes MPLS (Multiprotocol Label Switching). A continuación, se detallan las principales características que facilitan esta monitorización:
- Monitorización de Ancho de Banda y Tráfico:
- SNMP (Simple Network Management Protocol): Pandora FMS utiliza SNMP para recolectar datos en tiempo real sobre el uso del ancho de banda y el tráfico de las interfaces de red MPLS.
- NetFlow y sFlow: Estas tecnologías permiten el análisis detallado del flujo de tráfico, identificando patrones y posibles cuellos de botella en la red MPLS.
- Monitorización de Latencia y Pérdida de Paquetes:
- Pruebas de Ping y Traceroute: Pandora FMS ejecuta estas pruebas de forma periódica para medir la latencia y detectar la pérdida de paquetes en las rutas MPLS.
- Monitorización de RTT (Round-Trip Time): Evaluación continua del tiempo que tardan los paquetes en viajar desde el origen hasta el destino y viceversa.
- Gestión de SLA (Service Level Agreements):
- Alertas Personalizadas: Configuración de alertas basadas en el cumplimiento de los SLA definidos para la red MPLS, asegurando que cualquier desviación sea detectada y gestionada de inmediato.
- Informes de Cumplimiento: Generación de informes detallados que muestran el grado de cumplimiento de los SLA, facilitando la toma de decisiones informadas.
- Visualización y Paneles de Control:
- Dashboards Personalizables: Pandora FMS permite crear paneles de control específicos para redes MPLS, mostrando métricas clave como el uso de ancho de banda, latencia, y pérdida de paquetes.
- Mapas de Red Interactivos: Visualización gráfica de la topología de la red MPLS, facilitando la identificación rápida de puntos críticos y problemas potenciales.
- Integración con Herramientas de Gestión de Redes:
- API y Webhooks: Integración con otras herramientas de gestión y automatización, permitiendo una respuesta rápida y coordinada ante incidentes en la red MPLS.
- Compatibilidad con Protocolos de Seguridad: Asegura que la monitorización se realice de manera segura, protegiendo los datos sensibles de la red MPLS.
Ejemplos de cómo asegurar la calidad del servicio y optimización de los SLA
Asegurar la calidad del servicio (QoS) y optimizar los SLA es fundamental para mantener una red MPLS eficiente y confiable. Pandora FMS ofrece varias funcionalidades que facilitan este proceso:
- Prioridad de Tráfico:
- Clasificación de Tráfico: Utilizando reglas definidas, Pandora FMS puede identificar y priorizar tipos de tráfico críticos (como VoIP o aplicaciones en tiempo real) sobre otros menos sensibles a la latencia.
- Asignación de Ancho de Banda: Ajuste dinámico del ancho de banda asignado a diferentes tipos de tráfico para garantizar que las aplicaciones prioritarias siempre tengan los recursos necesarios.
- Monitorización Proactiva de SLA:
- Alertas en Tiempo Real: Configuración de alertas para notificar al equipo de TI cuando los indicadores de SLA (como la disponibilidad o el tiempo de respuesta) caen por debajo de los niveles acordados.
- Análisis de Tendencias: Evaluación de datos históricos para identificar tendencias que puedan afectar futuros SLA, permitiendo ajustes preventivos en la configuración de la red MPLS.
- Optimización de Rutas:
- Análisis de Tráfico y Rendimiento: Utilizando datos recolectados por Pandora FMS, se pueden identificar rutas subóptimas y reconfigurar el enrutamiento MPLS para mejorar el rendimiento general de la red.
- Distribución de Carga: Distribución equitativa del tráfico entre diferentes rutas MPLS para evitar sobrecargas y mejorar la eficiencia del uso del ancho de banda.
- Informes Detallados de SLA:
- Informes Personalizados: Creación de informes que muestran el cumplimiento de los SLA en intervalos específicos, proporcionando una visión clara del rendimiento de la red MPLS.
- Análisis de Incidentes: Documentación de incidentes que han afectado a los SLA, facilitando la identificación de causas raíz y la implementación de medidas correctivas.
Casos de uso de MPLS en combinación con Pandora FMS
Pandora FMS (Sistema de Monitorización Flexible) se puede utilizar eficazmente con MPLS en varios escenarios para mejorar la monitorización y la gestión de la red:
- Monitorización de sistemas centralizada: Pandora FMS puede monitorizar múltiples sitios conectados a través de MPLS desde una ubicación central. Esto es porque desde los dispositivos se pueden recopilar datos de forma automática desde fuentes remotas (por ejemplo, Telemetría) para luego transmitir esos datos a una ubicación central (en el panel de Pandora FMS) en donde estos se analizan para la monitorización y control de los sistemas y redes. En los ecosistemas de negocios, la telemetría es fundamental para administrar y gestionar la infraestructura informática. Esta configuración permite una supervisión integral del rendimiento de la red, lo que garantiza que todos los enlaces MPLS funcionen de manera óptima.
- Seguimiento del rendimiento: Al integrarse con MPLS, Pandora FMS puede rastrear las métricas de rendimiento de la red como la latencia, la fluctuación y la pérdida de paquetes. Esto ayuda a mantener la calidad del servicio (QoS) y garantizar que las aplicaciones críticas reciban el ancho de banda necesario.
- Detección y resolución de fallos: Pandora FMS detecta fallos en redes MPLS y genera alertas en tiempo real. Esto permite a tu equipo la identificación y resolución de problemas en forma rápida y eficiente, minimizando la inactividad y manteniendo la confiabilidad de la red.
- Análisis de tráfico: Con Pandora FMS, puede analizar patrones en el tráfico de enlaces MPLS. Esto ayuda a analizar el uso del ancho de banda, prevenir cuellos de botella y optimizar el flujo de tráfico.
- Escalabilidad: Pandora FMS, desde una misma consola, ofrece la capacidad de monitorización de redes MPLS a gran escala, especialmente para organizaciones con infraestructuras de red muy extensas y complejas.
- Implementación de soluciones de monitorización y detección de problemas de seguridad: Pandora FMS puede monitorizar los aspectos de seguridad de las redes MPLS, garantizando que se mantenga segura y, en caso de amenaza potencial, se identifique y aborde rápidamente las problemáticas.
Conclusión
Sin duda alguna, quienes están a cargo de las redes deben diseñar una verdadera estrategia de gestión, apoyándose en metodologías y tecnologías emergentes para satisfacer la necesidad de transmisión de datos eficiente, confiable y con la menor latencia posible, al mismo tiempo que se evita las fallos en los enlaces, la congestión de la red y la generación de cuellos de botella. MPLS es una metodología, que, si se combina con Pandora FMS, puede ayudar a tu equipo a implementar mecanismos para priorizar el tráfico crítico para aplicaciones de alta prioridad, que demandan un ancho de banda óptimo y una baja latencia. Adicionalmente, se pueden combinar las ventajas de MPLS con las de SD-WAN para abordar los problemas potenciales de forma más proactiva e incluso hacer escalamientos en forma flexible para ajustarse a las necesidades de la empresa.
Es decir, con Pandora FMS se impulsan las tres ventajas principales de MPLS en la monitorización de redes:
- Mejora en la calidad del servicio. MPLS admite mecanismos de QoS para priorizar el tráfico crítico. Pandora FMS puede identificar y priorizar tipos de tráfico críticos sobre otros menos sensibles a la latencia. Desde una consola, se puede medir el ancho de banda y el consumo de la red en tiempo real para asegurar la calidad del servicio.
- Cumplimiento de SLA en redes distribuidas. Mediante MPLS se pueden crear rutas dedicadas para paquetes de datos. También se pueden implementar métricas de rendimiento de la red (latencia, fluctuación y pérdida de paquetes) en forma consistente. Con Pandora FMS se puede configurar alertas para notificar al staff de TI cuando algún indicador de SLA se halla por debajo de los niveles acordados.
- Eficiencia en el uso del ancho de banda y priorización de tráfico. Comparado con el enrutamiento tradicional, MPLS es más eficiente porque se puede controlar y priorizar rutas para los paquetes de datos. Pandora FMS te puede ayudar a identificar rutas subóptimas y a reconfigurar el enrutamiento MPLS para mejorar el rendimiento de la red.
Te invito a conocer la experiencia de usar Pandora FMS. Accede a una licencia de prueba con todas las funcionalidades en: Pandora FMS free trial.
O si ya tienes Pandora FMS, visita nuestro sistema de versiones y actualizaciones en nuestra web →
por Ahinóam Rodríguez | Last updated Aug 21, 2024 | Pandora FMS
El subnetting es el proceso de dividir una red en varias subredes más pequeñas e independientes. Cada subred es una porción de la red principal que sigue una lógica específica. Conocemos la definición del uso de subredes en redes locales que podríamos utilizar en nuestra empresa, ya que los beneficios de utilizar el subnetting son varios:
- Aumento del rendimiento de la red: La cantidad de tráfico de datos en una red con subredes se ve reducida, al ser capaces de enviar el tráfico a la red o entre la red concreta que se necesite para que llegue al destino. Así mismo, se reduce el tráfico de broadcast (paquetes que se envían a todos los dispositivos de la red) entre la red principal, al ser capaces de enviarlo solo a subredes concretas.
- Mejora de la seguridad en la red: Las subredes pueden estar aisladas entre sí, con lo cual es más sencillo establecer límites entre los diferentes segmentos de la red por medio de un firewall.
- Facilidad en la administración de la red: Tener varias subredes aumenta la flexibilidad en la gestión de la red en comparación con trabajar con una sola red.
Proceso para crear subredes
Antes de comenzar a crear subredes, es importante conocer tres conceptos clave:
- Dirección IP originaria: Esta es la dirección IP base de la que partiremos para crear las subredes necesarias. Las direcciones IPv4 se dividen en clases (A, B, C, D y E). En redes LAN, generalmente se usan direcciones de clase A (10.0.0.0 – 10.255.255.255), clase B (172.16.0.0 – 172.31.255.255) o clase C (192.168.0.0 – 192.168.255.255).
- Máscara de subred: Indica qué parte de la dirección IP corresponde al número de la red y la subred, y qué parte corresponde a los hosts. Además, ayuda a los dispositivos a identificar si un host está dentro de una subred local o viene de una red remota.
- Dirección de broadcast: Es la dirección más alta de una subred y permite el tráfico simultáneo entre todos los nodos de una subred. Un paquete enviado a la dirección de broadcast será recibido por todos los dispositivos de la subred.
Con estos conceptos claros, podemos comenzar a calcular las subredes.
- Elección de la dirección IP de origen: La elección de la IP de origen para una red local generalmente será de clase A, B o C y dependerá del número de hosts necesarios. Para este ejemplo, usaremos la dirección de clase C 192.168.1.0/24.
- Determinación del número de subredes: Necesitamos decidir cuántas subredes queremos o necesitamos crear. A más subredes, menos direcciones IP estarán disponibles para los hosts. En nuestro ejemplo, crearemos 4 subredes.
- Cálculo de la máscara de subred: Partiendo de la IP 192.168.1.0/24, donde /24 indica que usamos 24 bits para la subred, lo que deja 8 bits para los hosts. Esto se traduce en binario como:
11111111.11111111.11111111.00000000
bits de subred (24) bits de hosts (8)
- Tomar bits prestados para subredes: Para crear subredes, tomamos bits de los disponibles para hosts. La fórmula para calcular cuántos bits necesitamos es:
2^n >= N
Donde N es la cantidad de subredes (4 en nuestro ejemplo) y n es el número de bits necesarios. Aquí, n es igual a 2, ya que: 2^2 >= 4
- Nueva máscara de subred: Al tomar 2 bits de la parte de hosts, nuestra nueva máscara de subred será:
11111111.11111111.11111111.11000000
bits de subred (26) / bits de hosts (6)
Esto se traduce a /26 o 255.255.255.192.
- Asignación de direcciones IP originarias para cada subred: Usando los dos bits prestados, obtenemos las siguientes combinaciones:
192.168.1.0/26
192.168.1.64/26
192.168.1.128/26
192.168.1.192/26
- Cálculo de IPs para cada subred: Para cada subred, calculamos la primera y última dirección IP utilizable y la dirección de broadcast:
- Subred 192.168.1.0/26:
- Primera IP: 192.168.1.1
- Última IP: 192.168.1.62
- Dirección de broadcast: 192.168.1.63
- Subred 192.168.1.64/26:
- Primera IP: 192.168.1.65
- Última IP: 192.168.1.126
- Dirección de broadcast: 192.168.1.127
- Subred 192.168.1.128/26:
- Primera IP: 192.168.1.129
- Última IP: 192.168.1.190
- Dirección de broadcast: 192.168.1.191
- Subred 192.168.1.192/26:
- Primera IP: 192.168.1.193
- Última IP: 192.168.1.254
- Dirección de broadcast: 192.168.1.255
Resumiendo en una tabla:
Subred
|
Primera IP
|
Última IP
|
IP principal
|
IP Broadcast
|
192.168.1.0/26
|
192.168.1.1
|
192.168.1.62
|
192.168.1.0
|
192.168.1.63
|
192.168.1.64/26
|
192.168.1.65
|
192.168.1.126
|
192.168.1.64
|
192.168.1.127
|
192.168.1.128/26
|
192.168.1.129
|
192.168.1.190
|
192.168.1.128
|
192.168.1.191
|
192.168.1.192/26
|
192.168.1.193
|
192.168.1.254
|
192.168.1.192
|
192.168.1.255
|
Para facilitar la tarea de realizar estos cálculos, existen calculadoras online como esta.
Comunicación entre subredes
Aunque las subredes formen parte de la misma red local, cada subred es una red distinta. Para que los dispositivos de diferentes subredes se comuniquen, es necesario un enrutador. El enrutador determina si el tráfico es local o remoto utilizando la máscara de subred.
Cada subred se conecta a una interfaz del enrutador, a la cual se le asigna una IP de las disponibles para hosts. Esta dirección será la gateway predeterminada que configuraremos en los equipos de esa subred. Todos los equipos deben tener la misma máscara de subred (255.255.255.192 en nuestro ejemplo).
Subredes IPv6
La creación de subredes IPv6 es diferente y a menudo menos compleja que IPv4. En IPv6 no se necesita reservar direcciones para una red o una dirección de broadcast. Teniendo en cuenta que IPv4 reserva direcciones para la red principal y broadcast en cada subred, en IPv6 no existen estos conceptos.
Creación de una subred IPv6

Una dirección IPv6 Unicast tiene 128 bits en formato hexadecimal. Estos 128 bits se dividen en los siguientes elementos:
- Prefijo de enrutamiento global: Los primeros 48 bits indican la porción de red asignada por el proveedor de servicio a un cliente.
- ID de subred: Los siguientes 16 bits después del prefijo de enrutamiento global se utilizan para identificar las diferentes subredes.
- ID de interfaz: Los últimos 64 bits son el equivalente a los bits de hosts de una dirección IPv4. Esto permite que cada subred admita hasta 18 quintillones de direcciones de hosts por subred.
Para crear subredes IPv6, simplemente incrementamos el ID de subred de manera incremental:
Ejemplo:
- Prefijo de enrutamiento global: 2001:0db8:000b::/48
- Subredes:
- 2001:0db8:000b:0001::/64
- 2001:0db8:000b:0002::/64
- 2001:0db8:000b:0003::/64
- 2001:0db8:000b:0004::/64
- 2001:0db8:000b:0005::/64
- 2001:0db8:000b:0006::/64
- 2001:0db8:000b:0007::/64
Redes punto a punto
Una red punto a punto comunica directamente dos nodos, facilitando la comunicación entre ellos, ya que cada canal de datos se usa solo para comunicar entre esos dos dispositivos.
Subred punto a punto
Una subred punto a punto tiene una máscara /31, dejando solo dos direcciones disponibles para los hosts. No se necesita una IP de broadcast en este tipo de configuración, ya que solo hay comunicación entre dos equipos.
Este tipo de redes se usan más en WAN que en LAN, siendo fáciles de configurar y de bajo costo, aunque no son escalables y su rendimiento es limitado, ya que todos los dispositivos pueden actuar como cliente y servidor en un único enlace.
Desventajas y limitaciones de las subredes
Aunque las subredes proporcionan varias ventajas, también presentan limitaciones:
- Complejidad de diseño de la red: El diseño inicial y la configuración pueden ser desafiantes, y es necesario mantener un esquema claro de toda la red para su correcto mantenimiento.
- Desperdicio de direcciones IP: Cada subred necesita reservar dos IPs (dirección principal y dirección de broadcast) que no pueden ser asignadas a dispositivos. Además, si se aíslan las subredes y todas tienen el mismo tamaño, las direcciones no utilizadas en una subred no pueden ser utilizadas en otra.
- Requiere un enrutador adecuado: Es necesario un enrutador capaz de manejar la infraestructura, lo que aumenta la complejidad en las tablas de enrutamiento.
A pesar de estas limitaciones, los beneficios del subnetting suelen superar las desventajas, por lo que es una práctica común en muchas compañías para mejorar el rendimiento y la seguridad de sus redes.
¿Qué significan las diferentes partes de una dirección IP?
Esta sección se centra en las direcciones IPv4, que se presentan en forma de cuatro números decimales separados por puntos, como 203.0.113.112. (Las direcciones IPv6 son más largas y usan letras y números).
Cada dirección IP tiene dos partes. La primera parte indica a qué red pertenece la dirección. La segunda parte especifica el dispositivo en esa red. Sin embargo, la longitud de la “primera parte” cambia en función de la clase de red.
Las redes se clasifican en diferentes clases, etiquetadas de la A a la E. Las redes de clase A pueden conectar millones de dispositivos. Las redes de clase B y clase C son progresivamente más pequeñas. (Las redes de clase D y de clase E no se suelen utilizar).
Desglose de clases de redes
- Red de clase A: Todo lo que va antes del primer punto indica la red, y todo lo que va después especifica el dispositivo en esa red. Si usamos 203.0.113.112 como ejemplo, la red se indica con “203” y el dispositivo con “0.113.112.”
- Red de clase B: Todo lo que va antes del segundo punto indica la red. Si usamos de nuevo 203.0.113.112 como ejemplo, “203.0” indica la red y “113.112” indica el dispositivo en esa red.
- Red de clase C: En las redes de clase C, todo lo que va antes del tercer punto indica la red. Si usamos el mismo ejemplo, “203.0.113” indica la red de clase C, y “112” indica el dispositivo.
Importancia de las subredes
La construcción de las direcciones IP hace que sea relativamente sencillo que los routers de Internet encuentren la red correcta a la que dirigir los datos. Sin embargo, en una red de clase A, por ejemplo, puede haber millones de dispositivos conectados, y los datos pueden tardar en encontrar el dispositivo adecuado. Por ello es útil la subred: la subred acota la dirección IP para su uso dentro de un rango de dispositivos.
Dado que una dirección IP se limita a indicar la red y la dirección del dispositivo, las direcciones IP no pueden utilizarse para indicar a qué subred debe ir un paquete IP. Los routers en una red utilizan algo que se conoce como máscara de subred para clasificar los datos en subredes.
¿Qué es una máscara de subred?
Una máscara de subred es como una dirección IP, pero solo para uso interno dentro de una red. Los routers utilizan las máscaras de subred para dirigir los paquetes de datos al lugar adecuado. Las máscaras de subred no se indican dentro de los paquetes de datos que atraviesan Internet: esos paquetes solo indican la dirección IP de destino, que un router hará coincidir con una subred.
Ejemplo de máscara de subred
Supongamos que un paquete IP se dirige a la dirección IP 192.0.2.15. Esta dirección IP es una red de clase C, por lo que la red se identifica con “192.0.2” (o técnicamente, 192.0.2.0/24). Los routers de la red reenvían el paquete a un servidor de la red que se indica con “192.0.2.”
Una vez que el paquete alcanza esa red, un router de la red consulta su tabla de enrutamiento. Realiza operaciones matemáticas binarias con su máscara de subred de 255.255.255.0, ve la dirección del dispositivo “15” (el resto de la dirección IP indica la red) y calcula a qué subred debe ir el paquete. Reenvía el paquete al router o conmutador responsable de entregar los paquetes en esa subred, y el paquete llega a la dirección IP 192.0.2.15.
En resumen, una máscara de subred ayuda a los routers a clasificar y dirigir el tráfico de manera eficiente dentro de una red grande, mejorando así el rendimiento y la organización de la red.
Conclusión
El subnetting es una técnica crucial para dividir redes grandes en subredes más manejables, mejorando así el rendimiento, la seguridad y la administración de la red. Aunque el proceso puede ser complejo, herramientas y calculadoras online pueden facilitarlo significativamente. La comprensión y aplicación efectiva del subnetting es esencial para cualquier administrador de redes.
por Olivia Díaz | Aug 5, 2024 | Pandora FMS
La infraestructura debe ser “invisible” para el usuario, pero visible para los estrategas de TI para asegurar el desempeño y los niveles de servicio que requiere el negocio, donde la observabilidad (como parte de SRE o ingeniería de confiabilidad del sitio) es esencial para comprender el estado interno de un sistema en función de sus resultados externos. Para obtener una observabilidad efectiva, existen cuatro pilares clave: métricas, eventos, logs (registros) y trazas (de seguimiento), que se resumen en el acrónimo MELT

A continuación, definiremos cada uno de estos pilares.
Métricas
¿Qué son las Métricas?
Son medidas numéricas, normalmente periódicas, que brindan información sobre el estado de un sistema y el rendimiento.
Ejemplos de métricas útiles
Tiempos de respuesta, tasas de error, uso de CPU, consumo de memoria y rendimiento de la red.
Ventajas del uso de métricas
Las métricas permiten a los equipos de TI y seguridad realizar un seguimiento de los indicadores clave de rendimiento (Key Performance Indicators, KPI) para detectar tendencias o anomalías en el comportamiento del sistema.
Eventos
¿Qué son los Eventos?
Son sucesos o hechos discretos dentro de un sistema, que pueden abarcar desde la creación de un módulo hasta el inicio de sesión de un usuario en la consola. El evento describe el problema, origen (agente) y creación.
Ejemplos de eventos en sistemas
Acciones de los usuarios (intentos de login del usuario), respuestas de HTTP, cambios en el estado del sistema u otros incidentes notables.
Cómo los eventos proporcionan contexto
Los eventos suelen capturarse como datos estructurados, incluyendo atributos como marca de tiempo, tipo de evento y metadatos asociados, dando mayores elementos e información al equipo de TI para entender el comportamiento del sistema y detectar patrones o anomalías.
Logs
¿Qué son los logs?
Son registros detallados de los eventos y las acciones que ocurren en un sistema. También estos datos recolectados proporcionan una vista cronológica de la actividad del sistema, ofreciendo más elementos para la resolución de problemas y la depuración, el entendimiento del comportamiento de los usuarios y el seguimiento de los cambios en el sistema. Los logs pueden contener información como mensajes de error, seguimientos de pila, interacciones del usuario, notificaciones sobre cambios en el sistema.
Formatos comunes de logs
Normalmente, los logs usan archivos planos, ya sea en codificaciones de caracteres tipo ASCII y se almacenan en forma de texto. Los formatos más conocidos son Microsoft IIS3.0, NCSA, O’Reilly o W3SVC. Además, existen formatos especiales como ELF (Extended Log Format) y CLF (Common Log Format).
Importancia de la centralización de logs
La centralización de los logs asegura una visión completa y más contextualizada del sistema en cualquier momento. Esto permite detectar problemas de manera proactiva y problemas potenciales, así como tomar medidas antes de que se conviertan en problemas mayores. También esta centralización permite contar con los elementos esenciales para auditorías y el cumplimiento regulatorio, ya que se puede demostrar el cumplimiento de políticas y regulaciones sobre seguridad.
Trazas
¿Qué son las Trazas?
Las trazas proporcionan una vista detallada del flujo de solicitudes a través de un sistema distribuido. Esto es porque captan la ruta de una solicitud a medida que atraviesa múltiples servicios o componentes, incluyendo el tiempo en cada paso. De esta manera, las trazas ayudan a comprender las dependencias y los potenciales cuellos de botella en el rendimiento, sobre todo en un sistema complejo. También las trazas permiten analizar cómo se puede optimizar la arquitectura del sistema para mejorar el rendimiento general y, en consecuencia, la experiencia del usuario final.
Ejemplos de trazas en sistemas distribuidos
- El intervalo o span es una operación cronometrada y con nombre que representa una parte del flujo de trabajo. Por ejemplo, los intervalos pueden incluir consultas de datos, interacciones por parte del navegador, llamadas a otros servicios, etc.
- Las transacciones pueden constar de varios tramos y representan una solicitud completa de un extremo a otro que viaja a través de varios servicios en un sistema distribuido.
- Los identificadores únicos para cada uno, con el fin de rastrear el recorrido de la solicitud a través de diferentes servicios. Esto ayuda a visualizar y analizar la ruta y la duración de la solicitud.
- La propagación del contexto de la traza implica pasar el contexto de la traza entre servicios.
- La visualización de la traza para mostrar el flujo de solicitudes a través del sistema, lo que ayuda a identificar fallos o cuellos de botella en el rendimiento.
También, las trazas proporcionan datos detallados para que los desarrolladores puedan realizar un análisis de causa raíz y con esa información abordar problemas relacionados con la latencia, los errores y las dependencias.
Desafíos en la instrumentación de trazas
La instrumentación de trazas puede ser difícil básicamente por dos factores:
- Cada componente de una solicitud debe modificarse para transmitir los datos de rastreo.
- Muchas aplicaciones se basan en bibliotecas o marcos de trabajo que usan el código abierto, por lo que pueden requerir una instrumentación adicional.
Implementación de MELT en sistemas distribuidos
Adoptar la observabilidad a través de MELT implica Telemetría; es decir, la recopilación y transmisión automática de datos desde fuentes remotas a una ubicación centralizada para su monitorización y análisis. De los datos recolectados, se deben aplicar los principios de la telemetría (analizar, visualizar y alertar) para construir sistemas resilientes y confiables.
Recolección de datos de telemetría
Los datos son la base de MELT, en que existen tres principios fundamentales de telemetría:
- Analizar los datos recopilados permite obtener información importante, apoyándose en técnicas estadísticas, algoritmos de aprendizaje automático (Machine Learning) y métodos de minería de datos para identificar patrones, anomalías y correlaciones.
Al analizar las métricas, eventos, logs y trazas, los equipos de TI pueden descubrir problemas de rendimiento, detectar amenazas a la seguridad y entender el comportamiento del sistema.
- Visualizar los datos los hace accesibles y comprensibles para las partes interesadas. Las técnicas de visualización eficaces son los paneles, cuadros y gráficos que representan los datos de forma clara y concisa. En una sola vista, tú y tu equipo podéis monitorizar el estado del sistema, identificar tendencias y comunicar hallazgos de manera efectiva.
- Alertar es un aspecto crítico de la observabilidad. Cuando se configuran alertas basadas en umbrales predefinidos o algoritmos de detección de anomalías, los equipos de TI pueden identificar y responder proactivamente a los problemas. Las alertas se pueden activar en función de métricas que superen ciertos límites, eventos que indiquen fallos del sistema o patrones específicos en logs o trazas.
Gestión de datos agregados
Implementar MELT implica manejar una gran cantidad de datos de distintas fuentes como logs de aplicaciones, de los sistemas, tráfico de redes, servicios e infraestructura de terceros. Todos estos datos deben concentrarse en un lugar y agregarse en la forma más simplificada para observar el rendimiento del sistema, detectar irregularidades y su origen, así como también reconocer problemas potenciales. De ahí que se requiere una gestión de datos agregados basada en una organización definida, capacidad de almacenamiento y análisis adecuado para obtener información valiosa.
Agregar datos es especialmente útil para los logs, que constituyen la mayor parte de los datos de telemetría recopilados. Los logs también se pueden agregar con otras fuentes de datos para proporcionar información complementaria sobre el rendimiento de la aplicación y el comportamiento del usuario.
Importancia de MELT en la observabilidad
MELT ofrece un enfoque integral para la observabilidad, con información sobre el estado, el rendimiento y el comportamiento del sistema, a partir de lo cual los equipos de TI pueden detectar, diagnosticar y resolver problemas de manera eficiente.
Mejoras en la fiabilidad y rendimiento del sistema
Adoptar la observabilidad respalda los objetivos de las SER:
- Reducir el trabajo asociado con la gestión de incidentes, particularmente en torno al análisis de causas, mejorando el tiempo de actividad y el tiempo promedio para reparar/resolver (Mean Time To Repair, MTTR).
- Proporcionar una plataforma para monitorizar y adaptar según los objetivos en los niveles de servicio o contratos de niveles de servicio y sus indicadores (Ver ¿Qué son SLA, SLO y SLI?). También da los elementos para una posible solución cuando no se cumplen los objetivos.
- Aliviar la carga del equipo de TI cuando se trata de grandes cantidades de datos, reduciendo el agotamiento o exceso de alertas. También esto lleva a impulsar la productividad, la innovación y la entrega de valor.
- Respaldar equipos multifuncionales y autónomos. Se logra una mejor colaboración con los equipos de DevOps.
Creación de una cultura de observabilidad
Las métricas son el punto de partida para la observabilidad, por lo que se debe crear una cultura de observabilidad donde la recopilación y el análisis adecuado son la base para una toma de decisiones informada y cuidadosa, además de brindar los elementos para anticipar eventos e incluso planear la capacidad de la infraestructura que soporta la digitalización del negocio y la mejor experiencia de los usuarios finales.
Herramientas y técnicas para implementar MELT
- Monitorización del Rendimiento de Aplicaciones (APM, Application Performance Monitoring): APM se utiliza para monitorizar, detectar y diagnosticar problemas de rendimiento en sistemas distribuidos. Proporciona visibilidad de todo el sistema al recopilar datos de todas las aplicaciones y trazar los flujos de datos entre los componentes.
- Análisis AIOps: Son herramientas que utilizan inteligencia artificial y ML para optimizar el rendimiento del sistema y reconocer problemas potenciales.
- Análisis automatizado de la Causa Raíz: La IA identifica automáticamente la causa raíz de un problema, lo que ayuda a detectar y abordar rápidamente los problemas potenciales y optimizar el rendimiento del sistema.
Beneficios de implementar MELT
La fiabilidad y el rendimiento de los sistemas requiere de observabilidad, la cual debe basarse en la implementación de MELT, con datos sobre métricas, eventos, registros y trazas. Toda esta información debe analizarse y ser accionable para abordar problemas de manera proactiva, optimizar el rendimiento y lograr una experiencia satisfactoria para los usuarios y clientes finales.
Pandora FMS: Una solución integral para MELT
Pandora FMS es la solución de monitorización completa para una observabilidad total, ya que su plataforma permite centralizar los datos para obtener una visión integrada y contextualizada, con información para analizar grandes volúmenes de datos de diversas fuentes. En una sola vista es posible ver el estado y las tendencias en el comportamiento de los sistemas, además de generar alertas en forma inteligente y eficiente. También genera información que puede compartirse con clientes o proveedores para dar cumplimiento a los estándares y los objetivos de servicios y rendimiento de los sistemas. Para implementar MELT:
- Pandora FMS unifica la monitorización de los servicios y aplicaciones independientemente del modelo operativo e infraestructuras (física o SaaS, PaaS o IaaS).
- Con Pandora FMS, puedes recopilar y almacenar todo tipo de Logs (incluyendo eventos de Windows) para poder buscar y configurar alertas. Los registros se almacenan en un almacenamiento que no es SQL que te permite guardar datos de diversas fuentes durante bastante tiempo, apoyando a los esfuerzos de cumplimiento y auditorías. Ampliando este tema, te invitamos a leer el documento Registros de Infraestructura, La clave para resolver las nuevas preguntas de cumplimiento, seguridad y negocio.
- Pandora FMS ofrece diseños personalizados de paneles de control o dashboards para mostrar datos en tiempo real y datos de histórico de varios años. Se puede predefinir informes sobre cálculos de disponibilidad, reportes de SLA (mensual, semanal o diario), histogramas, gráficos, reportes de planificación de capacidad, informes de eventos, inventarios y configuración de componentes, entre otros.
- Con Pandora FMS puedes monitorizar el tráfico en tiempo real, obteniendo una visión clara del volumen de solicitudes y transacciones. Esta herramienta te permite identificar patrones de uso, detectar picos inesperados y planificar la capacidad de manera efectiva.
- Con la premisa de que es mucho más eficaz mostrar visualmente el origen de un fallo que simplemente recibir cientos de eventos por segundo. Pandora FMS ofrece el valor de su monitorización, que permite filtrar toda la información y mostrar sólo lo crítico para tomar decisiones oportunas.
por Pandora FMS team | Last updated Sep 5, 2024 | Pandora FMS
En un mundo empresarial cada vez más orientado hacia la eficiencia y la movilidad, la gestión de la red se convierte en un factor crítico para el éxito. Cisco Meraki se erige como un líder indiscutible gracias a su capacidad para ofrecer una tecnología completamente basada en la nube, lo que permite a empresas de cualquier tamaño administrar sus dispositivos de red de manera remota y centralizada. Esta plataforma no solo garantiza la seguridad y escalabilidad necesarias en entornos empresariales, sino que también optimiza el rendimiento de la red, adaptando el ancho de banda disponible a las demandas de los dispositivos. Sin embargo, para aprovechar al máximo las ventajas de Cisco Meraki y garantizar un funcionamiento óptimo de la infraestructura, la monitorización adecuada se vuelve esencial. En este contexto, Pandora FMS emerge como una solución integral que permite añadir una capa de supervisión personalizada a la plataforma de Cisco Meraki, facilitando la detección temprana de problemas, el análisis de rendimiento y la planificación de la escalabilidad. A continuación, exploraremos en detalle por qué la combinación de Cisco Meraki y Pandora FMS es la elección ideal para las empresas que buscan una gestión eficiente y proactiva de su red.
La gran ventaja de Cisco Meraki, que lo ha hecho destacar como líder en su sector, es que permite a empresas, sin importar el tamaño de su infraestructura de red, ofrecer una tecnología basada 100% en la nube. Por supuesto, esto permite administrar y gestionar los dispositivos de múltiples ubicaciones de forma remota a través de una herramienta centralizada, la cual dispone de una API mediante la cual podemos realizar consultas a través de Pandora FMS, para añadir toda la monitorización del entorno de una forma fácil y rápida, mediante plugins ya diseñados para esta función.
¿Por qué elegir Cisco Meraki?
Cabe mencionar que la gran ventaja de Cisco Meraki es la tecnología de su plataforma basada en la nube, muy extendida entre empresas de todos los tamaños, y que incluye los siguientes beneficios:

- Seguridad: Se ofrece protección contra malware, firewalls de última generación y cifrado de datos. Los estándares cumplen con la normativa de PCI nivel 1.
- Escalabilidad: La integración de Cisco Meraki se puede realizar tanto para una sede, como para miles de dispositivos distribuidos en varios puntos. Además, una vez desplegado desde un inicio, se ofrecen herramientas para que el crecimiento del entorno sea lo más eficiente posible.
- Rendimiento: Ofrece a los administradores de la red un rendimiento óptimo al adaptar el ancho de banda disponible a los dispositivos de los que se dispone.
¿Por qué debería monitorizar Cisco Meraki?
- Detección de problemas en la red: Incluye el mal funcionamiento de los equipos en sí o una congestión en la red mediante herramientas de análisis de tráfico.
- Análisis de rendimiento del entorno: Un equipo que parezca funcionar correctamente pero en realidad se detecte flapping en sus puertos o una interfaz de red cuya velocidad no sea suficiente para satisfacer las necesidades del ancho de banda pueden ser tan perjudiciales en nuestra infraestructura como un dispositivo directamente caído.
- Planificación de la escalabilidad de la infraestructura: ¿Estamos seguros que nuestros dispositivos son suficientes para satisfacer las necesidades de nuestra red? La monitorización del entorno es clave tanto para saber si es necesario añadir más dispositivos, como si hay un exceso de los mismos para nuestro tráfico real.
¿Por qué elegir Pandora FMS para monitorizar Cisco Meraki?
Seamos sinceros, el propio Cloud de Meraki ya incluye herramientas de monitorización de la infraestructura como paneles de control o dashboards. Entonces, ¿por qué deberíamos preocuparnos por monitorizar nuestros dispositivos del Cloud con software externo como Pandora FMS?
Éstas son sólo algunas de las ventajas que tendríamos al añadir los dispositivos del Cloud a Pandora FMS:
- Configuración de alertado totalmente personalizado: La definición de una alerta cuando se detecta un problema en un sensor (módulo) en Pandora FMS va más allá de avisarnos mediante email u otras herramientas de notificación, como SMS o envío de Telegram, el número de veces y en el periodo de tiempo que necesitemos. También se incluye en este apartado la posibilidad de realizar acciones personalizadas, tales como intentar reiniciar un dispositivo automáticamente, escritura en ficheros de log, apertura de un ticket de incidencia en una plataforma de ticketing…
- Definición de infraestructura personalizada: La división entre grupos de agentes, agentes y módulos es totalmente definible según cómo queramos definir la división de los equipos en nuestra infraestructura.
- Histórico de eventos almacenado: Todo cambio de estado y disparo de alertas de nuestros sensores genera un evento que se almacena en un histórico que se puede consultar para realizar un análisis de problemas en nuestra red.
- Creación de servicios, informes y consolas visuales personalizadas: Los servicios en Pandora FMS nos permiten asignar una importancia a los distintos equipos mediante un sistema de pesos, las consolas visuales permiten montarnos toda nuestra infraestructura de red mediante iconos que pueden cambiar de color según el estado de los dispositivos en tiempo real, los informes pueden ser configurados para elaborar un resumen de disponibilidad de un equipo o una interfaz de red en un tiempo estimado… son solo algunos ejemplos del análisis que podemos conseguir teniendo los datos de nuestros dispositivos en Pandora FMS.
- Facilidad de integración entre plataformas: Disponemos de un plugin con el que añadir los dispositivos que se encuentran en el Cloud de Meraki con una simple ejecución. También es posible personalizar los módulos que queramos añadir si se dispone de acceso directo a los equipos mediante el protocolo SNMP.
Módulos de Pandora FMS para Cisco Meraki
Un módulo en Pandora FMS es una entidad de información que almacena datos de un chequeo individual (CPU. RAM, tráfico, etc) de tipo numérico o alfanumérico. Es decir que si en un switch queremos monitorizar su CPU general, y el estado operativo y tráfico de entrada y de salida de dos de sus interfaces, necesitaremos crear 7 módulos: uno para la CPU general, dos para el estado operativo de las dos interfaces, dos para el tráfico de entrada de las dos interfaces y dos para el tráfico de salida de las dos interfaces.
Los módulos se almacenan en entidades ficticias llamadas agentes. Generalmente, cada agente representa un dispositivo distinto.
Finalmente, un agente siempre pertenece a un grupo. Los grupos son conjuntos que contienen agentes y se usan para filtrar y controlar la visibilidad y los permisos.
Conociendo estos términos, podemos conocer la estructura de dispositivos y chequeos que se crea automáticamente en Pandora FMS con la ejecución del plugin “pandora_meraki” que disponemos para añadir a nuestra monitorización la información que se puede extraer del cloud.
Agentes y módulos de dispositivos Meraki creados mediante plugin
Disponemos de un plugin oficial de Pandora FMS que nos facilitará enormemente la tarea de añadir dispositivos que se encuentren en el Cloud de Meraki a nuestra monitorización.
La documentación del plugin puede encontrarse en el siguiente enlace.
Se trata de un plugin de servidor (debe ubicarse en la máquina donde se encuentre el servidor de Pandora FMS), al que se le debe indicar mediante parámetros la url de nuestro Cloud, la ID de organización de la empresa y el nombre del grupo al que añadir los agentes que se crearán mediante el plugin. Con una simple ejecución se crearán agentes por cada dispositivo de tipo appliance, switch y wireless que se encuentre en una Network que coincida con el nombre del grupo indicado mediante el parámetro.
Los módulos creados serán los siguientes:

- Por cada dispositivo de tipo appliance:
- Estado del dispositivo
- Estado operativo de sus interfaces
- Porcentaje de rendimiento
- Por cada dispositivo de tipo switch:
- Estado del dispositivo
- Estado operativo de sus interfaces habilitadas
- Tráfico de entrada de sus interfaces habilitadas
- Tráfico de salida de sus interfaces habilitadas
- Por cada dispositivo de tipo wireless:


Agentes y módulos de dispositivos Meraki creados mediante chequeos SNMP
Si es necesario añadir algún módulo extra a los que crea el plugin y se dispone de conectividad entre el servidor de PandoraFMS y los dispositivos de red Meraki, también es posible añadir monitorización mediante módulos de red de chequeos SNMP de tipo polling.
Se requeriría activar el protocolo SNMP versión 1, 2 o 3 en la configuración de los dispositivos Meraki y crear un módulo de tipo servidor de red por cada chequeo que se necesite, como en cualquier otro dispositivo de red.
En este vídeo se explica cómo crear este tipo de módulos.
Conclusiones
Profundizar en una monitorización más extensa que la que nos ofrecen los propios sistemas nativos del Cloud de Meraki es necesario para detectar problemas a medio/largo plazo como la saturación de red y realizar un análisis de rendimiento y escalabilidad. Y es directamente imprescindible para la configuración de un alertado personalizado e inmediato y la automatización de tareas como la creación de tickets.
Para realizar esta profundización, es necesario contar con un sistema orientado específicamente a la monitorización y que nos facilite la integración de este sistema con los dispositivos añadidos al Cloud.
Pandora FMS permite, no solo toda esta facilidad de integración y herramientas de análisis para el Cloud de Meraki, sino que también en el mismo entorno es posible añadir toda la monitorización del resto de áreas y dispositivos de la empresa, como servidores, o la adicción de métricas de otros fabricantes.
por Olivia Díaz | Last updated Jul 26, 2024 | Pandora FMS
¿Qué son las cuatro señales doradas?
En el IT Topic “Monitorización de sistemas TI: soluciones avanzadas para visibilidad y seguridad total”, en el que presentamos cómo las soluciones avanzadas para la monitorización de sistemas TI optimizan el rendimiento, mejoran la seguridad y reducen el ruido de alertas con IA y aprendizaje automático. También mencionamos que existen cuatro señales doradas en las que debería centrarse la supervisión de los sistemas de TI. El término “señales doradas” fue introducido por Google en 2014 en su libro Site Reliability Engineering: How Google Runs Production Systems,donde Site Reliability Engineering (SRE o ingeniería de confiabilidad del sitio) es una disciplina utilizada por los equipos de TI y de ingeniería de software para crear y mantener servicios más confiables de manera proactiva. También se definen las cuatro señales doradas:
- Latencia: esta métrica es el tiempo que transcurre entre la recepción de una solicitud por parte de un sistema y el posterior envío de una respuesta. Podrían pensarse que es una métrica de latencia “promedio” única, o quizás una latencia “media” establecida que puede usarse para guiar los acuerdos de nivel de servicio. Pero, como señal dorada queremos observar la latencia durante un período de tiempo, que puede visualizarse como un histograma de distribución de frecuencia. Por ejemplo:

En este histograma se muestra la latencia de 1000 solicitudes realizadas a un servicio con un tiempo de respuesta esperado de menos de 80 milisegundos (ms). Cada sección del histograma agrupa las solicitudes según la cantidad de tiempo que tardan en completarse, desde 0 ms hasta 150 ms en incrementos de cinco.
- Tráfico: refiere a la demanda en el sistema. Por ejemplo, un sistema podría tener un promedio de 100 solicitudes HTTPS por segundo; pero los promedios pueden ser engañosos. Se puede observar las tendencias del promedio para detectar problemas o los promedios a lo largo del tiempo. También, es posible que el tráfico aumente en ciertos momentos del día (cuando la gente responde a una oferta por unas horas o se hace consultas sobre precios de las acciones al cierre del mercado.
- Errores: se refiere a los códigos de error de API que indican que algo no funciona correctamente. El seguimiento del número total de errores que ocurren y del porcentaje de solicitudes fallidas permite comparar el servicio con otros. Los SRE de Google amplían este concepto para incluir errores funcionales de datos incorrectos y respuestas lentas.
- Saturación: existe un punto de saturación para las redes, los discos y la memoria en el que la demanda supera los límites de rendimiento de un servicio. Puedes hacer pruebas de carga para identificar el punto de saturación, así como también las restricciones, cuando una solicitud falló primero. Una mala práctica muy común es ignorar la saturación cuando existen balanceadores de carga y otros mecanismos de escalado automatizados. En sistemas mal configurados, el escalado inconsistente y otros factores pueden impedir que los balanceadores de carga hagan su trabajo correctamente. Por esta razón, monitorizar la saturación ayuda a los equipos a identificar problemas antes de que estos se conviertan en problemas graves, tomando acciones proactivas para evitar que vuelvan a ocurrir estos incidentes.
La importancia de las cuatro señales doradas en la monitorización
La relevancia de las cuatro señales doradas en la monitorización de sistemas de TI radica en el seguimiento viable sobre la latencia, el tráfico, los errores y la saturación de todos los servicios, en tiempo real, proporcionando los elementos para que los equipos de TI identifiquen los problemas potenciales o en curso más rápidamente. También, con la vista única del estado de todos, se agiliza la labor del equipo dedicado a la monitorización de sistemas de TI o de terceros. En lugar de realizar una monitorización diferente para cada función o servicio, se pueden agrupar métricas y registros de monitorización en una sola ubicación. Todo esto ayuda a una mejor gestión de los incidentes y el seguimiento de todo el ciclo de vida de un evento.
Cómo implementar las cuatro señales doradas
Las cuatro señales doradas son una forma de ayudar a los equipos de SRE a centrarse en lo importante, para no depender de una gran cantidad de métricas y alarmas que podrían ser difíciles de interpretar. Para implementarlas, hay que:
- Definir las líneas base y umbrales: establece rangos operativos normales u objetivos de nivel de servicio para cada señal. Los SLO ayudan a identificar anomalías y configurar alertas significativas. Por ejemplo, puedes establecer un umbral de latencia de 200 ms; en caso de que sea mayor, se debe activar una alerta.
- Implementar las alertas: configura alertas para recibir notificaciones cuando las señales superen los umbrales predefinidos, garantizando que se pueda responder a los problemas con prontitud. La combinación con IA agiliza la gestión y escalamiento de alertas y notificaciones.
- Analizar tendencias: revisa los datos históricos periódicamente para comprender tendencias y patrones, además de recabar información para una planificación proactiva de la capacidad y la identificación de áreas de oportunidad para optimizarlas. La analítica avanzada e IA son herramientas valiosas para dar la lectura correcta a estos análisis.
- Automatizar respuestas: trata de automatizar las respuestas a problemas comunes para no abrumar a tu equipo de TI y que puedan también concentrarse en labores más estratégicas o incidentes que realmente merezcan atención. Con la IA se puede establecer un escalado automático para ayudar a gestionar los picos de tráfico.
Herramientas de monitorización ¿Código abierto o soluciones comerciales?
Para elegir una herramienta de monitorización, puede surgir la pregunta sobre qué opción es más conveniente: una de código abierto o una solución comercial. La respuesta no debe depender solamente de una cuestión económica (si se paga o no por los recursos), sino de tener en cuenta que prácticamente en todos los productos de TI no se puede prescindir del código abierto, ya que los utilizan constantemente y por eso no cuestionamos su valor. Claro, que hay que tener en cuenta que, para usar el código abierto, se debe elegir soluciones de monitorización que cuenten con el respaldo de monitorización profesional y confiable, además del apoyo para una correcta configuración.
También es importante que la solución de código abierto sea intuitiva, que no represente un consumo de valioso tiempo empleado en tareas de configuración, ajustes, mantenimiento y actualización. Recuerda que se requiere agilidad y velocidad.
Importancia de las señales doradas en la observabilidad
La monitorización permite detectar problemas antes de que se vuelvan críticos, mientras que la observabilidad es particularmente útil para diagnosticar problemas y comprender la causa raíz. Las señales doradas permiten llevar a la práctica la ingeniería de confiabilidad del sitio (SRE) con base en la disponibilidad, desempeño, la monitorización y la preparación para responder a incidentes, lo que mejora en su conjunto la fiabilidad y el rendimiento del sistema. También, la monitorización con base en las señales doradas ofrece los elementos de observabilidad para saber qué está pasando y qué hay que hacer al respecto. Para lograr la observabilidad hay que reunir métricas de diferentes dominios y entornos en un solo lugar, para luego analizarlos, compararlos e interpretarlos.
Las señales doradas como parte de la observabilidad full-stack
La observabilidad full-stack (completa) refiere a la capacidad de comprender lo que sucede en un sistema en cualquier momento, supervisando entradas y salidas del sistema, junto con las correlaciones entre dominios y el mapeo de dependencias. Las señales doradas ayudan a gestionar las complejidades de la monitorización de múltiples componentes, evitando puntos ciegos. También se vincula el comportamiento, el rendimiento y el estado del sistema con la experiencia del usuario y los resultados del negocio.
También, las señales doradas se integran a los principios de SRE: aceptación de riesgo, objetivos de nivel de servicio, automatización, reducción de esfuerzos y monitorización de sistemas distribuidos, combinando ingeniería de software y operaciones para construir y ejecutar sistemas a gran escala, distribuidos y de alta disponibilidad. Las prácticas de SRE también incluyen la definición y medición de objetivos de confiabilidad, el diseño y la implementación de la observabilidad, junto con la definición, prueba y ejecución de los procesos de gestión de incidentes. En las plataformas avanzadas de observabilidad, las señales doradas proveen los datos para también mejorar la gestión financiera (costos, decisiones de capital por uso de tecnologías, cumplimiento de SLA), la seguridad y prevención de riesgos.
Conclusión
La naturaleza digital de los negocios ha hecho que los estrategas de la seguridad de TI enfrenten la complejidad de la monitorización de múltiples componentes. Las señales doradas proveen los indicadores clave que se aplican a casi todo tipo de sistemas. Además, se requiere analizar y predecir el comportamiento del sistema, donde la observabilidad es esencial. A este respecto, MELT (Metrics, Events, Logs, and Traces, o métricas, eventos, registros y seguimientos) supone un marco de referencia con un enfoque integral para la observabilidad, obteniendo información sobre el estado, el rendimiento y el comportamiento de los sistemas.
Pandora FMS: una solución completa para monitorizar las cuatro señales doradas
Pandora FMS se destaca como una solución completa para la monitorización de sistemas distribuidos y la implementación de las cuatro señales doradas. Aquí te explicamos por qué.
1. Versatilidad y flexibilidad
Pandora FMS (Flexible Monitoring System) es conocido por su capacidad para adaptarse a diferentes entornos y necesidades empresariales. Ya sea que estés gestionando una pequeña infraestructura local o un complejo sistema distribuido a gran escala, Pandora FMS puede escalar y adaptarse sin problemas.
2. Monitorización integral de latencia
Pandora FMS permite la monitorización detallada de la latencia en varios niveles, desde la latencia de las aplicaciones hasta la latencia de la red y las bases de datos. Proporciona alertas en tiempo real y dashboards intuitivos que facilitan la identificación de cuellos de botella y la optimización del rendimiento.
3. Seguimiento detallado del tráfico
Con Pandora FMS, puedes monitorizar el tráfico en tiempo real, obteniendo una visión clara del volumen de solicitudes y transacciones. Esta herramienta te permite identificar patrones de uso, detectar picos inesperados y planificar la capacidad de manera efectiva.
4. Detección y análisis de errores
La plataforma de Pandora FMS ofrece una robusta funcionalidad para la detección de errores, tanto errores de aplicación, errores de red, como pérdida de paquetes, errores en interfaz de red y errores de dispositivo a través de traps SNMP en tiempo real o hasta fallos en la infraestructura. Las alertas configurables y los informes detallados ayudan a los equipos a responder rápidamente a problemas críticos, reduciendo el tiempo de inactividad y mejorando la fiabilidad del sistema.
5. Monitorización de saturación de recursos
Pandora FMS monitoriza la utilización de recursos clave como CPU, memoria, y almacenamiento, permitiendo a los administradores prever y evitar la saturación. Esto es crucial para mantener el rendimiento y la disponibilidad del sistema bajo control, especialmente durante períodos de alta demanda.
6. Integración con herramientas y tecnologías existentes
Pandora FMS se integra fácilmente con una amplia gama de herramientas y tecnologías existentes, lo que permite una implementación más sencilla y una mayor interoperabilidad. Esta flexibilidad facilita la consolidación de todos los datos de monitorización en una plataforma centralizada.
7. Informes personalizados y dashboards intuitivos
La capacidad de generar informes personalizados y dashboards interactivos permite a los equipos de TI visualizar el estado de sus sistemas de manera efectiva. Estas funcionalidades son esenciales para la toma de decisiones informadas y la mejora continua de los servicios.
8. Soporte y comunidad activa
Pandora FMS cuenta con un sólido soporte técnico y una comunidad activa que ofrece recursos y asistencia continuos. Esto es crucial para garantizar que cualquier problema se resuelva rápidamente y que los usuarios puedan aprovechar al máximo la plataforma.
9. Coste-efectividad
A diferencia de muchas soluciones comerciales, Pandora FMS ofrece una excelente relación calidad-precio, proporcionando funcionalidades avanzadas a un coste competitivo. Esto la convierte en una opción atractiva tanto para pequeñas empresas como para grandes corporaciones.
por Olivia Díaz | Last updated Jul 22, 2024 | ITSM
Aprende las diferencias entre SLA, SLO y SLI y cómo implementar estas métricas para mejorar la calidad del servicio ofrecido por tu empresa. También, conoce los desafíos y las mejores prácticas para implementarlos, junto con algunos ejemplos del mundo real.
Importancia de SLA, SLO y SLI en la experiencia del usuario
Hablar de SLA, SLO y SLI es hablar de la experiencia del usuario. Cada uno de estos acrónimos (más adelante los explicaremos) está en la mente de los desarrolladores, quienes buscan lograr servicios y recursos de TI cada vez más confiables y de alta calidad. Para lograrlo, deben comprender y gestionar de manera eficaz los objetivos en los niveles de servicio, apoyándose en indicadores definidos y acuerdos formales que los lleven a alcanzar la satisfacción de los usuarios.
Objetivo de las métricas y su aplicación en el rendimiento del sistema
Lo que se mide, se puede mejorar… así que las métricas ayudan a garantizar que un servicio cumpla con sus objetivos de rendimiento y confiabilidad. También ayudan a alinear los objetivos de los diferentes equipos dentro de una organización hacia una meta: la mejor experiencia de los usuarios.
Diferencias entre SLA, SLO y SLI
- Definición y alcance de cada métrica.
Imaginemos una base donde SLI (Service Level Indicators o indicadores de nivel de servicio) se refiere a la medición cuantificable para evaluar el desempeño de un servicio. Por encima de esta base están los SLO (Service Level Objectives u objetivos de nivel de servicio), que establecen objetivos para el desempeño del servicio, y los SLA (Service Level Agreement o acuerdo de nivel de servicio) que son contratos legalmente vinculantes entre un proveedor de servicios y un cliente.
- Ejemplo y aplicaciones en diferentes contextos.
Pongamos un ejemplo: un proveedor de servicios en la nube puede definir la latencia como la cantidad de tiempo que entraña procesar la solicitud de un usuario y devolver una respuesta como SLI. A partir de ahí, se establece un SLO de no más de 100 milisegundos durante un período consecutivo de 30 días; si la latencia promedio excede este valor, emitirán créditos de servicio a los clientes.
Si en el sitio web de comercio electrónico se establece un SLI basado en la tasa de error como porcentaje de transacciones fallidas; el SLO podría establecer que la tasa de error no deba exceder 0.5% durante cualquier período de 24 horas. El SLA acordado con el proveedor de servicios en la nube incluiría este SLO, junto con sanciones o compensaciones si no se cumple.
SLI: Indicador de Nivel de Servicio
Significado y función
Los indicadores de nivel de servicio (Service Level Indicators o SLI) miden el rendimiento y la confiabilidad de un servicio, para determinar si una oferta cumple con sus objetivos de calidad. El SLI también contribuye a identificar áreas de mejora. Algunos ejemplos de indicadores son la latencia (tiempo de respuesta), la tasa de error, rendimiento y disponibilidad (tiempo de actividad). Estas métricas generalmente se monitorizan durante períodos de tiempo específicos para evaluar el desempeño. Como puede verse, los SLI son la base para establecer puntos de referencia de rendimiento y confiabilidad para un servicio.
Desafíos y estrategias para su medición
Partiendo de que SLI refiere a métricas, el desafío principal es el de lograr un planteamiento simple sobre los indicadores, ya que deben analizarse fácilmente y compararse con el fin de agilizar la toma de decisiones a partir de los resultados. Otro desafío es la elección de métricas de seguimiento útiles y que correspondan a las necesidades reales del producto o servicio.
SLO: Objetivo de Nivel de Servicio
Definición y utilidad
Los objetivos de niveles de servicio (Service Level Objectives, SLO) establecen objetivos de rendimiento y confiabilidad que los proveedores de servicios pretenden alcanzar, en línea con los SLI de un servicio. De manera que estos SLO ayudan a evaluar y monitorizar si el servicio cumple con el nivel de calidad deseado. Por ejemplo, un proveedor de nube puede decir que su objetivo es lograr 99.99% de disponibilidad durante un período de tiempo específico.
Desafíos y recomendaciones para su implementación
El desafío principal es que los objetivos deben ser claros, específicos y mensurables, por lo que se recomienda que el proveedor de servicio colabore estrechamente con las partes interesadas para definir los SLO y sus alcances.
SLA: Acuerdo de Nivel de Servicio
Concepto y propósito
Un acuerdo de nivel de servicio (Service Level Agreement, SLA) es un contrato legalmente vinculante entre un proveedor de servicios y un cliente, donde se describen los SLO acordados y las sanciones en caso de incumplimiento. Los SLA garantizan que el proveedor y las partes interesadas comprendan claramente las expectativas sobre la calidad del servicio y las repercusiones en caso de incumplimiento (compensación financiera o créditos de servicio) con los estándares acordados. En los SLA se incluyen los SLO, tales como tiempos de latencia, tasa de error y disponibilidad. Desde luego, antes de que comience el servicio, el proveedor de servicios y el cliente negociarán los acuerdos de nivel de servicio. Los SLA ayudan a tener una comprensión clara de las expectativas de rendimiento, los canales y cursos de acción y la confiabilidad del servicio, salvaguardando los intereses de ambas partes.
Desafíos y mejores prácticas
Uno de los desafíos más importantes de un SLA es que no vaya en línea con las prioridades del negocio, por lo que una mejor práctica es involucrar en los acuerdos a las áreas de negocio donde se genera el mayor impacto en el nivel de servicio. También, dar seguimiento del SLA y actualizarlos puede ser un proceso complejo que requiere de informes con datos obtenidos desde diversas fuentes de información. Al respecto, se recomienda hacerse de las herramientas tecnológicas que ayuden a extraer datos de diversas fuentes de manera más ágil y automatizada.
Comparación entre SLA, SLO y SLI
Como hemos visto, los SLI son la base para SLO y SLA, con métricas cuantitativas para evaluar el rendimiento y la confiabilidad del servicio. Los SLO usan los datos derivados de los SLI para establecer objetivos específicos sobre el desempeño del servicio, asegurando que el proveedor del servicio y las partes interesadas tengan objetivos claros por alcanzar. De ahí que los SLA incorporan los SLO en un contrato entre el proveedor de servicios y el cliente, para que ambas partes tengan un entendimiento claro de las expectativas de desempeño y las consecuencias en caso de incumplimiento.
Para tenerlo más claro, nos ayuda mirar estas tablas que comparan las diferencias, los desafíos y sus mejores prácticas:
Tabla 1: Diferencias entre SLA, SLO y SLI
Métrica
|
Propósito
|
Aplicación
|
Flexibilidad
|
SLI
|
Medición real del rendimiento del servicio.
|
Internos, pagados.
(número reales sobre desempeño)
|
Más flexible.
|
SLO
|
Objetivos internos que indican el rendimiento del servicio.
|
Internos y externos, gratis y pagados.
(objetivos del equipo interno para cumplir con el acuerdo de nivel de servicio)
|
Moderadamente flexible.
|
SLA
|
Acuerdo con clientes sobre compromisos de servicio.
|
Pagos, disponibilidad.
(el acuerdo entre el proveedor y el usuario del servicio)
|
Menos flexible.
|
Como puede verse en la Tabla 1, en la medida de que la métrica es más específica (SLI), existe mayor flexibilidad para su definición, Y, cuanto más específica es la métrica (SLA), el compromiso tiene más partes involucradas.
Tabla 2: Desafíos y mejores prácticas
Métrica
|
Desafíos
|
Mejores Prácticas
|
SLI
|
Definición de producto o servicio asociado a necesidades del negocio.
Medición precisa y consistente.
|
Elección de métricas de seguimiento útiles y que correspondan a las necesidades reales del producto o servicio.
Seguir la evolución del sistema y visualizar datos.
|
SLO
|
Balance entre complejidad y simplicidad.
Definir los objetivos deben ser claros, específicos y mensurables.
|
Colaboración estrecha con las partes involucradas en el servicio para definir los SLO y sus alcances.
Mejorar continuamente y seleccionar métricas valiosas.
|
SLA
|
Alineación con objetivos del negocio.
Colaboración entre equipos legales y técnicos.
Extracción de datos de diversas fuentes para medir niveles de cumplimiento.
|
Definir expectativas realistas, con claro entendimiento con el impacto en el negocio.
Llegar a un consenso con las partes interesadas y el equipo técnico para definir los acuerdos en el SLA.
Usar herramientas tecnológicas que ayuden a extraer datos de diversas fuentes de manera más ágil y automatizada.
|
En la Tabla 2, podemos ver que los desafíos para la métrica son diferentes, por su carácter interno o externo. Por ejemplo, los SLO son objetivos internos del proveedor de servicios, mientras que SLA establece un compromiso entre el proveedor y el cliente (usuario del servicio), así como las sanciones en caso de incumplimiento.
Aplicaciones en el mundo real
Ejemplos de cómo dichas métricas se aplican en diferentes empresas y servicios.
- SLI:
- Disponibilidad/tiempo activo del servicio.
- Número de transacciones/solicitudes de servicio exitosas.
- Consistencia de los datos.
- SLO:
- Duración de discos debe ser de 99.9%
- Disponibilidad del servicio debe ser de 99.5%
- Solicitudes/transacciones servidas con éxito deben alcanzar el 99.999%.
- SLA:
- Convenio con cláusulas y declaraciones de las partes que firman (proveedor y usuario), vigencia de acuerdo, descripción de servicios y sus métricas correspondientes, datos de contacto y horarios para soporte/atención y cursos de escalamiento, sanciones y causas de rescisión en caso de incumplimiento, cláusulas de terminación, entre otros.

Conclusión
Las métricas de servicio son fundamentales para asegurar la calidad del servicio ofrecido. Ya sea que estés trabajando con el proveedor del servicio o te halles en el otro lado del escritorio, el usuario del servicio, debes contar con información confiable y clara sobre el desempeño de un servicio con el fin de generar mejores experiencias de uso, que a su vez se traduce en una mejor respuesta a los clientes internos (incluyendo proveedores y socios de negocio) y externos de cualquier organización. Adicionalmente, no hay que perder de vista que cada vez más las empresas adoptan la tercerización de servicios, por lo que es de ayuda estar familiarizado con estos términos, su aplicabilidad y las mejores prácticas.
También, te recomendamos estas herramientas que Pandora FMS pone a tu disposición:
por Sancho Lerena | Last updated Aug 6, 2024 | Pandora FMS
La resiliencia en el entorno empresarial líquido actual exige flexibilidad. El término “observabilidad” sustituye a la monitorización, reflejando la necesidad de adaptarse y ser ágil ante los desafíos. La clave está en disolver las operaciones en la nube, integrando herramientas y conocimientos operativos para lograr una resiliencia eficaz.
Recuerdo que cuando empecé mi carrera profesional (en un banco) una de mis primeras tareas fue securizar un servidor de correo expuesto a internet. Las conversaciones en torno al café discurrían sobre esas nuevas tendencias que parecían suicidas, ¡querían llevarse la explotación de servicios a servidores en internet!
Ni siquiera se hablaba de la nube en aquella época. Los primeros pasos del software como servicio se daban ya, pero en suma, todo era on-premise, y la infraestructura era la reina de la informática, porque sin centro de datos, no había negocio.
Han pasado dos décadas y lo mismo que les pasó a los Mainframes les ha ocurrido a los centros de datos. Son reminiscencias del pasado, algo necesario, pero fuera de nuestras vidas. Nadie construye ya la continuidad del negocio basándose en el concepto del centro de datos, ¿a quién le importa ya un centro de datos?
Se prevé que la cantidad de dispositivos en todo el mundo que están conectados entre sí para recopilar y analizar datos y realizar tareas de forma autónoma casi se triplicará, de 9.700 millones en 2020 a más de 29.400 millones en 2030.
¿Cuántos dispositivos de todos esos están ubicados en un centro de datos conocido?, es más, ¿importa realmente dónde estén estos dispositivos?
No sabemos ni de quién son, ni quién los mantiene, ni tan siquiera en qué país se encuentran en muchas ocasiones, por mucho que las leyes de protección de datos insistan, la tecnología avanza mucho más rápido que la legislación.
El reto más importante es asegurar la continuidad del negocio, y dicha tarea resulta cuanto menos complicada cuando cada vez es más difícil saber cómo gestionar la infraestructura crítica de un negocio, porque el propio concepto de infraestructura está cambiando.
¿Qué significa infraestructura TI?
El conjunto de aplicaciones que gestiona los datos necesarios para que tu negocio funcione. Debajo de esas aplicaciones está “todo lo demás”, desde bases de datos, motores, librerías, stack completos de tecnología, sistemas operativos, hardware y centenas de personas encargadas de cada pieza de esa gran torre de babel.
¿Qué significa la continuidad de negocio?
Según la ISO 22301, la continuidad del negocio se define como la “capacidad de una organización para continuar con la entrega de productos y servicios en plazos aceptables a una capacidad predefinida durante una interrupción”.
En la práctica, se habla de recuperación de desastres y gestión de incidentes, en un enfoque integral que establece una serie de actividades que una organización puede iniciar para responder a un incidente, recuperarse de la situación y reanudar las operaciones de negocio a un nivel aceptable. Generalmente esas acciones tienen que ver con la infraestructura ya sea en un sentido o en otro.
La continuidad de negocio hoy dia
Antes la IT era más sencilla, la infraestructura estaba ubicada en uno o varios datacenters.
Ahora, no sabemos ni siquiera dónde está, más allá de una serie de conceptos intencionadamente difusos, pero lo que sí sabemos es que ni el hardware es nuestro, ni la tecnología es nuestra, ni los técnicos, ni las redes son nuestras. Solo los datos (supuestamente).
¿Qué significa resiliencia de negocio?
Resulta gracioso que se haya puesto de moda este término, cuando el concepto base de la creación de Internet fue la resiliencia. Significa ni más ni menos que no se trata de pegarse un trompazo y levantarse, sino de aceptar los trompazos y seguir adelante, dicho de otra forma, ser un poco más elegante y flexible a la hora de afrontar las adversidades.
Resiliencia y continuidad de negocio
En estos tiempos líquidos, donde todo fluye, hay que ser flexible y cambiar el paradigma, por eso ya no se habla de monitorización sino de observabilidad, porque eso del ojo que todo ve, es un poco ilusorio, hay demasiado que ver. Los viejos modelos no funcionan.
No es un problema de escalabilidad (o al menos no solo es un problema de escalabilidad), es un problema de cambio de paradigma.
Resolvamos el problema usando el problema
Hoy día todas las organizaciones están de alguna manera disueltas en la nube. Mezclan infraestructura propia con cloud, mezclan tecnología propia con cloud, mezclan datos propios con cloud. ¿Por qué no mezclar observabilidad con cloud?
No hablo de utilizar una herramienta SaaS de monitorización, eso sería continuar el paradigma anterior, hablo de que nuestra herramienta se disuelva en el cloud, que nuestro conocimiento operativo se disuelva en el cloud y que la resiliencia de nuestra organización se base en eso mismo, en estar en el cloud.
Como en los orígenes de internet, puedes cortarle una cabeza a la hidra, pero el resto sigue mordiendo, y al poco, volverá a crecer.
Para poder hacer algo así no se trata de comprar una o varias herramientas, de contratar uno o varios servicios, no, eso sería volver a lo de siempre.
Tip: la F de FMS en Pandora FMS, significa Flexible. Descubra por qué.
Resiliencia, continuidad de negocio y nube
El primer paso es aceptar que no puedes controlarlo todo, ¿sabes? Tu negocio está siempre en movimiento, así que tratar de encasillarlo sería como ponerle límites, ¿no crees? Es importante manejar cada pieza como parte de un conjunto que cambia continuamente. Con la gran variedad de nubes, aplicaciones y equipos de trabajo disponibles, ¿de verdad tiene sentido confiar en una sola tecnología para unirlos a todos?
Habla con tu equipo, seguro que tienen ideas interesantes sobre esto, ¿no? ¿Por qué no aprovechar su experiencia para encontrar una solución juntos? La clave no es elegir una sola solución, sino buscar una “solución de soluciones”, que permita integrar las diferentes necesidades de forma flexible, sin imponer un control rígido. Se trata simplemente de tener una visión completa y unificada para poder adaptarse y seguir adelante, pase lo que pase. En última instancia, la continuidad del negocio se trata de ser ágil y resistente en un mundo que siempre está cambiando, ¿no es así?
Algunos tips sobre continuidad de negocio, resiliencia y nube
¿Por qué dimensionar un servicio en vez de gestionar elementos bajo demanda?
Un servicio es útil en tanto que este proporciona a los clientes los beneficios que estos precisan del mismo. Por ello es esencial garantizar su funcionamiento y operatividad.
Dimensionar un servicio es importante para garantizar la rentabilidad y la calidad del mismo. Al dimensionar un servicio, se puede determinar la cantidad de recursos necesarios, como personal, equipos y tecnología, para satisfacer la demanda de manera eficiente y efectiva. De esta manera, evitarás problemas como largos tiempos de espera, sobrecarga de trabajo para el personal, baja calidad del servicio o pérdida de clientes debido a una mala atención.
Además, dimensionar un servicio te permitirá anticiparte a posibles picos de demanda y adaptar la capacidad de manera adecuada para responder de manera satisfactoria a las necesidades de los clientes y contribuir a su satisfacción. Asimismo, te ayuda a optimizar los costos operativos y maximizar la rentabilidad del servicio.
¿Por qué encontrar la herramienta perfecta si ya la tienes in-house?
Integra tu solución interna con otras herramientas externas que puedan potenciar su funcionalidad. Antes de embarcarte en una búsqueda interminable, considera lo que ya tienes en casa. Si cuentas con una solución interna que funciona bien para tu negocio, ¿por qué no aprovecharla al máximo integrándola con otras herramientas externas?
Por ejemplo, imagina que ya dispones de un sistema interno de gestión de clientes (CRM) que se adapta a las necesidades específicas de tu empresa. ¿Has pensado en integrarlo con herramientas de marketing digital como HubSpot o Salesforce Marketing Cloud? Esta integración podría llevar tus estrategias de marketing a otro nivel, automatizando procesos y optimizando tus campañas de una manera que antes no habías imaginado.
Y si estás utilizando un sistema interno de gestión de proyectos para mantener todo en orden, ¿por qué no considerar la posibilidad de incorporar herramientas de colaboración en línea como Trello o Asana? Estas plataformas pueden complementar tu sistema existente con características adicionales, como tableros Kanban y seguimiento de tareas, facilitando la vida de tu equipo y aumentando su eficiencia.
Además, no olvidemos la gestión de servicios de TI. Si ya tienes una solución interna de ITSM (Gestión de Servicios de TI), como Pandora ITSM, ¿por qué no integrarla con otras herramientas externas que puedan potenciar su funcionalidad? La integración de Pandora ITSM con herramientas de monitorización como Pandora FMS puede proporcionar una visión más completa y proactiva de tu infraestructura de TI, permitiéndote identificar y resolver problemas antes de que afecten a tus servicios y usuarios.
La clave está en aprovechar al máximo lo que ya tienes y potenciarlo aún más integrándolo con otras herramientas que puedan complementarlo. ¿Has probado esta estrategia antes? Podría ser la clave para optimizar tus operaciones y llevar tu negocio al siguiente nivel.
¿Por qué obligar a tu equipo a trabajar de una manera específica?
Incorpora otro equipo e intégralo en tu equipo (puede ser más fácil de lo que imaginas, y mucho más barato.
La imposición de un único método de trabajo puede limitar la creatividad y la productividad del equipo. En lugar de ello, considera la posibilidad de incorporar nuevos equipos y métodos de trabajo, integrándolos de manera fluida en tu organización. Esto no solo puede fomentar la innovación y la colaboración, sino que también puede resultar en una mayor eficiencia y reducción de costos. ¿Has explorado la opción de incorporar nuevos equipos y métodos de trabajo en tu organización? La integración de perspectivas diversas puede ser un motor poderoso para el crecimiento y el éxito empresarial.
¿Por qué elegir un cloud si puedes integrar varias?
La supuesta simplicidad puede ser una cárcel de muros muy altos, no apuestes nunca por un único proveedor o dependerás de él. Utiliza alternativas europeas para protegerte frente a cambios legales y políticos en el futuro.
La elección de un único proveedor de nube puede ofrecer simplicidad en la gestión, pero también conlleva riesgos significativos, como la dependencia excesiva y la vulnerabilidad a cambios legales o políticos. En cambio, integrar múltiples proveedores de nube puede proporcionar una mayor flexibilidad y resiliencia, reduciendo así los riesgos asociados con la dependencia de un único proveedor.
¿Has considerado la posibilidad de diversificar tus proveedores de nube para proteger tu negocio frente a posibles contingencias? La integración de alternativas europeas puede proporcionar una capa adicional de protección y estabilidad en un entorno empresarial cada vez más complejo y cambiante.
¿Por qué elegir la alta disponibilidad?
Pandora FMS ofrece HA en servidores, agentes y su consola para entornos exigentes garantizando la continuidad de estos.
La alta disponibilidad (HA) es un componente crítico en la infraestructura de cualquier empresa, especialmente en entornos donde la continuidad del servicio es vital. Con Pandora FMS, tienes la capacidad de implementar HA en servidores, agentes y la propia consola, lo que garantiza que tus sistemas estén siempre en línea incluso en condiciones de alta demanda o en entornos críticos.
Imagina un escenario en el que tu sistema experimenta una carga significativa. En tales circunstancias, la distribución equitativa de la carga entre varios servidores se vuelve crucial. Pandora FMS te permite realizar esta distribución, lo que asegura que, en caso de fallo de un componente, el sistema permanezca operativo sin interrupciones.
Además, la arquitectura modular de Pandora FMS te permite trabajar en sinergia con otros componentes, asumiendo la carga de aquellos que puedan fallar. Esto contribuye a crear una infraestructura resistente a fallos, donde la estabilidad del sistema se mantenga incluso ante contratiempos imprevistos.
¿Por qué centralizar si puedes distribuir?
Elige una herramienta flexible, como Pandora FMS.
Centralizar los recursos puede parecer una estrategia lógica para simplificar la gestión, pero puede limitar la flexibilidad y la resiliencia de tu infraestructura. En lugar de encerrar tus activos en un único punto de falla, considera la posibilidad de distribuir tus recursos estratégicamente para optimizar el rendimiento y la disponibilidad en toda tu red.
Con Pandora FMS, tienes la capacidad de implementar una monitorización distribuida que se adapta a las necesidades específicas de tu negocio. Esta solución te permite distribuir agentes de monitorización en múltiples ubicaciones, lo que te proporciona una visibilidad completa de tu infraestructura en tiempo real, sin importar lo dispersa que esté.
Al descentralizar la monitorización con Pandora FMS, puedes identificar y resolver problemas de manera proactiva, minimizando así el tiempo de inactividad y maximizando la eficiencia operativa. ¿Has considerado cómo la monitorización distribuida con Pandora FMS puede mejorar la gestión y el control de tu infraestructura de manera más efectiva y eficiente? Su flexibilidad y capacidad de adaptación pueden ofrecerte una solución robusta y personalizada para tus necesidades de monitorización de TI.
Contacta al equipo de ventas, pide presupuesto, o resuelve tus dudas sobre nuestras licencias. Pandora FMS, la solución integral para monitorización y observabilidad.
Descarga aquí el PDF con toda la información sobre este artículo: Descargar PDF: ¿Por qué la continuidad del negocio pertenece a la nube?
por Olivia Díaz | Last updated Jul 22, 2024 | Control Remoto
Todo ordenador tiene su BIOS, abreviación de Basic Input/Output System o sistema básico de entrada/salida), el cual es un firmware instalado en la placa base de la PC. Mediante BIOS se puede inicializar y configurar los componentes de hardware (CPU, RAM, disco duro, etc.). Digamos que es una especie de traductor o puente entre el hardware y el software del ordenador. Sus funciones principales son:
- Inicializar el hardware.
- Detectar y cargar el gestor de arranque y del sistema operativo.
- Configurar varios parámetros de tu PC como secuencia de arranque, hora y fecha, tiempos de RAM y voltaje de CPU.
- Establecer mecanismos de seguridad como una contraseña para restringir el acceso a tu PC.
Importancia de entender cómo acceder al BIOS y su actualización
Partiendo de que su función principal es inicializar y comprobar que todos los componentes de hardware de tu PC estén funcionando correctamente, si todo funciona correctamente, BIOS busca el sistema operativo en el disco duro u otro dispositivo de arranque conectado a tu PC. Sin embargo, acceder a BIOS puede ser un proceso desconocido para muchos usuarios, impidiendo su actualización que pueda garantizar el desempeño del equipo y su seguridad. Más adelante, en este blog explicaremos cómo acceder a BIOS.
Aclaración sobre la naturaleza no rutinaria de las actualizaciones del BIOS
Se recomienda actualizar BIOS para mantener el rendimiento, la estabilidad y seguridad del ordenador. El fabricante de tu PC puede enviar actualizaciones del BIOS para añadir funciones o corregir algunos errores. El proceso es generalmente sencillo, pero debe hacerse con sumo cuidado para evitar daños irreversibles. También, debe evitarse apagar o cortar la corriente en medio de un proceso de actualización con graves consecuencias para el equipo.
Acceso al BIOS desde Windows
Para acceder a BIOS, hay varias opciones, desde los siguientes botones, dependiendo de la marca de tu equipo:
- Dell: F2 o F12
- HP: F10
- Lenovo: F2, Fn + F2, F1, o Enter seguido de F1
- Asus: F9, F10 o Supr
- Acer: F2 o Supr
- Microsoft Surface: Mantener pulsado el botón de subir el volumen
- Samsung/Toshiba/Intel/ASRock/Origin PC: F2
- MSI/Gigabyte/EVGA/Zotac/BIOStar: Supr

Instrucciones para acceder al BIOS desde Windows 10 o 11 a través de la Configuración y la opción de Inicio Avanzado
Solo hay que seguir estas instrucciones:
- Reinicia tu ordenador y espera a que aparezca el logotipo del fabricante.
- Presiona una de las teclas que antes mencionamos al momento de ver la pantalla de inicio para poder acceder a la configuración del BIOS.
- Ya estando en el BIOS, puedes navegar por las diferentes opciones usando las teclas de flecha en tu teclado.
También puedes seguir este proceso en Windows 11:
- En la pantalla de inicio de sesión o de bloqueo, pulsa la tecla Shift en el teclado y toca el botón de encendido (o haz clic en la opción de encendido en la parte inferior derecha de la pantalla de inicio de sesión). A continuación, elige la opción Reiniciar en el menú.
- Cuando Windows 11 se reinicie, se te mostrará la pantalla de inicio avanzado (elige una opción).
- A continuación, desplázate a Solucionar problemas > Opciones avanzadas > Configuración del firmware UEFI y pulsa Reiniciar.
Dado que la configuración BIOS puede tener un impacto en el funcionamiento de tu PC, se recomienda buscar ayuda de un profesional.
Alternativas de utilizar el método de Windows 10 y 11 si el sistema operativo se carga demasiado rápido para acceder al BIOS
Una alternativa para iniciar la configuración del BIOS de Win11 es desde la aplicación de Configuración. Para ello, debes seguir estos pasos:
- Abre Configuración de Windows 11.
- Navega hasta Sistema > Recuperación > Reiniciar ahora.
- Antes de dar clic en Reiniciar ahora, debes guardar tu trabajo.
- A continuación, ve a Solución de problemas > Opciones avanzadas > Configuración del firmware UEFI y pulsa Reiniciar
(de UEFI hablaremos más adelante en este artículo).
Otra alternativa es usar el comando Ejecutar de Windows:
- Abre el cuadro de Ejecutar (pulsando las teclas Windows + R).
- Luego teclea /r /o, y pulsa Enter. Un atajo es escribir shutdown /r /o /f /t 00 y hacer clic en Aceptar.
- A continuación, selecciona Solucionar problemas > Opciones avanzadas > Configuración del firmware UEFI y pulsa Reiniciar para arrancar en la configuración del BIOS del sistema.
Por la línea de comando, también:
- Abre CMD, PowerShell o Terminal.
- Escribe shutdown /r /o /f /t 00 o shutdown /r /o y pulsa Enter.
- A continuación, accede a Solución de problemas > Opciones avanzadas > Configuración del firmware UEFI y pulsa Reiniciar para llegar a la configuración del BIOS/UEFI de Windows 11
Una opción más personalizada es por acceso directo:
- Haz clic con el botón derecho del ratón en el escritorio de Windows 11 y selecciona Nuevo > Acceso directo.
- En la ventana Crear acceso directo, introduce shutdown /r /o /f /t 00 o shutdown /r /o para ubicarlo.
- Sigue las instrucciones para crear un acceso directo a BIOS.

Una vez creado el acceso directo a la configuración del BIOS, sólo hay que hacer doble clic en él y elegir Solución de problemas > Opciones avanzadas > Configuración del firmware UEFI y pulsar Reiniciar para arrancar tu PC en el entorno del BIOS.
¿Qué significa UEFI?
UEFI (Unified Extensible Firmware Interface) o Interfaz de Firmware Extensible Unificada ha surgido como firmware más moderno y flexible con nuevas funciones que van más de la mano con las necesidades actuales de más volumen y más velocidad. UEFI soporta discos duros de mayor tamaño y tiempos de arranque más rápidos.
Ventajas de UEFI:
- Fácil de programar, ya que usa el lenguaje de programación C. Con este lenguaje de programación se pueden inicializar varios dispositivos a la vez y tener tiempos de arranque mucho más rápidos.
- Más seguridad, basado en el modo Secure Boot.
- Más rápido, ya que puede ejecutarse en modo de 32 o 64 bits y tiene más espacio de direcciones direccionables que BIOS, resultando en un proceso de arranque más rápido.
- Facilita el soporte remoto. Permite el arranque a través de la red, además puede portar diferentes interfaces en un mismo firmware. También se puede acceder de forma remota a una PC que no puede iniciarse en el sistema operativo para solucionar problemas y realizar tareas de mantenimiento.
- Arranque seguro, ya que puede verificar la validez del sistema operativo para prevenir o comprobar si algún malware manipuló el proceso de arranque.
- Más funciones y capacidad de agregar programas. También puede asociar controladores (ya no se tendría que cargarlos en el sistema operativo), lo cual es una ventaja importante en agilidad.
- Modular, ya que se puede hacer modificaciones por partes sin afectar a lo demás.
- Independencia del microcódigo de CPU.
- Soporte a unidades de almacenamiento de mayor tamaño, con hasta 128 particiones.
Adicionalmente, UEFI puede emular a BIOS antiguas en el caso de necesitar instalar en sistemas operativos antiguos.
Continuación del uso del término “BIOS” para referirse a UEFI por simplicidad
BIOS sigue siendo usado para inicializar y comprobar los componentes de hardware de un ordenador para garantizar su correcto funcionamiento. También, como hemos visto, permite personalizar el comportamiento de PC (qué arranca primero, por ejemplo). Así que BIOS sigue siendo de ayuda para resolver problemas que impiden que la PC arranque correctamente.
¿Cuándo deberías actualizar tu BIOS?
Razones para realizar una actualización del BIOS
La actualización del BIOS (o UEFI), como hemos mencionado antes, ayuda a que el sistema funcione con un mejor desempeño, además de estar comprobando y ajustando el hardware instalado, lo que a su vez impacta finalmente en el funcionamiento del software. Se recomienda actualizar BIOS solo si en la nueva versión existe una mejora necesaria.
A veces, sí es necesario actualizar BIOS para que la placa base admita el uso de un procesador de nueva generación u otro tipo de hardware.
Advertencia sobre los riesgos potenciales de una actualización del BIOS
La recomendación actualizar BIOS solo cuando es necesario parte de la posibilidad de que el proceso de actualización falle, dejando inoperable tu computadora (¡!). Otro riesgo es la pérdida de datos si algo falla durante la actualización (un corte de conexión, energía, proceso incompleto). Considera que puede haber errores inesperados que puedan resultar en un impacto directo en el funcionamiento de tu ordenador. Por eso se recomienda pedir apoyo profesional para hacerlo.
Cómo Actualizar tu BIOS
Aunque cada fabricante recomienda un proceso y sus propias herramientas para actualizar BIOS, podemos decir que el primer paso es siempre hacer una copia de seguridad de los datos más críticos en tu equipo, por si algo sale mal en el proceso (¡esperemos que no!). Para hacerlo, se recomienda lo siguiente:
Identificación del modelo de placa base y del BIOS mediante la información del sistema de Windows
La actualización del BIOS toma como referencia los datos del modelo de la placa base o del equipo. Para saberlo, pulsa la tecla Windows de tu PC y escribe Información del sistema. Se abrirá la ventana del servicio en el que se listarán todos los detalles del software instalado. Verás el Modelo del Sistema y Versión y Fecha del BIOS, para obtener el nombre del fabricante del BIOS, la versión del BIOS y su fecha de publicación. Con estos datos sabrás qué versión del BIOS descargar (debe ser posterior a la que tienes instalada).

Ahora bien, el método más común para actualizar BIOS es mediante un programa asistente de actualización, que te lleva de la mano a lo largo del proceso de actualización y se ejecuta desde el sistema operativo. Solo se debe indicar dónde se halla el archivo de actualización del BIOS y reiniciar el PC.
Pasos para descargar e instalar la actualización del BIOS según las instrucciones del fabricante
Generalmente, el fabricante de la placa base de tu PC cuenta no solo con un programa de asistente de actualización sino también con el archivo de actualización del BIOS, como el propio programa asistente, que puedes descargar desde la página de soporte del fabricante de tu equipo o placa base.
Una vez obtenido el programa asistente de instalación del BIOS y la última versión del BIOS, descárgalos en tu equipo. Es importante mencionar que no se recomienda usar versiones Beta de las actualizaciones del BIOS. Es preferible quedarte con la última versión estable, aunque sea más antigua.
Deja que el asistente de actualización te lleve de la mano y utiliza el archivo de actualización del BIOS para indicar que ése es el nuevo firmware que se va a instalar. En caso de que el archivo de actualización descargado no sea válido o más actualizado a lo que ya tienes instalado, el software del asistente lo detectará y no realizará la actualización.
Una vez concluido esto, reinicia tu PC. Te recomendamos que verifiques la configuración principal, revisando que la fecha y la hora sean correctas, el orden de arranque sea correcto (i.e. qué disco duro se verifica primero para una instalación de Windows) y revisa de que todo lo demás sea correcto.
Ahora sí, puedes continuar trabajando con la nueva versión del BIOS.
Consideraciones sobre las Actualizaciones del BIOS
Antes de realizar alguna actualización del BIOS, siempre se recomienda hacer una copia de seguridad de los datos para que esto no se convierta en tu pesadilla. Para la actualización del BIOS, ten en cuenta estas consideraciones:
- La actualización del BIOS generalmente no mejora el rendimiento, por lo que debe realizarse sólo si es necesario.
- Como hemos visto, existen varios métodos de actualización del BIOS, cada vez más intuitivos como aquéllos en que el propio fabricante ofrece un programa asistente de actualización que te lleva de la mano a lo largo del proceso. Es importante seguir las instrucciones que el fabricante de tu equipo señala para evitar que quede inutilizado.
- Siempre hay que investigar opciones de recuperación en caso de corrupción del BIOS y tener esa información a mano. Es decir: prepárate para cualquier contingencia. Muchas veces, a pesar de medidas de precaución, puede fallar la actualización, ya sea debido a problemas de incompatibilidad o a un desafortunado apagón o caída de la tensión eléctrica. Si esto llegase a pasar, y si aún funciona el PC, no apagues el equipo. Cierra la herramienta de actualización flash y reinicia el proceso de actualización para ver si funciona. Si realizaste una copia de seguridad del BIOS, intenta seleccionar este archivo para recuperarlo.
También algunas placas base tienen BIOS de respaldo o copia de seguridad que ayudan a restaurar el BIOS. O bien, el fabricante vende chips del BIOS desde su tienda online, a buen precio.
Por último, queda reiterar la recomendación de que te apoyes en un experto para la actualización del BIOS.
por Pandora FMS team | Last updated Apr 11, 2024 | Comunidad, Tecnología
Bebes agua del grifo todos los días, ¿verdad? ¿Sabes quién inventó el mecanismo de filtrado que hace que su agua esté pura y limpia?… bueno, ¿de verdad te importa?
¿Sabes que ese mecanismo es exactamente el mismo en todos los grifos de todas las casas de cualquier país?, ¿sabes que esa pieza, especializada, es obra de un ingeniero que lo hace por amor al arte?, ¿te imaginas que puede pasar si esta persona tiene un mal día?
Hablemos de la librería XZ Utils y por qué no es buena idea depender de un único proveedor y encima tocarle las narices. Hablemos de la librería XZ Utils y de su último desarrollador, Jia Tan.
Sí, el software de código abierto nos puede ofrecer una serie de beneficios en términos de precio (sí, porque es “gratis”), transparencia, colaboración y adaptabilidad, pero también entraña un riesgo respecto a la seguridad y confianza excesiva que depositamos como usuarios.
¿Qué ocurrió?
El pasado 29 de marzo, Red Hat, Inc. daba a conocer la vulnerabilidad CVE-2024-3094, contando con una puntuación de 10 en la escala de Common Vulnerability Scoring System, y, por lo tanto, una vulnerabilidad crítica, la cual comprometía a los servidores SSH afectados.
Esta vulnerabilidad afectaba al paquete XZ Utils, que es un conjunto de herramientas de software que proporcionan compresión y descompresión de archivos mediante el algoritmo LZMA/LZMA2, y que se incluye en las principales distribuciones de Linux. De no haber sido descubierta, podría haber sido muy grave, ya que se trataba de un código malicioso de tipo backdoor el cual otorgaría acceso remoto no autorizado a los sistemas afectados mediante SSH.
La vulnerabilidad daba comienzo en la versión 5.6.0 de XZ, y afectaría también a la versión 5.6.1.
Durante el proceso de compilación de liblzma extraería un archivo de prueba camuflado existente en el código fuente, posteriormente utilizado para modificar funciones específicas en el código liblzma. El resultado es una librería liblzma modificada, que puede ser usada por cualquier software enlazado a la misma, interceptando y modificando la interacción de datos con la librería.
Este proceso de implementar una backdoor en XZ es la parte final de una campaña que se ha extendido durante 2 años de operaciones, principalmente de tipo HUMNIT (inteligencia humana) por parte del usuario Jia Tan.
El usuario Jia Tan creó su cuenta de Github en 2021, realizando su primer commit al repositorio de XZ el día 6 de febrero de 2022. Más recientemente, el 16 de febrero de 2024 se añadiría un fichero malicioso bajo el nombre de “build-to-host.m4” en .gitignore, posteriormente incorporado junto al lanzamiento del paquete, para finalmente el día 9 de marzo de 2024 incorporar el backdoor oculto en dos ficheros de testeo:
- tests/files/bad-3-corrupt_lzma2.xz
- tests/files/good-large_compressed.lzma
¿Cómo se dieron cuenta?
La principal persona encargada de localizar este problema es Andres Freund.
Se trata de uno de los ingenieros de software más importantes en Microsoft, quien se encontraba realizando tareas de micro-benchmarking. Durante sus pruebas, se dio cuenta de que los procesos de sshd estaban usando una cantidad de CPU poco normal a pesar de que no se establecieran las sesiones.
Tras perfilar sshd, vio mucho tiempo de CPU en la librería liblzma. Esto a su vez le recordó a una reciente y extraña queja de Valgrind sobre las pruebas automatizadas en PostgreSQL. Este comportamiento podría haberse pasado por alto y no ser descubierto, lo que hubiera originado una gran brecha de seguridad en servidores SSH Debian/Ubuntu
Según comenta el propio Andres Freund, se requirieron de una serie de coincidencias para poder encontrar esta vulnerabilidad, vamos que fue cuestión de suerte haberlo encontrado.
Lo que encendió las alarmas de Freund fue un pequeño retraso de tan solo 0.5 sec en las conexiones ssh, que aunque parece muy poco, fue lo que lo llevó a investigar más a fondo y encontrarse con el problema y el potencial caos que pudo haber generado.
Esto recalca la importancia de vigilar la ingeniería de software y las prácticas de seguridad. La buena noticia es que, la vulnerabilidad se ha encontrado en releases muy tempranas del software, por lo que en el mundo real no ha tenido prácticamente ningún efecto, gracias a la rápida detección de este código malicioso. Pero nos hace pensar en lo que habría podido pasar, de no haberse detectado a tiempo. No es la primera vez que ocurre ni la última que ocurrirá. La ventaja del Open Source es que esto se ha hecho público y se puede evaluar el impacto, en otros casos donde no hay dicha transparencia, el impacto puede ser más difícil de evaluar y por tanto, la remediación.
Reflexión
Con lo sucedido, podemos destacar tanto puntos positivos como negativos relacionados con el uso del código abierto.
Como puntos positivos podemos encontrar transparencia y colaboración entre desarrolladores de todo el mundo. Tener una comunidad vigilante, encargada de detectar y reportar posibles amenazas de seguridad, y contar con flexibilidad y adaptabilidad, ya que la naturaleza del código abierto permite adaptar y modificar el software según las necesidades específicas.
En cuanto a lo malo, encontramos la vulnerabilidad a ataques maliciosos, como es este caso con la actuación de desarrolladores con intenciones malignas. Los usuarios confían en que el software no contenga código malicioso, lo que puede llevar a una falsa sensación de seguridad. Además, debido a la cantidad de contribuciones que existen y a la propia complejidad del software, se puede decir que es muy difícil verificar de manera exhaustiva el código.
Si a esto le añadimos la existencia de librerías que son mantenidas por una persona o un muy pequeño grupo de personas, el riesgo de punto único de falla es mayor. En este caso, esa necesidad o beneficio de disponer de más gente aportando es lo que causó el problema.
En conclusión, si bien el software de código abierto nos puede ofrecer una serie de beneficios en términos de transparencia, colaboración y adaptabilidad, también puede presentar desventajas o desafíos en cuanto a la seguridad y confianza que depositamos como usuarios.
por Olivia Díaz | Last updated Apr 1, 2024 | Pandora FMS
Hablar de demasiadas alertas en ciberseguridad no es hablar del cuento de Pedro y el Lobo y de cómo las personas acaban por ignorar advertencias falsas, sino de su gran impacto en las estrategias de seguridad y, sobre todo, en el estrés que causa al equipo de TI, que bien sabemos son cada vez más reducidos y deben cumplir diversas tareas en su día a día.
La Fatiga de Alertas o fatiga de alarma es un fenómeno en el que el exceso de alertas insensibiliza a las personas encargadas de responder a ellas, lo que lleva a alertas perdidas o ignoradas o, lo que es peor, respuestas tardías. Los profesionales de operaciones de seguridad de TI son propensos a esta fatiga debido a que los sistemas están sobrecargados con datos y pueden no clasificar las alertas con exactitud.
Definición de Fatiga de Alertas y su impacto en la seguridad de la organización
La fatiga de alertas, además de abrumar con datos por interpretar, desvía la atención de lo que es realmente importante. Para ponerlo en perspectiva, el engaño es una de las tácticas de guerra más antiguas desde los antiguos griegos: mediante el engaño, se desviaba la atención del enemigo dando la impresión de que se estaba produciendo un ataque en un lugar, haciendo que el enemigo concentrara sus recursos en dicho lugar para poder atacar por otro frente diferente. Trasladando esto a una organización, el cibercrimen bien puede causar y aprovechar la Fatiga del staff de TI para hallar brechas de seguridad. El costo de esto puede ser alto en la continuidad del negocio y consumo de recursos (tecnología, tiempo y recursos humanos), tal y como lo indica un artículo de Security Magazine sobre una encuesta a 800 profesionales de TI:
- 85% por ciento de los profesionales de tecnología de la información (TI) dicen que más del 20% de sus alertas de seguridad en la nube son falsos positivos. Cuantas más alertas, más difícil se hace identificar qué cosas son importantes y qué cosas no lo son.
- 59% de los encuestados recibe más de 500 alertas de seguridad de la nube pública por día. Al tener que filtrar las alertas, se pierde tiempo valioso que podría usarse para solucionar o incluso prevenir los problemas.
- Más del 50% de los encuestados dedica más de 20% de su tiempo a decidir qué alertas deben abordarse primero. La sobrecarga de alertas y las tasas de falsos positivos no solo contribuyen a la rotación, sino también a la pérdida de alertas críticas. 55% dicen que su equipo pasó por alto alertas críticas en el pasado debido a una priorización ineficaz de las alertas, a menudo semanalmente e incluso diariamente.
Lo que sucede es que el equipo que se encarga de revisar las alertas se va insensibilizando. Por naturaleza humana, cuando nos llega un aviso de cada pequeña cosa, nos acostumbramos a que las alertas sean poco importantes, así que se le da cada vez menos importancia. Esto significa que hay que encontrar el equilibrio: necesitamos estar enterados del estado de nuestro entorno, pero demasiadas alertas pueden causar más daño que la ayuda que prestan, porque dificultan la priorización de los problemas.
Causas de la Fatiga de Alertas
La Fatiga de Alertas se debe a una o varias de estas causas:
Son situaciones en las que un sistema de seguridad identifica erróneamente una acción o evento benigno como una amenaza o riesgo. Pueden deberse a varios factores, como firmas de amenazas desactualizadas, malas configuraciones de seguridad (o demasiado entusiastas), o limitaciones en los algoritmos de detección.
Falta de contexto
Las alertas deben ser interpretadas, por lo que, si las notificaciones de alerta no tienen el contexto adecuado, puede resultar confuso y difícil determinar la severidad de una alerta. Esto lleva a respuestas tardías.
Varios sistemas de seguridad
La consolidación y la correlación de las alertas se dificultan si existen diversos sistemas de seguridad que trabajan al mismo tiempo… y esto empeora cuando crece el volumen de alertas con distintos niveles de complejidad.
Falta de filtros y personalización de alertas de ciberseguridad
Si no se definen y filtran puede provocar un sinfín de notificaciones no amenazadoras o irrelevantes.
Políticas y procedimientos de seguridad no claros
Los procedimientos mal definidos llegan a ser muy problemáticos porque contribuyen a agravar el problema.
Escasez de recursos
No es fácil contar con profesionales de la seguridad que sepan interpretar y además gestionar un alto volumen de alertas lo que conduce a respuestas tardías.
Lo anterior nos dice que se requiere de una correcta gestión y políticas de alertas, junto con las herramientas adecuadas de monitorización que apoyen al staff de TI.
Falsos positivos más comunes
De acuerdo con el Institute of Data, los falsos positivos con los que se enfrentan los equipos de TI y seguridad son:
Falsos positivos sobre anomalías en la red
Estos ocurren cuando las herramientas de monitorización de red identifican actividades de red normales o inofensivas como sospechosas o maliciosas, tales como alertas falsas para escaneos de red, intercambio legítimo de archivos o actividades del sistema en segundo plano.
Falsos positivos de malware
El software antivirus a menudo marca archivos o aplicaciones benignas como potencialmente maliciosas. Esto puede suceder cuando un archivo comparte similitudes con firmas de malware conocidas o muestra un comportamiento sospechoso. Un falso positivo en ciberseguridad en este contexto puede resultar en el bloqueo o cuarentena de software legítimo, provocando interrupciones en las operaciones normales.
Falsos positivos sobre el comportamiento del usuario
Los sistemas de seguridad que monitorizan las actividades de los usuarios pueden generar un falso positivo en ciberseguridad cuando las acciones de un individuo se marcan como anormales o potencialmente maliciosas. Ejemplo: un empleado que accede a documentos confidenciales después del horario laboral, generando un falso positivo en ciberseguridad, aunque pueda ser legítimo.
También se pueden encontrar falsos positivos en los sistemas de seguridad del correo electrónico. Por ejemplo, los filtros de Spam pueden clasificar erróneamente los correos electrónicos legítimos como spam, lo que hace que los mensajes importantes terminen en la carpeta de correo no deseado. ¿Puedes imaginarte el impacto de que un correo de vital importancia acabe en la carpeta de Spam?
Consecuencias de la Fatiga de Alertas
La Fatiga de Alertas tiene consecuencias no sólo en el propio staff de TI sino también en la organización:
Falsa sensación de seguridad
Demasiadas alertas pueden llevar al equipo de TI a pensar que son falsos positivos, dejando de lado las acciones que se podrían tomar.
Respuesta tardía
El exceso de alertas saturan al equipo de TI, impidiendo reaccionar a tiempo ante riesgos reales y críticos. Esto, a su vez, provoca remediaciones costosas e incluso la necesidad de asignar más personal para resolver el problema que pudo evitarse.
Incumplimiento regulatorio
Las filtraciones de seguridad pueden conducir a multas y sanciones para la organización.
Una violación a la seguridad de la empresa llega a divulgarse (y hemos visto titulares en las noticias) e impacta a su reputación. Esto puede llevar a la pérdida de confianza de lo clientes… y, por consiguiente, generar menos ingresos.
Sobrecarga de trabajo para el staff de TI
Si el personal a cargo de la monitorización de las alertas se siente abrumado de notificaciones, pueden experimentar mayor estrés laboral. Ésta ha sido una de las causas de menor productividad y una alta rotación de personal en el área de TI.
Deterioro de la moral
La desmotivación del equipo puede hacer que dejen de involucrarse y volverse menos productivos.
¿Cómo evitar estos problemas de Fatiga de Alertas?
Si se diseñan las alertas antes de implementarlas, se convierten en alertas útiles y eficientes, además de ahorrar mucho tiempo y, en consecuencia, se reduce la fatiga de alertas.
Priorizar
La mejor forma de conseguir un alertado efectivo es usar la estrategia “menos es más”. Hay que pensar primero en las cosas absolutamente imprescindibles.
- ¿Qué equipos son absolutamente imprescindibles? Casi nadie necesita alertas en equipos de pruebas.
- ¿Cuál es la gravedad si cierto servicio no funciona adecuadamente? Los servicios de alto impacto deben tener el alertado más agresivo (nivel 1, por ejemplo).
- ¿Qué es lo mínimo que se necesita para determinar que un equipo, proceso o servicio NO está funcionando correctamente? A veces es suficiente monitorizar la conectividad del dispositivo, en otras ocasiones se necesita algo más específico, como el estado de un servicio.
Responder estas preguntas ayudará a saber cuáles son las alertas más importantes sobre las que necesitamos actuar inmediatamente.
Evitar falsos positivos
A veces puede ser complicado conseguir que las alertas sólo se disparen cuando realmente existe un problema. Configurar los umbrales correctamente es gran parte del trabajo, pero hay más opciones disponibles. Pandora FMS tiene varias herramientas para ayudar a evitar falsos positivos:
Umbrales dinámicos
Son muy útiles para ajustar los umbrales a los datos reales. Al activar esta función en un módulo, Pandora FMS hace un análisis de su histórico de datos, y modifica automáticamente los umbrales para que capturen los datos que se salen de lo normal.




- Umbrales FF: En ocasiones el problema no es que no hayamos definido correctamente las alertas o los umbrales, sino que las métricas que utilizamos no son del todo fiables. Pongamos que estamos monitorizando la disponibilidad de un dispositivo, pero la conexión a la red en la que se encuentra es inestable (por ejemplo, una red inalámbrica muy saturada). Esto puede hacer que se pierdan paquetes de datos o, incluso, que haya momentos en los que un ping no consiga conectar con el dispositivo a pesar de estar activo y llevando a cabo su función correctamente. Para estos casos, Pandora FMS cuenta con el Umbral FF (FF Threshold). Usando esta opción podemos configurar cierta “tolerancia” al módulo antes de cambiar de estado. De este modo, por ejemplo, el agente reportará dos datos críticos consecutivos para que el módulo cambie a estado crítico.
- Utilizar ventanas de mantenimiento: Pandora FMS permite deshabilitar temporalmente el alertado e incluso la generación de eventos de un módulo o agente concretos con el modo silencioso (Quiet). Con las ventanas de mantenimiento (Scheduled downtimes), esto se puede programar para que, por ejemplo, no salten alertas durante las actualizaciones del servicio X en la madrugada de los sábados.
Mejorar los procesos de alerta
Una vez que se hayan asegurado de que las alertas que se disparen son las necesarias, y que sólo saltarán cuando realmente ocurra algo, podemos mejorar mucho más el proceso como sigue:
- Automatización: El alertado no sólo sirve para enviar notificaciones; también se puede usar para automatizar acciones. Imaginemos que estamos monitorizando un antiguo servicio que a veces se satura, y cuando eso ocurre, la manera de recuperarlo es simplemente reiniciarlo. Con Pandora FMS podemos configurar la alerta que monitoriza ese servicio para que trate de reiniciarlo automáticamente. Para ello, sólo debemos configurar un comando de alerta que, por ejemplo, haga una llamada API al gestor de dicho servicio para que lo reinicie.
- Escalado de alertas: Siguiendo con el ejemplo anterior, con el escalado de alertas podemos hacer que la primera acción que realice Pandora FMS, cuando se dispara la alerta, sea un reinicio del servicio. Si en la siguiente ejecución del agente, el módulo sigue en estado crítico, podemos configurar la alerta para que, por ejemplo, se cree un ticket en Pandora ITSM.
- Umbrales de alerta (alert threshold): Las alertas tienen un contador interno que indica cuándo se deben disparar las acciones configuradas. Simplemente modificando el umbral de una alerta podemos pasar de tener varios correos al día avisándonos del mismo problema a recibir uno cada dos o tres días.

Esta alerta (de ejecución diaria) tiene tres acciones: en un primer momento, se trata de reiniciar el servicio. Si a la siguiente ejecución de alerta el módulo no se ha recuperado, se manda un correo al administrador, y si aún no se ha solucionado, se crea un ticket en Pandora ITSM. Si la alerta se mantiene disparada a la cuarta ejecución, se mandará un mensaje diario por Slack al grupo de operadores.
Otras formas de reducir el número de alertas
- La protección en cascada (Cascade Protection) es una herramienta inestimable en la configuración de un alertado eficiente, al omitir el disparo de alertas de dispositivos dependientes de un dispositivo principal. Con un alertado básico, si estamos monitorizando una red a la que accedemos por medio de un switch específico y este dispositivo tiene un problema, comenzaremos a recibir alertas por cada equipo de esa red a la que ya no podemos acceder. En cambio, si activamos la protección en cascada en los agentes de esa red (indicando que dependen del switch), Pandora FMS detectará que el equipo principal está caído, y omitirá el alertado de todos los equipos dependientes hasta que el switch vuelva a estar operativo.
- El uso de servicios puede ayudarnos no sólo a reducir el número de alertas disparadas, sino también el número de alertas configuradas. Si tenemos un clúster de 10 máquinas, quizá no sea muy eficiente tener una alerta para cada una de ellas. Pandora FMS permite agrupar agentes y módulos en Servicios, junto con estructuras jerárquicas en las que podemos decidir el peso de cada elemento y alertar en base al estado general.

Implementar un plan de respuesta a incidentes
La respuesta a incidentes es el proceso de prepararse para las amenazas a la ciberseguridad, detectarlas a medida que surgen, responder para sofocarlas o mitigarlas. Las organizaciones pueden gestionar la inteligencia y mitigación de amenazas a través de la planificación de respuesta a incidentes. Hay que recordar que cualquier organización corre el riesgo de perder dinero, datos y reputación debido a las amenazas a la ciberseguridad.
La respuesta a incidentes requiere reunir un equipo de personas de diferentes departamentos dentro de una organización, incluyendo líderes de la organización, parte del staff de TI y otras áreas involucradas en el control y cumplimiento de datos. Se recomienda:
- Planificar cómo analizar datos y redes en busca de posibles amenazas y actividades sospechosas.
- Decidir qué incidentes deben recibir una respuesta primero.
- Tener un plan para la pérdida de datos y finanzas.
- Cumplir con todas las leyes pertinentes.
- Estar preparado para presentar datos y documentación a las autoridades después de una infracción.
Por último, un recordatorio oportuno: la respuesta a incidentes se volvió muy importante a partir del RPDG con normas extremadamente estrictas sobre informes de incumplimiento. Si hay que denunciar un incumplimiento concreto, la empresa debe tener conocimiento de ello en 72 horas y comunicar lo sucedido a las autoridades correspondientes. También se debe proporcionar un informe de lo sucedido y presentar un plan activo para mitigar el daño. Si una empresa no tiene un plan de respuesta a incidentes predefinido, no estará lista para presentar dicho informe.
LA RPDG también requiere saber si la organización cuenta con las medidas de seguridad adecuadas. Las empresas pueden ser fuertemente penalizadas si son examinadas después de la infracción y los funcionarios descubren que no contaban con la seguridad adecuada.
Conclusión
Está claro el alto costo tanto para el personal de TI (constante rotación, agotamiento, estrés, decisiones tardías, etc.) como para la organización (interrupción de las operaciones, filtraciones y violaciones de seguridad, sanciones bastante onerosas). Aunque no existe una solución única para evitar el exceso de alertas, sí se recomienda priorizar alertas, evitar falsos positivos (umbrales dinámicos y FF, ventanas de mantenimiento), mejoras en procesos de alertas y un plan de respuesta a incidentes, junto con políticas y procedimientos claros para responder a incidentes, con el fin de asegurarte de encontrar el equilibrio adecuado para tu organización.
Contáctanos para acompañarte con las mejores prácticas de Monitorización y alertas.
Si te interesó este artículo, puedes leer también: ¿Sabes para qué sirven los umbrales dinámicos en la monitorización?
por Ahinóam Rodríguez | Last updated Mar 19, 2024 | Pandora FMS
En la actualidad muchas empresas generan y almacenan enormes cantidades de datos. Para hacernos una idea, décadas atrás, el tamaño de Internet se medía en Terabytes (TB) y ahora se mide en Zettabytes (ZB).
Las bases de datos relacionales se diseñaron para satisfacer las necesidades de almacenamiento y gestión de la información que había en la época. Hoy en día tenemos un escenario nuevo donde las redes sociales, los dispositivos IoT y el Edge Computing generan millones de datos no estructurados y altamente variables. Muchas aplicaciones modernas requieren un alto rendimiento para proporcionar respuestas rápidas a las consultas de los usuarios.
En los SGBD relacionales un incremento en el volumen de datos debe ir acompañado de mejoras en la capacidad del hardware. Este desafío tecnológico obligó a las empresas a buscar soluciones más flexibles y escalables.
Las bases de datos NoSQL tienen una arquitectura distribuida que les permite escalar horizontalmente y manejar flujos de datos continuos y rápidos. Esto las convierte en una opción viable en entornos de alta demanda como las plataformas de streaming donde el procesamiento de los datos se realiza en tiempo real.
Ante el interés que despiertan las bases de datos NoSQL en el contexto actual, nos parece indispensable elaborar una guía de uso que ayude a los desarrolladores a comprender y utilizar eficazmente esta tecnología. En este artículo nos proponemos aclarar algunos conceptos básicos sobre NoSQL, poniendo ejemplos prácticos y proporcionando recomendaciones sobre implementación y optimización para aprovechar al máximo sus ventajas.
Modelado de datos en NoSQL
Una de las mayores diferencias entre las bases de relacionales y no relacionales radica en el enfoque que adoptamos para el modelado de datos.
Las BBDD NoSQL no siguen un esquema rígido y predefinido. Esto permite a los desarrolladores elegir libremente el modelo de datos en función de las características del proyecto.
El objetivo fundamental es mejorar el rendimiento de las consultas, eliminando la necesidad de estructurar la información en tablas complejas. Así, NoSQL admite una gran variedad de datos desnormalizados como documentos JSON, valores clave, columnas y relaciones de grafos.
Cada tipo de base de datos NoSQL está optimizado para facilitar el acceso, consulta y modificación de una clase específica de datos. Las principales son:
- Clave-valor: Redis, Riak o DyamoDB. Son las BBDD NoSQL más sencillas. Almacenan la información como si fuera un diccionario basado en pares de clave-valor, donde cada valor está asociado con una clave única. Se diseñaron con la finalidad de escalar rápidamente garantizando el rendimiento del sistema y la disponibilidad de los datos.
- Documentales: MongoDB, Couchbase. Los datos se almacenan en documentos como JSON, BSON o XML. Algunos las consideran un escalón superior de los sistemas clave-valor ya que permiten encapsular los pares de clave-valor en estructuras más complejas para realizar consultas avanzadas.
- Orientadas a columnas: BigTable, Cassandra, HBase. En lugar de almacenar los datos en filas como lo hacen las bases de datos relacionales, lo hacen en columnas. Estas a su vez se organizan en familias de columnas ordenadas de forma lógica en la base de datos. El sistema está optimizado para trabajar con grandes conjuntos de datos y cargas de trabajo distribuidas.
- Orientadas a grafos: Neo4J, InfiniteGraph. Guardan los datos como entidades y relaciones entre entidades. Las entidades se llaman “nodos” y las relaciones que unen los nodos son los “bordes”. Son ideales para gestionar datos con relaciones complejas, como redes sociales o aplicaciones con ubicación geoespacial.
Almacenamiento y particionado de datos en NoSQL
En lugar de emplear una arquitectura monolítica y costosa donde todos los datos se almacenan en un único servidor, NoSQL distribuye la información en diferentes servidores conocidos como “nodos” que se unen en una red llamada “clúster”.
Esta característica permite a los SGBD NoSQL escalar horizontalmente y gestionar grandes volúmenes de datos mediante técnicas de particionado.
¿Qué es el particionado en bases de datos NoSQL?
Es un proceso que consiste en dividir una base de datos de gran tamaño en fragmentos más pequeños y fáciles de administrar.
Es necesario aclarar que el particionado de datos no es exclusivo de NoSQL. Las bases de datos SQL también soportan particionado, pero los sistemas NoSQL poseen una función nativa llamada “auto-sharding” que divide los datos de manera automática, balanceando la carga entre los servidores.
¿Cuándo particionar una base de datos NoSQL?
Existen varias situaciones en las que es necesario particionar una BBDD NoSQL:
- Cuando el servidor está al límite de su capacidad de almacenamiento o memoria RAM.
- Cuando necesitamos reducir la latencia. En este caso balanceamos la carga de trabajo en diferentes nodos del clúster para mejorar el rendimiento.
- Cuando queremos asegurar la disponibilidad de los datos iniciando un procedimiento de replicado.
Aunque el particionado se utiliza en BBDD de gran tamaño, no debemos esperar a que el volumen de datos sea excesivo porque en este caso podría provocar la sobrecarga del sistema.
Muchos programadores utilizan AWS o Azure para simplificar el proceso. Estas plataformas ofrecen una gran variedad de servicios en la nube que permiten a los desarrolladores despreocuparse de las tareas relacionadas con la administración de las bases de datos y centrarse en escribir el código de sus aplicaciones.
Técnicas de particionado
Existen diferentes técnicas para realizar el particionado de una base de datos de arquitectura distribuida.
- Clustering
Consiste en agrupar varios servidores para que trabajen juntos como si fueran uno solo. En un entorno de clustering todos los nodos del clúster comparten la carga de trabajo para aumentar la capacidad de procesamiento del sistema y la tolerancia a fallos.
- Separación de lecturas y escrituras
Consiste en dirigir las operaciones de lectura y escritura a diferentes nodos del clúster. Por ejemplo, las operaciones de lectura se pueden dirigir a servidores de réplica que ejercen de esclavos para aliviar la carga del nodo principal.
- Sharding
Los datos se dividen horizontalmente en fragmentos más pequeños llamados “shards” y se distribuyen en diferentes nodos del clúster.
Es la técnica de particionado más utilizada en bases de datos con arquitectura distribuida por su escalabilidad y capacidad de autobalancear la carga del sistema, evitando cuellos de botella.
- Consistent Hashing
Es un algoritmo que se utiliza para asignar de manera eficiente datos a nodos en un entorno distribuido.
La idea de los hashes consistentes fue introducida por David Karger en un artículo de investigación publicado en 1997 y titulado “Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web“.
En este trabajo académico se propuso por primera vez el algoritmo “Consistent Hashing” como una solución para balancear la carga de trabajo de los servidores con bases de datos distribuidas.
Es una técnica que se utiliza tanto en el particionado como en la replicación de datos ya que permite solucionar problemas comunes a ambos procesos como la redistribución de claves y de recursos cuando se añaden o se eliminan nodos en un clúster.

Los nodos se representan en un anillo circular y cada dato se asigna a un nodo mediante una función de hash. Cuando se añade un nuevo nodo al sistema, los datos se redistribuyen entre los nodos existentes y el nuevo nodo.
El hash funciona como un identificador único de manera que al realizar una consulta, sólo hay que ubicar ese punto sobre el anillo.
Un ejemplo de base de datos NoSQL que utiliza “Consistent Hashing” es DynamoDB, ya que uno de sus puntos fuertes es el escalado incremental, y para conseguirlo necesita un procedimiento capaz de fraccionar los datos de manera dinámica.
Replicado en bases de datos NoSQL
Consiste en crear copias de los datos en múltiples máquinas. Este proceso busca mejorar el rendimiento de las BBDD, distribuyendo las consultas entre diferentes nodos. Al mismo tiempo, garantiza que la información seguirá estando disponible, aunque se produzca un fallo en el hardware.
Las dos formas principales de realizar el replicado de datos (además del Consistent Hashing que ya mencionamos en el apartado anterior) son:
Servidor maestro-esclavo
La escritura se realiza en el nodo principal y desde él se replican los datos a los nodos secundarios.
Peer to peer
Todos los nodos del clúster tienen el mismo nivel jerárquico y pueden aceptar escrituras. Cuando los datos se escriben en un nodo se propagan a todos los demás. Esto garantiza la disponibilidad, pero puede provocar también inconsistencias si no se implementan mecanismos de resolución de conflictos (por ejemplo, si dos nodos intentan escribir a la vez en la misma ubicación).

Teorema de CAP y consistencia de las bases de datos NoSQL
El teorema CAP fue presentado por el profesor Eric Brewer de la Universidad de Berkeley en el año 2.000. Nos explica que una base de datos distribuida puede cumplir a la vez con dos de estas tres cualidades:
- Consistencia: Todas las peticiones posteriores a la operación de escritura obtienen el mismo valor, independientemente de dónde se realicen las consultas.
- Disponibilidad: La base de datos siempre responde a las solicitudes, incluso si se produce un fallo.
- Tolerancia a particiones: El sistema sigue funcionando aunque se interrumpa la comunicación entre algunos nodos.

Según este esquema podríamos elegir un SGBD que sea consistente y tolerante a particiones (MongoDB, HBase), disponible y tolerante a particiones (DynamoDB, Cassandra) o consistente y disponible (MySQL), pero no puede mantener las tres características a la vez.
Cada desarrollo tiene sus requerimientos y el teorema CAP nos ayuda a encontrar el SGBD que mejor se ajusta a sus necesidades. A veces es imprescindible que los datos sean consistentes en todo momento (por ejemplo, en un sistema de control de stock). En estos casos solemos trabajar con una base de datos relacional. En las bases de datos NoSQL la consistencia no está cien por cien garantizada, ya que los cambios deben propagarse entre todos los nodos del clúster.
BASE y el modelo de consistencia eventual en NoSQL
BASE es un concepto enfrentado a las propiedades ACID (atomicidad, consistencia, aislamiento, durabilidad) de las bases de datos relacionales. En este enfoque priorizamos la disponibilidad de los datos por encima de la consistencia inmediata, algo que es especialmente importante en las aplicaciones que procesan datos en tiempo real.
El acrónimo BASE significa:
- Basically Available: La base de datos envía siempre una respuesta, aunque contenga errores si se producen lecturas desde nodos que aún no han recibido la última escritura.
- Soft state: La base de datos puede estar en un estado inconsistente cuando se produce la lectura, así que es posible que obtengamos resultados dispares en diferentes lecturas.
- Eventually Consistent: La consistencia en la base de datos se alcanza una vez que la información se ha propagado a todos los nodos. Hasta ese momento hablamos de una consistencia eventual.
A pesar de que el enfoque BASE surgió en respuesta a ACID, no son opciones excluyentes. De hecho, algunas bases de datos NoSQL como MongoDB ofrecen una consistencia configurable.
Indexación de árboles en bases de datos NoSQL. ¿Cuáles son las estructuras más conocidas?
Hasta el momento hemos visto cómo se distribuyen y se replican los datos en una BBDD NoSQL, pero nos falta explicar cómo se estructuran de manera eficiente para facilitar su búsqueda y recuperación.
Los árboles son las estructuras de datos más utilizadas. Organizan los nodos de forma jerárquica partiendo de un nodo raíz que es el primer nodo del árbol, nodos padre que son todos aquellos nodos que tienen al menos un hijo, y nodos hijo que completan el árbol.
El número de niveles de un árbol determina su altura. Es importante tener en cuenta el tamaño final del árbol y el número de nodos que contiene, ya que esto puede influir en el rendimiento de las consultas y el tiempo de recuperación de los datos.
Existen diferentes índices de árboles que podemos emplear en bases de datos NoSQL.
Árboles B
Son árboles balanceados e ideales para sistemas distribuidos por su capacidad para mantener la coherencia de los índices, aunque también se pueden utilizar en bases de datos relacionales.
La característica principal de los árboles B es que pueden tener varios nodos hijos por cada nodo padre, pero siempre mantienen balanceada su altura. Esto quiere decir que poseen un número de niveles idéntico o muy similar en cada rama del árbol, una particularidad que hace posible manejar inserciones y eliminaciones de manera eficiente.
Se utilizan mucho en sistemas de archivo donde es necesario acceder con rapidez a grandes conjuntos de datos.
Árboles T
También son árboles balanceados que pueden tener como máximo dos o tres nodos hijos.
A diferencia de los árboles B que están diseñados para facilitar las búsquedas en grandes volúmenes de datos, los árboles T funcionan mejor en aplicaciones donde se necesita acceso rápido a datos ordenados.
Árboles AVL
Son árboles binarios, lo que significa que cada nodo padre puede tener como máximo dos nodos hijos.
Otra característica destacada de los árboles AVL es que están equilibrados en altura. El sistema de autobalanceo sirve para garantizar que el árbol no crezca de manera descontrolada, algo que podría perjudicar el rendimiento de la base de datos.
Son una buena elección para desarrollar aplicaciones que requieren consultas rápidas y operaciones de inserción y eliminación en tiempo logarítmico.
Árboles KD
Son árboles binarios y balanceados que organizan los datos en múltiples dimensiones. En cada nivel del árbol se crea una dimensión específica.
Se utilizan en aplicaciones que trabajan con datos geoespaciales o datos científicos.
Árboles Merkle
Representan un caso especial de estructuras de datos en sistemas distribuidos. Son conocidos por su utilidad en Blockchain para cifrar datos de manera eficiente y segura.
Un árbol Merkle es un tipo de árbol binario que ofrece una solución de primer nivel al problema de la verificación de los datos. Su creador fue un informático y criptógrafo estadounidense llamado Ralph Merkle en 1979.
Los árboles Merkle tienen una estructura matemática formada por hashes de varios bloques de datos que resumen todas las transacciones en un bloque.

Los datos se van agrupando en conjuntos de datos más grandes y se relacionan con los nodos principales hasta reunir todos los datos dentro del sistema. Como resultado, se obtiene la raíz Merkle (Merkle Root).
¿Cómo se calcula la raíz Merkle?
1. Los datos se dividen en bloques de un tamaño fijo.
2. Cada bloque de datos se somete a una función hash criptográfica.
3. Los hashes se agrupan en pares y a estos pares se les aplica nuevamente una función para generar sus respectivos hashes padres hasta que solamente queda un hash que es la raíz Merkle.
La raíz Merkle está en la cima del árbol y es el valor que representa de forma segura la integridad de los datos. Esto se debe a que está determinadamente relacionada con todos los conjuntos de datos y el hash que identifica a cada uno de ellos. Cualquier cambio en los datos originales alterará la raíz Merkle. De esta forma, podemos tener la certeza de que los datos no han sido modificados en ningún punto.
Esta es la razón por la que los árboles Merkle se emplean con frecuencia para verificar la integridad de los bloques de datos en transacciones de Blockchain.
Bases de datos NoSQL como Cassandra recurren a estas estructuras para validar los datos sin sacrificar velocidad y rendimiento.
Comparación entre sistemas de gestión de bases de datos NoSQL
Por lo que hemos podido ver hasta ahora, los SGBD NoSQL son extraordinariamente complejos y variados. Cada uno de ellos puede adoptar un modelo de datos diferente y presentar características únicas de almacenamiento, consulta y escalabilidad. Este abanico de opciones permite a los desarrolladores seleccionar la base de datos más adecuada para las necesidades de su proyecto.
A continuación, pondremos como ejemplo dos de los SGBD NoSQL más usados en la actualidad para el desarrollo de aplicaciones escalables y de alto rendimiento: MongoDB y Apache Cassandra.
MongoDB
Es un SGBD de tipo documental desarrollado por 10gen en 2007. Es de código abierto y ha sido creado en lenguajes de programación como C++ C y JavaScript.

MongoDB es uno de los sistemas más populares para bases de datos distribuidas. Redes sociales como LinkedIn, empresas de telecomunicaciones como Telefónica o medios informativos como Washington Post utilizan MongoDB.
Veamos algunas de sus características principales.
- Almacenamiento en BBDD con MongoDB: MongoDB almacena los datos en documentos BSON (JSON binario). Cada base de datos se compone de una colección de documentos. Una vez que MongoDB está instalado y la Shell está en ejecución, podemos crear la BBDD simplemente indicando el nombre que queremos usar. Si la BBDD aún no existe, MongoDB la creará automáticamente al añadir la primera colección. De manera similar, una colección se crea automáticamente al almacenar un documento en ella. Sólo tenemos que agregar el primer documento y ejecutar la sentencia “insert” y MongoDB creará un campo ID asignándole un valor del tipo ObjectID que es único para cada máquina en el momento en el que se ejecuta la operación.
- Particionado en BBDD con MongoDB: MongoDB facilita la distribución de datos en múltiples servidores utilizando la función de sharding automático. La fragmentación de los datos se produce a nivel de colección, distribuyendo los documentos entre los distintos nodos del clúster. Para efectuar esta distribución se emplea una “clave de partición” definida como campo en todos los documentos de la colección. Los datos se fragmentan en “chunks” que tienen por defecto un tamaño de 64 MB y se almacenan en diferentes shards dentro del clúster, procurando que exista un equilibrio. MongoBD monitoriza continuamente la distribución de los chunks entre los nodos del shard y si fuera necesario, efectúa un rebalanceo automático para asegurarse de que la carga de trabajo que soportan los nodos esté equilibrada.
- Replicado en BBDD con MongoDB: MongoDB utiliza un sistema de replicación basado en la arquitectura maestro-esclavo. El servidor maestro puede realizar operaciones de escritura y lectura, pero los nodos esclavos únicamente realizan lecturas (replica set). Las actualizaciones se comunican a los nodos esclavos mediante un log de operación llamado oplog.
- Consultas en BBDD con MongoDB: MongoDB cuenta con una potente API que permite acceder y analizar los datos en tiempo real, así como realizar consultas ad-hoc, es decir, consultas directas sobre una base de datos que no están predefinidas. Esto proporciona a los usuarios la posibilidad de realizar búsquedas personalizadas, filtrar documentos y ordenar los resultados por campos específicos. Para llevar a cabo estas consultas, MongoDB emplea el método “find” sobre la colección deseada o “findAndModify” para consultar y actualizar los valores de uno o más campos simultáneamente.
- Indexación en BBDD con MongoDB: MongoDB utiliza árboles B+ para indexar los datos almacenados en sus colecciones. Se trata de una variante de los árboles B con nodos de índice que contienen claves y punteros a otros nodos. Estos índices almacenan el valor de un campo específico, permitiendo que las operaciones de recuperación y eliminación de datos sean más eficientes.
- Coherencia en BBDD con MongoDB: A partir de la versión 4.0 (la más reciente es la 6.0), MongoDB soporta transacciones ACID a nivel de documento. La función “snapshot isolation” ofrece una visión coherente de los datos y permite realizar operaciones atómicas en múltiples documentos dentro de una sola transacción. Esta característica es especialmente relevante para las bases de datos NoSQL, ya que plantea soluciones a diferentes problemas relacionados con la consistencia, como escrituras concurrentes o consultas que devuelven versiones obsoletas de un documento. En este aspecto, MongoDB se acerca mucho a la estabilidad de los RDMS.
- Seguridad en BBDD con MongoDB: MongoDB tiene un nivel de seguridad alto para garantizar la confidencialidad de los datos almacenados. Cuenta con varios mecanismos de autenticación, configuración de accesos basada en roles, cifrado de datos en reposo y posibilidad de restringir el acceso a determinadas direcciones IP. Además, permite auditar la actividad del sistema y llevar un registro de las operaciones realizadas en la base de datos.
Apache Cassandra
Es un SGBD orientado a columnas que fue desarrollado por Facebook para optimizar las búsquedas dentro de su plataforma. Uno de los creadores de Cassandra es el informático Avinash Lakshman que trabajó anteriormente con Amazon, formando parte del grupo de ingenieros que desarrolló DynamoDB. Por este motivo, no es extraño que comparta algunas características con este otro sistema.
En el año 2008 fue lanzado como proyecto open source y en 2010 se convirtió en un proyecto top-level de la Fundación Apache. Desde entonces Cassandra continuó creciendo hasta ser uno de los SGBD NoSQL más populares.
Aunque a día de hoy Meta utiliza otras tecnologías, Cassandra sigue formando parte de su infraestructura de datos. Otras empresas que lo utilizan son Netflix, Apple o Ebay. En términos de escalabilidad está considerada como una de las mejores bases de datos NoSQL.

Veamos algunas de sus características más destacadas:
- Almacenamiento en BBDD con Apache Cassandra: Cassandra utiliza un modelo de datos tipo “Column Family”, que es similar a las bases de datos relacionales, pero más flexible. No se refiere a una estructura jerárquica de columnas que contengan otras columnas, sino más bien a una colección de pares clave-valor, donde la clave identifica una fila y el valor es un conjunto de columnas. Es un diseño pensado para almacenar grandes cantidades de datos y realizar operaciones de escritura y lectura más eficientes.
- Particionado en BBDD con Apache Cassandra: Para la distribución de datos Cassandra utiliza un particionador que reparte los datos en diferentes nodos del clúster. Este particionador usa el algoritmo “consistent hashing” para asignar una clave de partición única a cada fila de datos. Los datos que poseen la misma clave de partición estarán juntos en los mismos nodos. También admite nodos virtuales (vnodes), lo que significa que un mismo nodo físico puede tener varios rangos de datos.
- Replicado en BBDD con Apache Cassandra: Cassandra propone un modelo de replicado basado en Peer to peer en el que todos los nodos del clúster aceptan lecturas y escrituras. Al no depender de un nodo maestro para procesar las solicitudes, la posibilidad de que se produzca un cuello de botella es mínima. Los nodos se comunican entre sí y comparten datos utilizando un protocolo de gossiping.
- Consultas en BBDD con Apache Cassandra: Al igual que MongoDB, Cassandra también admite consultas ad-hoc, pero estas tienden a ser más eficientes si están basadas en la clave primaria. Además, dispone de su propio lenguaje de consulta llamado CQL (Cassandra Query Language) con una sintaxis similar a SQL, pero que en lugar de utilizar joins apuesta por la desnormalización de los datos.
- Indexación en BBDD con Apache Cassandra: Cassandra utiliza índices secundarios para permitir consultas eficientes sobre columnas que no forman parte de la clave primaria. Estos índices pueden afectar a columnas individuales o a varias columnas (SSTable Attached Secondary Index). Se crean para permitir consultas complejas de rango, prefijo o búsqueda de texto en un gran número de columnas.
- Coherencia en BBDD con Apache Cassandra: Al utilizar una arquitectura Peer to Peer Cassandra juega con la consistencia eventual. Los datos se propagan de forma asíncrona en múltiples nodos. Esto quiere decir que durante un breve periodo de tiempo puede haber discrepancias entre las diferentes réplicas. Sin embargo, Cassandra proporciona también mecanismos para configurar el nivel de consistencia. Cuando se produce un conflicto (por ejemplo, si las réplicas tienen versiones diferentes), utiliza la marca de tiempo (timestamp) y da por válida la versión más reciente. Además, realiza reparaciones automáticas para mantener la coherencia y la integridad de los datos si se presentan fallos de hardware u otros eventos que causan discrepancias entre las réplicas.
- Seguridad en BBDD con Apache Cassandra: Para utilizar Cassandra en un entorno seguro es necesario realizar configuraciones, ya que muchas opciones no están habilitadas por defecto. Por ejemplo, debemos activar el sistema de autenticación y establecer permisos para cada rol de usuario. Además, es fundamental encriptar los datos en tránsito y en reposo. Para la comunicación entre los nodos y el cliente se pueden cifrar los datos en tránsito utilizando SSL/TLS.
Desafíos en la administración de las bases de datos NoSQL ¿Cómo ayuda Pandora FMS?
Los SGBD NoSQL ofrecen a los desarrolladores la posibilidad de gestionar grandes volúmenes de datos y de escalar horizontalmente añadiendo múltiples nodos a un clúster.
Para administrar estas infraestructuras distribuidas es necesario dominar diferentes técnicas de particionado y replicación de los datos (por ejemplo, hemos visto que MongoDB utiliza una arquitectura maestro-esclavo, mientras que Cassandra prioriza la disponibilidad con el modelo Peer to peer).
A diferencia de lo que ocurre con los RDMS que comparten muchas similitudes, en las bases de datos NoSQL no hay un paradigma común y cada sistema tiene sus propias APIs, lenguajes y una implementación diferente, por lo que acostumbrarse a trabajar con cada uno de ellos puede significar un auténtico desafío.
Teniendo en cuenta que la monitorización es un componente fundamental para la administración de cualquier base de datos, debemos ser pragmáticos y apoyarnos en aquellos recursos que nos hacen la vida más fácil.
Tanto MongoDB como Apache Cassandra disponen de comandos que devuelven información sobre el estado del sistema y permiten diagnosticar problemas antes de que se conviertan en fallos críticos. Otra posibilidad es utilizar el software de Pandora FMS para simplificar todo el proceso.
¿Cómo hacerlo?
Si se trata de una base de datos en MongoDB, tenemos que descargar el plugin de Pandora FMS para MongoDB. Este plugin utiliza el comando mongostat para recopilar información básica sobre el rendimiento del sistema. Una vez obtenidas las métricas relevantes, estas son enviadas al servidor de datos de Pandora FMS para su análisis.
En cambio, si la base de datos funciona con Apache Cassandra, debemos descargar el plugin correspondiente a este sistema. Este plugin obtiene la información ejecutando internamente la herramienta nodetool, que ya está incluida en la instalación estándar de Cassandra y ofrece una amplia gama de comandos para monitorizar el estado de los servidores. Una vez que se analizan los resultados, el plugin estructura los datos en formato XML y los envía al servidor de Pandora FMS para su posterior análisis y visualización.
Para que estos plugins funcionen correctamente, hay que copiar los ficheros en el directorio de plugins del agente de Pandora FMS, editar el archivo de configuración y, por último, reiniciar el sistema (en los artículos enlazados se explica muy bien el procedimiento).
Una vez que los plugins estén activos, podremos monitorear la actividad de los nodos del clúster en una vista de gráficos y recibir alertas si se produce algún fallo. Estas y otras opciones de automatización nos ayudan a ahorrar bastante tiempo y recursos en el mantenimiento de las bases de datos NoSQL.
¡Crea una cuenta gratuita y descubre todas las utilidades de Pandora FMS para impulsar tu proyecto digital!
Y si tienes dudas sobre la diferencia entre NoSQL y SQL puedes consultar nuestro post “NoSQL vs SQL: principales diferencias y cuándo elegir cada una de ellas“.
por Pandora FMS team | Last updated Mar 12, 2024 | Pandora FMS
Hoy se requiere confianza digital dentro y fuera de una organización, por lo que se deben implementar herramientas, con métodos y mejores prácticas de ciberseguridad en cada capa de nuestros sistemas y su infraestructura: aplicaciones, sistemas operativos, usuarios, tanto en la infraestructura local como en la nube. Esto es lo que llamamos System Hardening o fortalecimiento de sistemas, una práctica esencial que establece las bases para una infraestructura informática segura. Su objetivo es reducir en lo posible la superficie de ataque, fortaleciendo los sistemas para poder enfrentar posibles ataques de seguridad y eliminar en lo posible los puntos de apoyo de entrada para el cibercrimen.
Enfoque integral para la seguridad organizacional
Para implementar la seguridad organizacional, indudablemente se requiere de un enfoque integral, ya que se debe considerar dispositivos (endpoints, sensores, IoT), hardware, software, ambientes locales, entornos cloud (e híbridos), junto con políticas de seguridad y el cumplimiento regulatorio local e incluso el internacional. Cabe recordar que hoy, y en un futuro, no solo debemos proteger los activos digitales de una organización, sino que también evitar tiempos de inactividad y las posibles sanciones regulatorias (asociadas a incumplimiento de GDPR y leyes sobre protección de datos). También el Hardening contribuye a sentar la base sólida sobre la cual implementar soluciones de seguridad avanzadas. Más adelante, en Tipos de Hardening veremos dónde es posible implementar el fortalecimiento de la seguridad.
Beneficios del Hardening en Ciberseguridad
- Mejora de la funcionalidad del sistema: Las medidas de hardening contribuyen a optimizar los recursos del sistema, además de eliminar servicios y software innecesarios y aplicar parches y actualizaciones de seguridad. Las consecuencias de acciones conducen a un mejor rendimiento del sistema, ya que también se desperdician menos recursos en componentes no utilizados o vulnerables.
- Mayor nivel de seguridad: En un sistema fortalecido se reduce la superficie de un potencial ataque y se fortalecen las defensas contra amenazas (ejemplo, malware, acceso no autorizado y filtraciones de datos). Se protege la información confidencial y se garantiza la privacidad de los usuarios.
- Simplificación de la conformidad y auditoría: Las organizaciones deben cumplir con estándares y regulaciones de seguridad específicas para su industria, con el fin de proteger datos confidenciales. El hardening ayuda a cumplir con estos requisitos y garantiza el cumplimiento de estándares específicos de la industria, como GDPR (protección de datos personales), el estándar de seguridad de datos de la industria de tarjetas de pago (PCI DSS) o la ley de responsabilidad y portabilidad de seguros médicos (HIPAA, para proteger datos de un usuario de seguros de salud).
Otros beneficios incluyen el aseguramiento de la continuidad del negocio (sin interrupciones o fricciones), la defensa en diversas capas (controles de acceso, cifrado, firewalls, sistemas de detección de intrusiones y auditorías de seguridad periódicas) y la posibilidad de asumir una postura más proactiva en la seguridad, con evaluaciones y actualizaciones periódicas para prepararse ante amenazas y vulnerabilidades emergentes.
Todo sistema seguro ha debido ser securizado antes, y esto es, precisamente, en lo que consiste el hardening.
Tipos de Hardening
En el conjunto de la infraestructura IT, existen varios subconjuntos que requieren diferentes enfoques de seguridad:
1. Hardening de la gestión de la configuración
Implementación y configuración de la seguridad para varios componentes del sistema (incluyendo hardware, sistemas operativos y aplicaciones de software). También implica deshabilitar servicios y protocolos innecesarios, configuración de controles de acceso, implementación del cifrado y protocolos de comunicación seguros. Cabe mencionar que los equipos de seguridad y de TI a menudo mantienen agendas encontradas. La política de hardening debe tomar en cuenta las discusiones entre las dos partes. Se recomienda también implementar:
- Evaluación de elementos configurables: Desde cuentas de usuario e inicios de sesión, componentes y subsistemas del servidor, qué actualizaciones y vulnerabilidades de software y aplicaciones realizar, redes y firewalls, acceso remoto y gestión de registros, etc.
- Encontrar el equilibrio entre seguridad y funcionalidad: La política de Hardening debe considerar tanto los requisitos del equipo de seguridad como la capacidad del equipo de TI para implementarla utilizando los niveles de tiempo y mano de obra asignados actualmente. También se debe decidir qué desafíos deben enfrentarse y cuáles no valen la pena por cuestiones de tiempo y costos operativos.
- Gestión de cambios y prevención de “configuration drift”: El hardening implica implementar la monitorización continua, donde las herramientas de automatización contribuyen al cumplimiento de requerimientos en cualquier momento, eliminando la necesidad de escaneo constante. También, en los cambios no deseados, se puede reforzar las políticas de hardening que puede suceder en el entorno de producción. Por último, en caso de cambios no autorizados, las herramientas de automatización ayudan a detectar anomalías y ataques para implementar acciones preventivas.
2. Hardening de aplicaciones
Protección de las aplicaciones de software que se ejecutan en el sistema, mediante eliminación o inhabilitación de características y funcionalidades innecesarias, aplicación de parches y actualizaciones de seguridad específicos para la aplicación, junto con las prácticas de codificación segura y controles de acceso, además de mecanismos de autenticación a nivel de aplicación. La importancia de la seguridad de las aplicaciones radica en que los usuarios de la organización demandan ambientes seguros y estables; por parte de los empleados, la aplicación de parches y actualizaciones permite reaccionar ante amenazas e implementar medidas preventivas. Hay que recordar que los usuarios son muchas veces el punto de entrada a la organización para el cibercrimen. Entre las técnicas más comunes, podemos mencionar:
- Instalación de aplicaciones solo desde repositorios confiables.
- Parches de automatizaciones de aplicaciones estándar y de terceros.
- Instalación de cortafuegos, antivirus y programas de protección contra malware o spyware.
- Cifrado de datos basado en software.
- Aplicaciones de gestión y cifrado de contraseñas
3.Hardening de Sistema Operativo (OS)
Configuración del sistema operativo para minimizar las vulnerabilidades, ya sea deshabilitando servicios innecesarios, el cierre de puertos no utilizados, implementación de firewalls y sistemas de detección de intrusos, aplicación de políticas de contraseñas seguras y aplicación periódica de parches y actualizaciones de seguridad. Entre los métodos más recomendables, encontramos los siguientes:
- Aplicar las últimas actualizaciones publicadas por el desarrollador del sistema operativo.
- Habilitar funciones de seguridad integradas (Microsoft Defender o software de plataformas de Protección de Endpoint o EPP, Endpoint Detection Rate o EDR de terceros). Esto realizará una búsqueda de malware en el sistema (caballos de troya, sniffer, capturadores de contraseñas, sistemas de control remoto, etc).
- Eliminar controladores innecesarios y actualizar los que se utilizan.
- Eliminar software instalado en la máquina innecesario.
- Habilitar el arranque seguro.
- Restringir los privilegios de acceso al sistema.
- Usar biometría o autenticación FIDO (Fast Identity Online) además de las contraseñas.
También, se puede implementar una política de contraseñas segura, proteger datos confidenciales con cifrado AES o unidades de autocifrado, tecnologías de resiliencia de firmware y/o autenticación multifactor.
4.Hardening de Servidor
Eliminación de vulnerabilidades (también conocidos como vectores de ataque) que un pirata informático podría utilizar para acceder al servidor. Se centra en asegurar datos, puertos, componentes y funciones del servidor, implementando protocolos de seguridad a nivel de hardware, firmware y software. Se recomienda:
- Parchear y actualizar los sistemas operativos periódicamente.
- Actualizar el software de terceros necesario para ejecutar los servidores de acuerdo con los estándares de seguridad de la industria.
- Exigir a los usuarios crear y mantener contraseñas complejas que consten de letras, números y caracteres especiales, además de actualizar estas contraseñas con frecuencia.
- Bloquear una cuenta después de un número determinado de intentos fallidos de inicio de sesión.
- Desactivar ciertos puertos USB cuando se arranca un servidor.
- Aprovechar la autenticación multifactor (MFA)
- El uso de cifrado AES o unidades autocifradas para ocultar y proteger información crítica para el negocio.
- Utilizar protección antivirus y firewall, así como otras soluciones de seguridad avanzadas.
5.Hardening de red
Protección de la infraestructura de la red y los canales de comunicación. Implica configurar firewalls, implementar sistemas de prevención de intrusiones (IPS) y sistemas de detección de intrusiones (IDS), protocolos de cifrado como SSL/TLS, y segmentar la red para reducir el impacto de una infracción e implementar fuertes controles de acceso a la red. Se recomienda combinar los sistemas IPS y de IDS, además de:
- Configurar adecuadamente los firewalls de red.
- Auditorías de reglas de red y privilegios de acceso.
- Deshabilitar puertos de red y protocolos de red innecesarios.
- Deshabilitar servicios y dispositivos de red no utilizados.
- Cifrar el tráfico de red.
Cabe mencionar que la implementación de mecanismos sólidos de monitorización y registro es esencial para fortalecer nuestro sistema. Implica configurar un registro de eventos de seguridad, monitorizar los registros del sistema en busca de actividades sospechosas, implementar sistemas de detección de intrusiones y realizar auditorías y revisiones de seguridad periódicas para identificar y responder a posibles amenazas de manera oportuna.
Aplicación práctica de Hardening en 9 Pasos
Aun cuando cada organización tiene sus particularidades en los sistemas empresariales, existen tareas de hardening generales y aplicables a la mayoría de los sistemas. A continuación, se muestra una lista de las tareas más importantes a modo de checklist básica:
1. Administrar el acceso: Asegúrate de que el sistema está físicamente seguro y que el personal está informado sobre los procedimientos de seguridad. Configura roles personalizados y contraseñas seguras. Elimina los usuarios innecesarios del sistema operativo y evita el uso de cuentas raíz o de “superadministrador” con privilegios excesivos. También, hay que limitar los permisos de grupos de administradores: sólo otorga privilegios elevados cuando sea necesario.
2. Controlar el tráfico de la red: Instala sistemas reforzados detrás de un firewall o, si es posible, aislados de las redes públicas. Se debe requerir un VPN o proxy inverso para conectarse. También, se deben cifrar las comunicaciones y establecer reglas de firewall para restringir el acceso a rangos de IP conocidos.
3. Aplicar parches en las vulnerabilidades: Mantén actualizados los sistemas operativos, los navegadores y cualquier otra aplicación y aplica todos los parches de seguridad. Se recomienda realizar un seguimiento de los avisos de seguridad de los proveedores y los CVE más recientes.
4. Eliminar el software innecesario: Desinstala cualquier software innecesario y elimina los componentes redundantes del sistema operativo. Hay que desactivar los servicios innecesarios y cualquier componente o función de la aplicación que no sea necesario y que pueda ampliar la superficie de amenazas.
5. Implementa la monitorización continua: Revisa periódicamente los registros para detectar actividades anómalas, con especial atención a las autenticaciones, al acceso de los usuarios y a la escalada de privilegios. Refleja los registros en una ubicación separada para proteger la integridad de los registros y evitar manipulaciones. Realiza análisis periódicos de vulnerabilidades y malware y, si es posible, realiza una auditoría externa o una prueba de penetración.
6. Implementar comunicaciones seguras: Asegura la transferencia de datos mediante cifrados seguros. Cierra todos los puertos de red excepto los esenciales y desactiva protocolos no seguros como SMBv1, Telnet y HTTP.
7. Realizar copias de seguridad periódicas: Los sistemas reforzados son, por definición, recursos sensibles y se les debe realizar copias de seguridad periódicamente utilizando la regla 3-2-1 (tres copias de la copia de seguridad, en dos tipos de medios, con una copia almacenada fuera del sitio).
8. Fortalecer las sesiones remotas: Si debe permitirse Secure Shell o SSH (protocolo de administración remota), asegúrate de que se use una contraseña o certificado seguro. Hay que evitar el puerto predeterminado, además de deshabilitar los privilegios elevados para el acceso SSH. Supervisa los registros SSH para identificar usos anómalos o escalada de privilegios.
9. Monitorizar las métricas importantes para la seguridad: Monitoriza logs, accesos, número de conexiones, carga de servicios (CPU , Memoria) o crecimiento del disco. Todas estas métricas y muchas más son importantes para saber si estás sufriendo un ataque. Tenerlas monitorizadas y conocerlas en tiempo real puede librarte de muchos ataques o degradaciones del servicio.
Hardening en Pandora FMS
Pandora FMS incorpora una serie de funcionalidades específicas para monitorizar el hardening de servidores, tanto Linux como Windows. Para ello, ejecuta un plugin especial que realizará una serie de verificaciones, puntuando si pasa o no el registro. Dichas comprobaciones se programan para que se ejecuten cada cierto tiempo. La interfaz gráfica estructura lo encontrado en diferentes categorías, y se puede analizar visualmente la evolución de la seguridad del sistema a lo largo del tiempo, como una gráfica temporal. Además, se pueden generar informes técnicos detallados de cada máquina, por grupos o realizar comparativas.
Es importante abordar las tareas de securización de los sistemas de una manera metódica y organizada, atendiendo primero a lo más crítico y siendo metódico, para poder hacerlo en todos los sistemas por igual. Uno de los pilares fundamentales de la seguridad informática es el hecho de no dejar grietas, si hay una puerta de entrada, por pequeña que sea, y por más que tengamos securizado el resto de máquinas, puede ser suficiente para tener una intrusión en nuestros sistemas.
El Centro para la Seguridad en Internet (CIS) lidera el desarrollo de normas internacionales de hardening y publica directrices de seguridad para mejorar los controles de ciberseguridad. Pandora FMS utiliza las recomendaciones del CIS para implementar un sistema de auditoría de seguridad, integrado con la monitorización para observar la evolución del hardening en toda tu organización, sistema por sistema.
Utilización de categorías CIS para verificaciones de seguridad
Existen más de 1500 comprobaciones individuales para garantizar la seguridad de los sistemas gestionados por Pandora FMS. A continuación, mencionamos las categorías CIS auditadas por Pandora FMS y algunas recomendaciones:
- Inventario y control de activos hardware y software
Se refiere a todos los dispositivos y software en tu organización. Se recomienda mantener un inventario actualizado de tus activos tecnológicos y usar la autenticación para bloquear los procesos no autorizados.
- Inventario y control de dispositivos
Consiste en identificar y gestionar tus dispositivos de hardware para que solamente los autorizados tengan acceso a los sistemas. Para ello, hay que mantener un inventario adecuado, minimizar riesgos internos, organizar tu entorno y brindar claridad a tu red.
- Gestión de vulnerabilidades
Análisis de los activos de forma continua para detectar vulnerabilidades potenciales y solucionarlas antes de que se conviertan en la entrada a un ataque. Se debe asegurar la actualización de parches y medidas de seguridad en el software y los sistemas operativos.
- Uso controlado de privilegios administrativos
Consiste en la supervisión de los controles de acceso y el comportamiento de los usuarios con cuentas privilegiadas para evitar cualquier acceso no autorizado a sistemas críticos. Se debe asegurar que solamente las personas autorizadas tengan privilegios elevados para evitar cualquier mal uso de los privilegios administrativos.
- Configuración segura de hardware y software
Configuración y mantenimiento de seguridad basadas en estándares aprobados por tu organización. Se debe crear un sistema de gestión de configuraciones riguroso que detecte y alerte sobre cualquier configuración incorrecta, junto con un proceso de control de cambios para evitar que los atacantes se aprovechen de servicios y configuraciones vulnerables.
- Mantenimiento, supervisión y análisis de logs y registros de auditoría
Recopilación, administración y análisis de los logs de auditoría de eventos para identificar posibles anomalías. Se requieren registros detallados para comprender a fondo los ataques y poder responder de manera eficaz a los incidentes de seguridad.
- Defensas contra malware
Supervisión y control de instalación y ejecución de código malicioso en varios puntos de la organización para prevenir ataques. Se debe configurar y usar software antimalware y aprovechar la automatización para garantizar actualizaciones rápidas de defensas y una acción correctiva ágil en caso de ataques.
- Protección del correo electrónico y los navegadores web
Protección y administración de tus navegadores web y sistemas de correo electrónico contra amenazas en línea para reducir la superficie de ataque. Hay que desactivar complementos de correo electrónico no autorizados y asegurarse de que los usuarios solo accedan a sitios web de confianza mediante filtros de URL basados en la red. Recuerda mantener seguras estas puertas de entrada más comunes para los ataques.
- Capacidades de recuperación de datos
Procesos y herramientas para asegurar que la información crítica de tu organización esté respaldada adecuadamente. Asegúrate de contar con un sistema de recuperación de datos confiable para restaurar la información en caso de ataques que pongan en peligro los datos críticos.
- Defensa de límites y protección de datos
Identificación y clasificación de los datos sensibles, junto con una serie de procesos que incluyan la codificación, planes de protección contra la infiltración de datos y técnicas de prevención de pérdida de datos. Establece barreras sólidas para prevenir el acceso no autorizado.
- Supervisión y control de cuentas
Supervisión de todo el ciclo de vida de tus sistemas y cuentas de aplicaciones, desde su creación hasta su eliminación, pasando por su uso e inactividad. Considera que esta gestión activa previene que los atacantes se aprovechen de cuentas de usuarios legítimos pero inactivos para fines maliciosos y permite mantener un control constante sobre las cuentas y sus actividades.
Cabe mencionar que no todas las categorías son aplicables en un sistema, pero existen controles para verificar si se aplican o no. Veamos algunas pantallas a manera de ejemplo de visualización.
Ejemplo de detalle en un control de hardening de un servidor Linux (Debian)

Este control explica que es recomendable desactivar el reenvío de paquetes ICMP, tal como se contempla en las recomendaciones de CIS, PCI_DSS, NIST y TSC.
Ejemplo de listado de chequeos por grupo (en este caso, securización de red)

Ejemplo de controles, por categoría en un servidor:

La separación de los controles por categorías es clave para poder organizar el trabajo y para delimitar el alcance, por ejemplo, habrá sistemas no expuestos a la red donde podremos “ignorar” la categoría de red, o sistemas sin usuarios, donde podemos evitar el control de usuarios.
Ejemplo de evolución del hardening de un sistema a lo largo del tiempo:

Esto nos permite ver la evolución de la securización en un sistema (o en un grupo de sistemas). La securización no es un proceso fácil ya que son docenas de cambios, por lo que es importante abordarlo de una forma gradual, es decir, planificando por etapas la corrección de los mismos, esto debería producir una tendencia a lo largo del tiempo, como la que podemos ver en la imagen adjunta. Pandora FMS es una herramienta útil no solo de auditoría, si no de seguimiento del proceso de securización de los sistemas.

Otras medidas de seguridad adicionales relacionadas con el hardening
- Monitorización de vulnerabilidades permanente. Pandora FMS integra además un sistema de detección de vulnerabilidades continuo, basado en las bases de datos de Mitre (CVE, Common Vulnerabilities and Exposure, vulnerabilidades y exposición comunes) y NIST para poder realizar auditorías de software vulnerable en toda tu organización de manera continuada. Se usan tanto los agentes como el componente remoto Discovery para determinar en cuáles de tus sistemas hay software con vulnerabilidades. Más información aquí.
- Flexibilidad en el inventariado: Ya sea que utilices sistemas Linux de varias distribuciones o cualquier versión de Windows, lo importante es conocer y mapear bien nuestra infraestructura: software instalado, usuarios, rutas, direcciones, IP, hardware, discos, etc. La seguridad no se puede tener si no disponemos de un inventario detallado.
- Monitorización constante de la infraestructura de seguridad: Es importante monitorizar el estado de las infraestructuras específicas de seguridad, como backups, antivirus, VPN, firewalls, IDS/IPS, SIEM, honeypots, sistemas de autenticación, sistemas de almacenamiento, recogida de logs, etc.
- Monitorización permanente de la seguridad en servidores: Verificando en tiempo real la seguridad del acceso remoto, de las contraseñas, de los puertos abiertos y del cambio sobre ficheros clave del sistema.
- Alertas proactivas: No solo es preciso detectar posibles brechas de seguridad, sino que también es necesario ejecutar alertas proactivas y recomendaciones para abordar cualquier problema antes de que se convierta en una amenaza real.
Te invito a ver este video sobre Hardening en Pandora FMS.
Impacto positivo en la seguridad y operatividad
Como hemos visto, el hardening es parte de los esfuerzos para garantizar la continuidad del negocio. Se debe asumir una postura proactiva sobre la protección del servidor, priorizando riesgos identificados en el entorno tecnológico y aplicando cambios de manera gradual y lógica. En forma constante, se deben aplicar los parches y realizar actualizaciones como prioridad, apoyándose en herramientas de monitorización y gestión automatizadas que aseguren la rápida corrección de posibles vulnerabilidades. También se recomienda seguir las mejores prácticas específicas para cada área de hardening con el fin de garantizar la seguridad de toda la infraestructura tecnológica con un enfoque integral.
Recursos Adicionales
Accede a la documentación de Pandora FMS o consulta las referencias a las directrices de seguridad del CIS: ver entrevista a Alexander Twaradze, representante de Pandora FMS ante países que implementan estándares CIS.
por Olivia Díaz | Last updated Mar 4, 2024 | Control Remoto
Desde la computadora, cada vez más realizamos diferentes tareas de forma simultánea (escuchando música mientras escribimos un informe, recibiendo archivos por email y descargando videos), que implican ejecutar comandos, y enviar y recibir datos. Con el tiempo, el rendimiento de los ordenadores puede verse afectado si no se optimiza el uso de la CPU.
Pero, ¿qué es la CPU?
CPU son las siglas de central processing unit o unidad de procesamiento central. En sí, la CPU es el cerebro de un ordenador en la que se realizan la mayoría de los cálculos y procesos. Los dos componentes de una CPU son:
- La unidad lógica aritmética (Arimethic Logic Unit, ALU), que realiza operaciones aritméticas y lógicas.
- La unidad de control (Control Unit, CU), que extrae instrucciones de la memoria, las decodifica y ejecuta, llamando a la ALU cuando es necesario.
En este diagrama podemos ver que en la CPU también se encuentra la unidad de memoria, que contiene los siguientes elementos:
- La ROM (Read Only Memory, memoria de lectura): Es una memoria de sólo lectura; es decir, sólo podremos leer los programas y datos almacenados en ella. También es una unidad de memoria primaria del sistema informático, y contiene algunos fusibles electrónicos que se pueden programar para una información específica. La información es almacenada en ROM en formato binario. También se la conoce como memoria permanente.
- La RAM (Random Access Memory, memoria de acceso aleatorio): Como dice su nombre, es un tipo de memoria de ordenador al que se puede acceder aleatoriamente, a cualquier byte de memoria sin tocar los bytes anteriores. La RAM es un componente de alta velocidad en los dispositivos que almacena temporalmente toda la información que necesita un dispositivo.
- Cache: La memoria caché almacena datos y permite acceder a ellos de manera rápida. La velocidad y capacidad de la memoria caché mejora el desempeño del dispositivo.
Su papel crucial en el funcionamiento de un ordenador
Por sus componentes, la velocidad y el rendimiento de un equipo están directamente relacionados con las características de la CPU, tales como:
- El consumo energético. Hace referencia a la cantidad de energía que consume la CPU al ejecutar acciones, a mayor calidad, mayor consumo energético.
- La frecuencia de reloj. Se refiere a la velocidad de reloj que tiene el CPU y que determina la cantidad de acciones que puede ejecutar en un período de tiempo.
- El número de núcleos. A mayor cantidad de núcleos, mayor la cantidad de acciones que pueden realizarse de forma simultánea.
- El número de hilos. Ayuda al procesador a manejar y ejecutar acciones de forma más eficiente. Divide las tareas o procesos para optimizar los tiempos de espera entre una acción y la otra.
- La memoria caché. Almacena datos y permite acceder a ellos de manera rápida.
- El tipo de bus. Se refiere a la comunicación que establece el CPU con el resto del sistema.
Relación entre velocidad/potencia de la CPU y rendimiento del ordenador
Impacto de la velocidad y potencia en la eficacia del sistema
Las CPU se clasifican por el número de núcleos:
- De un solo núcleo, en el que el procesador sólo puede realizar una acción a la vez, es el procesador más antiguo.
- De dos núcleos, que permite realizar más de una acción a la vez.
- De cuatro núcleos independientes entre sí, lo que les permite realizar varias acciones a la vez y son mucho más eficientes.
Considerando esto, entendemos por qué las CPU actuales tienen dos o más núcleos para poder realizar varias operaciones al mismo tiempo o equilibrar la carga para que el procesador no llegue a estar 100% ocupado, lo que impediría realizar algunas operaciones.
Consecuencias de una CPU lenta o sobrecargada
Cuando una CPU está sobrecargada, las consecuencias son las siguientes, y en el orden indicado:
- Pérdida de rendimiento, alentando el procesamiento de tareas.
- Sobrecalentamiento de la computadora, señal de que los componentes reciben más demanda de la capacidad de la que disponen.
- Si la temperatura de un procesador supera su límite, se ralentiza e incluso puede llevar a un apagado total del sistema.
Con esto, si no queremos llegar a la última consecuencia que ponga en riesgo a nuestros equipos, se debe optimizar la carga de la CPU.
Importancia de reducir el uso de la CPU
Beneficios de optimizar la carga de la CPU
Cuando se minimiza el consumo de CPU, los beneficios son evidentes en:
- Ahorro de energía: Menor consumo de energía, evitando el uso innecesario de recursos del procesador.
- Duración de la batería: Se extiende la vida de la batería al reducir el consumo de energía.
- Mayor rendimiento: Mejoras en el rendimiento en todo momento.
- Menor sobrecalentamiento y agotamiento del procesador.
- Menor impacto ambiental: Con menor consumo de energía se disminuye la huella de carbono de la organización y es posible contribuir a las metas ESG (ambiente, social y gobernabilidad, Environment, Social, Governance).
Supervisión del uso de la CPU en entornos de TI
Rol de los agentes del servicio de soporte de TI
Para dar continuidad al negocio, siempre se necesita supervisión de los sistemas y equipos para asegurar la entrega de los servicios sin interrupciones o eventos que pongan en riesgo a la empresa. Los agentes del servicio de soporte de TI precisamente prestan apoyo presencial o remoto en:
- Instalar y configurar equipos, sistemas operativos, programas y aplicaciones.
- Dar mantenimiento periódico a los equipos y sistemas.
- Apoyar a los empleados sobre el uso o necesidades de tecnología.
- Detectar riesgos y problemas en equipos y sistemas, y emprender acciones para prevenir o corregirlos.
- Realizar diagnósticos sobre el funcionamiento de hardware y software.
- Reemplazar partes (o todo) de los equipos cuando es necesario.
- Realizar y analizar informes sobre el estado de los equipos y sistemas.
- Solicitar las piezas y refacciones, y, de ser posible, planificar inventarios.
- Orientar sobre la ejecución de nuevos equipos, aplicaciones o sistemas operativos.
- Realizar pruebas y evaluar sistemas y equipos antes de su implementación.
- Configurar perfiles y accesos a redes y equipos.
- Realizar revisiones de seguridad en todos los equipos y sistemas.
Herramientas de supervisión y gestión remotas (RMM) para una monitorización efectiva
Para poder llevar a cabo las funciones del agente del servicio de soporte técnico, existen herramientas para la supervisión y gestión en forma remota. Remote Monitoring and Management (RMM, monitoreo y gestión remoto) es un software que ayuda a ejecutar y automatiza tareas de TI como actualizaciones y administración de parches, comprobaciones del estado de los dispositivos y monitorización de la red. El acercamiento de RMM, de gran apoyo para los equipos internos de TI como también para los Proveedores de Servicios Gestionados (MSP), es de centralizar el proceso de gestión de soporte de forma remota, desde rastrear dispositivos, conocer su estado, hasta realizar mantenimientos de rutina y resolver los problemas que surjan en los equipos y sistemas. Esto resulta de valor si consideramos que los servicios y recursos de TI están en ambientes híbridos, sobre todo para soportar la demanda de los usuarios que no solo trabajan en la oficina sino aquellos que están trabajando de forma remota. Hacer un seguimiento o mantenimiento de los recursos en forma manual es literalmente imposible.
Para saber más sobre RMM, visita este post: ¿Qué es el software RMM?
Consejos para reducir el uso de la CPU en Chromebooks y Windows
Cierre de pestañas o aplicaciones innecesarias
Este es uno de los métodos más sencillos para reducir el uso de la CPU. Cierra las pestañas o aplicaciones que no estés utilizando en tu navegador web. Esto libera recursos en tu ordenador, permitiéndote realizar otras tareas.
Para abrir el Administrador de Tareas en un Chromebook, pulsa “Ctrl”+”Mayús”+”T”.
Haz clic con el botón derecho en la barra de tareas de Windows y selecciona “Administrador de tareas”.
En el Administrador de Tareas, cierra las pestañas o aplicaciones que ya no estás usando.
Desactivación de animaciones o efectos no esenciales
Algunas animaciones y efectos pueden consumir grandes recursos de la CPU, por lo que es mejor desactivarlos. Primero ve a la configuración del sistema y busca una opción llamada “Rendimiento” o “Gráficos”, desde la cual puedes desactivar animaciones y efectos.
En Chromebook, ve a Configuración > Avanzado > Rendimiento y desactiva cualquier animación o efecto innecesario.
En Windows, ve a Panel de control > Sistema y seguridad > Rendimiento y desactiva las animaciones o efectos innecesarios.
Actualización de controladores
Los controladores obsoletos pueden degradar el rendimiento del ordenador, provocando un uso excesivo de la CPU. Para actualizar los controladores, visita el sitio web del fabricante de tu ordenador y descarga los controladores más recientes para tu hardware. Instala y luego reinicia el ordenador.
Desfragmentación del disco duro
Con el tiempo, el disco duro puede fragmentarse afectando el rendimiento del ordenador. Abre la herramienta “Desfragmentador de Disco” del menú Inicio para desfragmentarlo. Selecciona “Desfragmentador de disco” en el menú Inicio. Reinicia el ordenador después de desfragmentar el disco duro.
Escaneo de malware
El malware es un software malicioso que pretende provocar daños a los sistemas y equipos. En ocasiones, el malware puede consumir recursos de la CPU, por lo que es fundamental analizar el ordenador y realizar un escaneo de forma regular para encontrar malware. Para ello, utiliza un programa antivirus de confianza. Una vez finalizado el análisis, elimina cualquier malware que se haya detectado.
Restauración del sistema
Si estás experimentando un alto uso de CPU, puedes intentar realizar una restauración del sistema. Puede ser una solución drástica, pero devolverá el ordenador a un estado anterior en el que funcionaba con normalidad. Para ello, abre el menú Inicio y busca “Restaurar sistema”.
Haz clic en el botón “Inicio” y escribe “Restaurar sistema”.
Elige un punto de restauración que se haya creado antes de que empezara a experimentar problemas por el uso elevado de la CPU. Reinicia el ordenador.
Actualización de software
El software obsoleto también causa problemas de rendimiento en tu ordenador, incluyendo un alto uso de la CPU. Para actualizar el software, abre el Panel de control y ve a la configuración de “Windows Update”, Comprueba si hay actualizaciones e instala las que estén disponibles.
Además de estos consejos, se recomienda emplear herramientas RMM y agentes instalados en los ordenadores, servidores, estaciones de trabajo y dispositivos de la compañía, que se se ejecutan en segundo plano con el fin de ir recopilando información sobre la actividad en la red, el rendimiento y la seguridad de los sistemas en tiempo real. Mediante su análisis, es posible detectar patrones y anomalías para generar tickets de soporte (y escalarlos si es necesario según su gravedad) o, lo que es ideal, actuar en forma preventiva.
También, se recomienda la monitorización proactiva, realizada por los equipos de TI internos o por los proveedores MSP, para garantizar un entorno TI estable y seguro para los usuarios. Algo muy importante es que la proactividad reduce los costos asociados a la reparación de equipos y la recuperación de datos.
Optimización avanzada: Overclocking y cambio de CPU
Explicación de opciones avanzadas como overclocking
El overclocking es una técnica utilizada para aumentar la frecuencia de reloj de un componente electrónico, como la CPU (procesador) o la GPU (tarjeta gráfica), más allá de las especificaciones establecidas por el fabricante del equipo. Es decir, el overclocking trata de forzar al componente a funcionar a una velocidad superior a la que originalmente ofrece.
Consideraciones sobre la instalación de una nueva CPU
Aunque pudiera parecer una cuestión sencilla la instalación de una nueva CPU, existen consideraciones para instalar una nueva CPU para asegurar el rendimiento de tu ordenador. Se recomienda tener a la mano lo siguiente:
- Un destornillador: Dependiendo de tu PC y del contenido que esté instalado en él, es posible que necesites uno o más destornilladores para quitar los tornillos de tu CPU e incluso de la placa base, en el caso de que necesites quitarla.
- Pasta térmica: Esto es imprescindible al instalar una nueva CPU, especialmente si no se tiene un enfriador de CPU con pasta térmica previamente aplicada.
- Toallitas con alcohol isopropílico: Las necesitarás para limpiar la pasta térmica residual del procesador y el punto de contacto del enfriador de la CPU. Incluso puedes usar alcohol isopropílico junto con unas toallas de papel muy absorbentes.
- Muñequera antiestática: Dado que se trabajará con componentes frágiles y costosos como la CPU, la placa base y el enfriador, te sugerimos usar una pulsera antiestática para proteger los componentes de las descargas estáticas.
Con esto a mano, ahora sí te hacemos saber tres consideraciones importantes:
- Toma precauciones estáticas:
La CPU es sensible a las descargas estáticas. Sus pins son delicados y trabajan a altas temperaturas, por lo que hay que tomar precauciones. Se recomienda usar una pulsera antiestática o tomar una superficie metálica para “descargarte”. En caso de que la CPU se haya utilizado en otra máquina o si se está reemplazando el ventilador, es posible que debas quitar el compuesto térmico antiguo con alcohol isopropílico (no en los contactos de la CPU). No es necesario retirar la batería de la placa base durante la instalación de la CPU. Esto provocaría que se pierdan las configuraciones guardadas de la BIOS. Se debe necesitar una fuerza mínima para bloquear la palanca de carga de la CPU en su lugar.
- Compatibilidad de la placa base:
Es importante verificar la documentación de tu placa base para conocer el tipo de socket que se utiliza. Recuerda que AMD e Intel emplean diferentes sockets, por lo que no puedes instalar un procesador de Intel en una placa AMD (y viceversa). En caso de no hallar esta información, puedes usar el programa CPU-Z para determinar el tipo de socket que debes usar.
- Ubicación y alineación correctas:
Se debe colocar la CPU en el socket de manera adecuada. Si no lo haces correctamente, la CPU no funcionará. Debes asegurarte de instalar correctamente el ventilador y disipador térmico para evitar problemas de temperatura.
En resumen
La demanda de recursos en nuestras computadoras para poder procesar diversas tareas simultáneamente ha dejado claro por qué se debe prestar atención al uso de la CPU con velocidad y potencia. Por esa razón, las herramientas de supervisión y gestión remotas son un recurso para los empleados de TI (o el Proveedor de Servicios Gestionados) con el fin de poder conocer desde un punto central el estado de los sistemas y equipos y emprender acciones de mantenimiento y prevención en forma remota, tales como actualización de controladores, escaneo de malware, actualización de software, entre otros. Los resultados de estos esfuerzos serán el ahorro de energía, un mayor rendimiento y la extensión de la vida de la batería, junto con un menor sobrecalentamiento del procesador y la reducción del impacto ambiental.
por Pandora FMS team | Last updated Mar 7, 2024 | Pandora FMS
Collectd es un demonio (i.e. que se ejecuta en segundo plano en equipos y dispositivos) que recopila periódicamente métricas desde diversas fuentes como sistemas operativos, aplicaciones, archivos de registro y dispositivos externos, proporcionando mecanismos para almacenar los valores de diversas formas (ej. archivos RRD) o la pone a disposición a través de la red. Con estos datos y sus estadísticas se puede monitorizar sistemas, hallar cuellos de botella en el rendimiento (por análisis de rendimiento) y predecir la carga del sistema (planificación de capacidad).
Lenguaje de programación y compatibilidad con sistemas operativos
Collectd está escrito en C para sistemas operativos *nix; es decir, basados en Unix, como BSD, macOS y Linux, para su portabilidad y desempeño, ya que su diseño permite ejecutarse en sistemas sin lenguaje de secuencias de comandos (scripting language) o demonio cron, como sistemas integrados. Para Windows puede conectarse mediante Cygwin (herramientas GNU y de código abierto que brindan una funcionalidad similar a una distribución de Linux en Windows).
También, Collectd se ha optimizado para consumir la menor cantidad de recursos del sistema, lo que lo cualifica como una gran herramienta para monitorizar el rendimiento con un bajo costo.
Plug-ins de collectd
Collectd como un Demonio Modular
El sistema collectd es modular. En su core tiene funcionalidades limitadas y para usarlo, es necesario saber cómo compilar un programa en C. También se necesita saber cómo iniciar el ejecutable de la manera correcta para que los datos se envíen a donde se necesitan. Sin embargo, a través de los plug-ins, se obtiene valor de los datos recolectados y enviados, extendiendo su funcionalidad para varios casos de uso. Esto hace que el demonio sea modular y flexible y que las estadísticas obtenidas (y su formato) se pueden definir por plug-ins.
Tipos de plug-ins
Actualmente, existen 171 plug-ins disponibles para collectd. No todos los plug-ins definen temas de recopilación de datos, ya que algunos extienden las capacidades con interfaces para tecnologías específicas (ej. lenguaje de programación como Python).
- Los plug-ins de lectura obtienen datos y se clasifican generalmente en tres categorías:
- Plug-ins del sistema operativo, que recopilan información como el uso de CPU, la memoria o la cantidad de usuarios que iniciaron sesión en un sistema. Por lo general, estos plug-ins deben trasladarse a cada sistema operativo.
- Plug-ins de aplicaciones, que recopilan datos de rendimiento sobre una aplicación que se ejecuta en la misma computadora o en un sitio remoto. Estos plug-ins suelen utilizar bibliotecas de software, pero por lo demás suelen ser independientes del sistema operativo.
- Plug-ins genéricos, que ofrecen funciones básicas que el usuario puede emplear para tareas específicas. Algunos ejemplos son la consulta para monitorización de redes (desde SNMP) o la ejecución de programas o scripts personalizados.
- Los plug-ins de escritura ofrecen la posibilidad de almacenar los datos recopilados en el disco utilizando archivos RRD o CSV; o bien, enviar datos a través de la red a una instancia remota del demonio.
- Los plug-ins unixsock permiten abrir un socket para conectarnos con el demonio de collectd. Gracias a la utilidad collectd podemos obtener directamente los monitores en nuestra terminal con los parámetros getval o listval, donde podemos indicar el parámetro que queremos obtener en concreto u obtener una lista con todos los parámetros que ha recolectado collectd.
- También tenemos el plug-in de red, que se usa para enviar y recibir datos hacia y desde otras instancias del demonio. En una configuración de red típica, el demonio se ejecutaría en cada host monitoreado (llamado “clientes”) con el plug-in de red configurado para enviar los datos recopilados a una o más direcciones de red. En uno o más de los llamados “servidores”, se ejecutaría el mismo demonio, pero con una configuración diferente, de modo que el plug-in de red reciba datos en lugar de enviarlos. A menudo, el complemento RRDtool se utiliza en servidores para almacenar los datos de rendimiento (ej. ancho de banda, temperatura, carga de trabajo en el CPU, etc.)
TIP de collectd en Pandora FMS: Se pueden activar y desactivar los plug-ins que se tienen desde el fichero de configuración “collectd.conf”, además de configurarlos o añadir plugins personalizados.

Beneficios de collectd
- Naturaleza de código abierto
Collectd es un software de código abierto, al igual que sus plug-ins, aunque, algunos plug-ins no tienen la misma licencia de código abierto.
- Extensibilidad y modularidad
Collectd tiene 171 plug-ins, es compatible con una diversidad de sistemas operativos y es muy fácil de configurar. También permite la personalización según la necesidad de la empresa y su funcionalidad puede extenderse fácilmente agregando algunos plug-ins confiables, además de poder escribirse en varios lenguajes como Perl y Python.
- Escalabilidad
Collectd recopila datos de muchas fuentes y los envía a un grupo o servidor de multidifusión. Ya sean uno o mil hosts, collectd puede recopilar estadísticas y métricas de rendimiento. También collectd permite fusionar múltiples actualizaciones en una sola operación o valores grandes en un solo paquete de red.
- Soporte SNMP
Collectd admite el protocolo simple de administración de red (Simple Network Management Protocol, SNMP), lo que permite a los usuarios recopilar métricas de una amplia gama de recursos y dispositivos de red.
- Flexibilidad
Brinda flexibilidad y la oportunidad de decidir qué estadísticas se desea recopilar y con qué frecuencia.
Integración de collectd con Pandora FMS
Monitorización de entornos de TI
Collectd proporciona estadísticas a un paquete de interpretación, por lo que en herramienta de terceros debe configurarse para generar gráficos y análisis a partir de los datos obtenidos, con el fin de visualizar y optimizar la monitorización de entornos de TI. Hoy, Collectd cuenta con una gran comunidad que contribuye con mejoras, nuevos plug-ins y correcciones de errores.
Ejecución efectiva en Pandora FMS.
El plugin pandora_collectd permite recolectar información generada por el propio collectd y mandarla a nuestro servidor de Pandora FMS para su posterior tratamiento y almacenamiento.
La ejecución de nuestro plugin genera un agente con toda la información de collectd transformada en los módulos de Pandora FMS; con ello, podremos tener cualquier dispositivo monitorizado con collectd y obtener un histórico de datos, crear informes, dashboards, consolas visuales, disparar alertas y un largo etcétera.

Una característica importante de “pandora_collectd” es que es un plug-in muy versátil, ya que nos permite tratar los datos recolectados de collectd antes de mandarlos a nuestro servidor de Pandora FMS. Mediante expresiones regulares, nos permite decidir, según las características que tengamos, qué métricas queremos recolectar y cuáles queremos descartar para enviar las métricas deseadas a nuestro servidor de Pandora FMS de una manera óptima. Además, nos permite modificar parámetros como el puerto o la dirección IP del servidor que queremos usar.
También, es posible personalizar cómo queremos que se llame nuestro agente, donde se crearán los módulos, y modificar su descripción.
Otro aspecto importante de este plug-in es que se puede ejecutar tanto como plug-in de agente como en calidad de plug-in de servidor. Al poder modificar los agentes resultantes de la monitorización, podremos diferenciar fácilmente unos de otros y monitorizar gran cantidad de dispositivos en nuestro entorno de Pandora FMS,
Además, nuestro plugin es compatible con la inmensa mayoría de dispositivos Linux y Unix por lo que no habrá problemas con su implementación con collectd.
Para saber cómo configurar collectd en Pandora FMS, visita Pandora FMS Guides para más detalles.
Collectd vs StatsD: Una Comparación
Diferencias Clave
Como hemos visto, collectd es adecuado para monitorizar CPU, red, uso de memoria y varios complementos para servicios específicos como NGinx. Por sus características, recopila métricas listas para usar y debe instalarse en máquinas que necesitan monitorización.

Mientras que StatsD (escrito en Node.js) se utiliza generalmente para aplicaciones que requieren agregar datos de forma precisa y envía datos a los servidores en intervalos regulares. También, StatsD proporciona bibliotecas en varios lenguajes de programación para facilitar el seguimiento de datos.


Con esto entendido, collectd es un demonio de recopilación de estadísticas, mientras que StatsD es un servicio de agregación o contador de eventos. La razón de explicar sus diferencias es que collectd y StatsD pueden utilizarse juntos (y es una práctica común) dependiendo de las necesidades de monitorización en la organización.
Casos de uso y enfoques
- Casos de uso de StatsD:
- Monitorización de aplicaciones web: Rastreo del número de solicitudes, errores, tiempos de respuesta, etc.
- Análisis de rendimiento: Identificación de cuellos de botella y optimización del rendimiento de la aplicación.
- Casos de uso de collectd:
- Monitoreo de recursos de hardware como uso de CPU, memoria utilizada, uso del disco duro, etc.
- Monitorización sobre métricas específicas de servicios de TI disponibles.
Importancia de collectd en la integración con Pandora FMS
-
- Ligero y eficiente
Collectd en Pandora FMS es ligero y eficiente, con la capacidad de escribir métricas a través de la red, por su misma una arquitectura modular y porque se ejecuta principalmente en la memoria.
- Versatilidad y flexibilidad
Este plug-in permite decidir qué métricas queremos recolectar y cuáles descartar para enviar sólo las métricas que queramos a nuestro servidor de Pandora FMS. También permite ajustar los datos recolectados cada determinado tiempo, según las necesidades de la organización.
- Soporte comunitario y mejoras continuas
Además de que collectd es un plug-in popular, cuenta con el soporte comunitario quienes constantemente realizan mejoras, incluyendo documentación especializada y guías de instalación.
Todo esto nos hace comprender por qué collectd ha sido ampliamente adoptado para la monitorización de los recursos y servicios de TI.
Conclusión
Collectd es un demonio bastante popular para medir métricas desde diversas fuentes como sistemas operativos, aplicaciones, archivos de registro y dispositivos externos, pudiendo aprovechar la información para la monitorización de sistemas. Dentro de sus características clave podemos mencionar que, al estar escrito en C, en código abierto, puede ejecutarse en los sistemas sin necesidad de un lenguaje de secuencias de comandos. Al ser modular, es bastante portable a través de plug-ins y se obtiene el valor de los datos recolectados y enviados, la funcionalidad de collectd se extiende para dar un mejor uso en la monitorización de los recursos de TI. También es escalable, ya sean uno o mil hosts, para recopilar estadísticas y métricas de rendimiento. Esto es de sumo valor en los ecosistemas de TI que siguen extendiéndose para cualquier empresa en cualquier industria.
El plugin pandora_collectd recolecta información generada por el propio collectd y la envía al servidor de Pandora FMS, desde el cual se puede potenciar la monitorización de cualquier dispositivo monitorizado y obtener datos desde los cuales generar reportes o dashboards de productividad, programar alertas y obtener información histórica para la planeación de la capacidad, entre otras funciones de alto valor en la gestión de TI.
Para un mejor aprovechamiento de collectd, con la capacidad de ser tan granular en la recopilación de datos, también es bueno consolidar estadísticas para hacerlos más comprensibles para el ojo humano y simplificar las cosas para el administrador del sistema que analiza los datos. También, se recomienda apoyarse en expertos en monitorización de TI como Pandora FMS, con mejores prácticas de monitorización y observabilidad. Contacta a nuestros expertos en Professional services | Pandora FMS
por Ahinóam Rodríguez | Last updated Feb 23, 2024 | Pandora FMS
Hasta hace poco tiempo el modelo que se utilizaba por defecto para el desarrollo de aplicaciones era SQL. Sin embargo, en los últimos años NoSQL se ha convertido en una alternativa popular.
La gran variedad de datos que se almacenan hoy en día y la carga de trabajo que deben soportar los servidores obligan a los desarrolladores a tomar en cuenta otras opciones más flexibles y escalables. Las bases de datos NoSQL proporcionan un desarrollo ágil y facilidad para adaptarse a los cambios. Aún así, no pueden considerarse como un reemplazo de SQL ni son la elección más acertada para todo tipo de proyectos.
Elegir entre NoSQL vs SQL es una decisión importante, si queremos evitar que aparezcan dificultades técnicas durante el desarrollo de una aplicación. En este artículo nos proponemos explorar las diferencias entre estos dos sistemas de gestión de bases de datos y orientar al lector sobre el uso de cada uno de ellos, teniendo en cuenta las necesidades del proyecto y el tipo de datos que se van a manejar.
¿Qué es NoSQL?
El término NoSQL es la abreviatura de “Not only SQL” y se refiere a una categoría de DBMS que no utilizan SQL como lenguaje de consulta principal.
El boom de las BBDD NoSQL se inició en el año 2.000, coincidiendo con la llegada de la web 2.0. A partir de entonces las aplicaciones se volvieron más interactivas y comenzaron a manejar grandes volúmenes de datos, muchas veces no estructurados. Pronto las bases de datos tradicionales se quedaron cortas en cuanto a rendimiento y escalabilidad.
Las grandes empresas tecnológicas de la época decidieron buscar soluciones para abordar sus necesidades específicas. Google fue la primera en lanzar un DBMS distribuido y altamente escalable: BigTable, en el año 2005. Dos años después, Amazon anunció el lanzamiento de Dynamo DB (2007). Estas BBDD (y otras que fueron apareciendo) no utilizaban tablas ni un lenguaje estructurado, así que eran mucho más veloces en el procesamiento de datos.
Actualmente, el enfoque NoSQL se ha vuelto muy popular debido al auge del Big Data y de los dispositivos IoT, que generan enormes cantidades de datos, tanto estructurados como no estructurados.
Gracias a su rendimiento y capacidad de manejar diferentes tipos de datos, NoSQL logró superar muchas limitaciones presentes en el modelo relacional. Netflix, Meta, Amazon o LinkedIn son ejemplos de aplicaciones modernas que utilizan BBDD NoSQL para gestionar información estructurada (transacciones y pagos), así como no estructurada (comentarios, recomendaciones de contenido y perfiles de usuario).
Diferencia entre NoSQL y SQL
NoSQL y SQL son dos sistemas de gestión de bases de datos (DBMS) que se diferencian en la forma de almacenar, acceder y modificar la información.
El sistema SQL
SQL sigue el modelo relacional, formulado por E.F. Codd en 1970. Este científico inglés propuso sustituir el sistema jerárquico que utilizaban los programadores de la época por un modelo en el que los datos se almacenan en tablas y se relacionan entre sí mediante un atributo común conocido como “clave primaria”. Basándose en sus ideas, IBM creó SQL (Structured Query Language), el primer lenguaje diseñado específicamente para bases de datos relacionales. La compañía intentó sin éxito desarrollar su propio RDBMS, así que hubo que esperar a 1979, año del lanzamiento de Oracle DB.
Las bases de datos relacionales resultaron ser mucho más flexibles que los sistemas jerárquicos y resolvieron el problema de la redundancia, siguiendo un proceso conocido como “normalización” que permite a los desarrolladores expandir o modificar las BBDD sin tener que cambiar toda su estructura. Por ejemplo, una función importante en SQL es JOIN, la cual permite a los desarrolladores realizar consultas complejas y combinar datos de diferentes tablas para su análisis.
El sistema NoSQL
Las bases de datos NoSQL son todavía más flexibles que las relacionales ya que no tienen una estructura fija. En su lugar emplean una amplia variedad de modelos optimizados para los requisitos específicos de los datos que almacenan: hojas de cálculo, documentos de texto, emails, publicaciones en redes sociales, etc.
Algunos modelos de datos que utiliza NoSQL son:
- Clave-valor: Redis, Amazon DynamoDB, Riak. Organizan los datos en parejas de clave y valor. Son muy rápidas y escalables.
- Documentales: MongoDB, Couchbase, CouchDB. Organizan los datos en documentos, normalmente de formato JSON.
- Orientadas a grafos: Amazon Neptune, InfiniteGraph. Usan estructuras de grafos para realizar consultas semánticas y representan datos como nodos, bordes y propiedades.
- Orientadas a columnas: Apache Cassandra. Están diseñadas para almacenar datos en columnas en lugar de filas como ocurre en SQL. Las columnas se organizan de manera contigua para mejorar la velocidad de lectura y permitir una recuperación eficiente del subconjunto de datos.
- Bases de datos en memoria: Eliminan la necesidad de acceder a los discos. Se utilizan en aplicaciones que requieren tiempos de respuesta de microsegundos o que tienen picos altos de tráfico.

En resumen, para trabajar con bases de datos SQL los desarrolladores deben declarar antes la estructura y los tipos de datos que utilizarán. Por el contrario, NoSQL es un modelo de almacenamiento abierto que permite incorporar nuevos tipos de datos sin que esto implique la reestructuración del proyecto.
Base de datos relacional vs. no relacional
Para elegir entre un sistema de gestión de bases de datos SQL o NoSQL debemos estudiar detenidamente las ventajas e inconvenientes de cada uno de ellos.
Ventajas de las bases de datos relacionales
- Integridad de los datos: Las BBDD SQL aplican una gran variedad de restricciones con el fin de garantizar que la información almacenada sea precisa, completa y confiable en todo momento.
- Posibilidad de realizar consultas complejas: SQL ofrece a los programadores una gran variedad de funciones que les permiten realizar consultas complejas que involucran múltiples condiciones o subconsultas.
- Soporte: Los RDBMS existen desde hace décadas; han sido ampliamente probados y cuentan con documentación detallada y completa que describe sus funciones.
Desventajas de las bases de datos relacionales
- Dificultad para manejar datos no estructurados: Las BBDD SQL han sido diseñadas para almacenar datos estructurados en una tabla relacional. Esto significa que pueden tener dificultades a la hora de manejar datos no estructurados o semi-estructurados como documentos JSON o XML.
- Rendimiento limitado: No están optimizadas para realizar consultas complejas y rápidas en grandes conjuntos de datos. Esto puede resultar en tiempos de respuesta prolongados y periodos de latencia.
- Mayor inversión: Trabajar con SQL supone asumir el coste de las licencias. Además, las bases de datos relacionales escalan verticalmente, lo que implica que a medida que un proyecto crece es necesario invertir en servidores más potentes y con más memoria RAM para aumentar la carga de trabajo.
Ventajas de las bases de datos no relacionales
- Flexibilidad: Las BBDD NoSQL permiten almacenar y gestionar datos estructurados, semi-estructurados y no estructurados. Los desarrolladores pueden cambiar el modelo de datos de forma ágil o trabajar con diferentes esquemas según las necesidades del proyecto.
- Alto rendimiento: Están optimizadas para realizar consultas rápidas y trabajar con grandes volúmenes de datos en contextos donde las BBDD relacionales encuentran limitaciones. Un paradigma de programación muy utilizado en bases de datos NoSQL como MongoDB es “MapReduce” que permite a los desarrolladores procesar enormes cantidades de datos en lotes, dividiéndolos en fragmentos más pequeños en diferentes nodos del clúster para analizarlos después.
- Disponibilidad: NoSQL utiliza una arquitectura distribuida. La información se replica en diferentes servidores remotos o locales para garantizar que siempre estará disponible.
- Evitan los cuellos de botella: En las BBDD relacionales, cada sentencia necesita ser analizada y optimizada antes de ejecutarse. Si hay muchas peticiones a la vez, puede producirse un cuello de botella, lo que limita la capacidad del sistema para seguir procesando solicitudes nuevas. En cambio, las bases de datos NoSQL distribuyen la carga de trabajo en varios nodos del clúster. Al no haber un único punto de entrada para las consultas, la posibilidad de que se produzcan cuellos de botella es muy escasa.
- Mayor rentabilidad: NoSQL ofrece una escalabilidad rápida y horizontal gracias a su arquitectura distribuida. En lugar de invertir en servidores caros, se añaden más nodos al clúster para ampliar la capacidad de procesamiento de datos. Además, muchas BBDD NoSQL son de código abierto lo que permite ahorrar los costes en licencias.
Desventajas de las bases de datos NoSQL
- Limitación a la hora de realizar consultas complejas: Las BBDD NoSQL carecen de un lenguaje de consulta estándar y pueden tener dificultades a la hora de realizar consultas complejas o que requieren la combinación de múltiples conjuntos de datos.
- Menor coherencia: NoSQL flexibiliza algunas de las restricciones de coherencia de las BBDD relacionales para lograr mayor rendimiento y escalabilidad.
- Menos recursos y documentación: Aunque NoSQL está en constante crecimiento, la documentación disponible es poca en comparación con la de las bases de datos relacionales que llevan más años en funcionamiento.
- Mantenimiento complejo: Algunos sistemas NoSQL pueden requerir un mantenimiento complejo por su arquitectura distribuida y a la variedad de configuraciones. Esto implica optimizar la distribución de los datos, equilibrar la carga o resolver problemas de red.
¿Cuándo utilizar bases de datos SQL y cuándo usar NoSQL?
La decisión de utilizar una base de datos relacional o una no relacional dependerá del contexto. Primero, debemos estudiar los requisitos técnicos de la aplicación como la cantidad y el tipo de datos que se van a utilizar.
En líneas generales, se recomienda utilizar bases de datos SQL en los siguientes casos:
- Si vamos a trabajar con estructuras de datos bien definidas, por ejemplo, un CRM o un sistema de gestión de inventario.
- Si estamos desarrollando aplicaciones empresariales donde la integridad de los datos es lo más importante: programas de contabilidad, sistemas bancarios, etc.
En cambio, NoSQL es la opción más interesante en estas situaciones:
- Si vamos a trabajar con datos no estructurados o semi-estructurados como documentos JSON o XML.
- Si necesitamos crear aplicaciones que procesan datos en tiempo real y requieren baja latencia, por ejemplo, juegos online.
- Cuando queremos almacenar, gestionar y analizar grandes volúmenes de datos en entornos de Big Data. En estos casos las BBDD NoSQL nos ofrecen escalabilidad horizontal y la posibilidad de distribuir la carga de trabajo en múltiples servidores.
- Cuando vamos a lanzar un prototipo de una aplicación NoSQL nos proporciona un desarrollo rápido y ágil.
En la mayoría de los casos, los desarrolladores back-end deciden utilizar una base de datos relacional, a menos que no sea factible porque la aplicación maneja una gran cantidad de datos desnormalizados o tiene necesidades de rendimiento muy elevadas.
En algunos casos es posible adoptar un enfoque híbrido y utilizar ambos tipos de bases de datos.
Comparación de SQL vs NoSQL
El CTO Mark Smallcombe publicó un artículo titulado “SQL vs NoSQL: 5 Critical Differences” donde detalla las diferencias entre estos dos DBMS.
A continuación, presentamos un resumen de los puntos esenciales de su artículo, junto con otras consideraciones importantes en la comparación de SQL vs NoSQL.

Forma de almacenar los datos
En las BBDD relacionales los datos se organizan en un conjunto de tablas formalmente descritas y se relacionan entre sí mediante identificadores comunes que facilitan el acceso, consulta y modificación.
Las BBDD NoSQL almacenan los datos en su formato original. No tienen una estructura predefinida y pueden utilizar documentos, columnas, grafos o un esquema clave-valor.
Lenguaje
Las BBDD relacionales utilizan el lenguaje de consulta estructurado SQL.
Las BBDD no relacionales tienen sus propios lenguajes de consulta y APIs. Por ejemplo, MongoDB utiliza MongoDB Query Language (MQL) que es similar a JSON y Cassandra utiliza Cassandra Query Language (CQL) que se parece a SQL, pero está optimizado para trabajar con datos en columnas.
Cumplimiento de las propiedades ACID
Las BBDD relacionales siguen las directrices ACID (atomicity, consistency, isolation, durability) que garantizan la integridad y validez de los datos, aunque se presenten errores inesperados. Adoptar el enfoque ACID es una prioridad en las aplicaciones que manejan datos críticos, pero tiene un coste en cuanto a rendimiento ya que los datos deben escribirse en disco antes de ser accesibles.
Las BBDD NoSQL optan en su lugar por el modelo BASE (basic availability, soft state, eventual consistency), que prioriza el rendimiento frente a la integridad de los datos. Un concepto clave es el de “consistencia eventual”. En vez de esperar a que los datos se escriban en disco, se tolera cierto grado de inconsistencia temporal asumiendo que, aunque pueda haber un retraso en la propagación de los cambios, una vez finalizada la operación de escritura todos los nodos tendrán la misma versión de los datos. Este enfoque garantiza mayor rapidez en el procesamiento de datos y es ideal en aplicaciones donde el rendimiento es más importante que la coherencia.
Escalabilidad vertical u horizontal
Las BBDD relacionales escalan verticalmente aumentando la potencia del servidor.
Las BBDD no relacionales tienen una arquitectura distribuida y escalan de manera horizontal añadiendo servidores al clúster. Esta característica hace que NoSQL sea una opción más sostenible para el desarrollo de aplicaciones que gestionan un gran volumen de datos.
Flexibilidad y capacidad de adaptación a los cambios
Las BBDD SQL siguen esquemas rígidos de programación y requieren una planificación detallada ya que los cambios posteriores suelen ser difíciles de implementar.
Las BBDD NoSQL proporcionan un modelo de desarrollo más flexible, lo que permite una adaptación sencilla a los cambios sin tener que realizar migraciones complejas. Son una opción práctica en entornos ágiles donde los requisitos cambian con frecuencia.
Papel de Pandora FMS en la gestión de bases de datos
Pandora FMS proporciona a los equipos TI capacidades avanzadas para monitorear bases de datos SQL y NoSQL, incluyendo MySQL, PostgreSQL, Oracle y MongoDB, entre otras. Además, es compatible con entornos de virtualización y Cloud Computing (por ejemplo, Azure) para gestionar eficazmente servicios y aplicaciones en la nube.
Algunos ejemplos prácticos del uso de Pandora FMS en bases de datos SQL y NoSQL:
- Optimiza la distribución de los datos en NoSQL: Supervisa el rendimiento y la carga de trabajo en los nodos del clúster evitando sobrecargas en nodos individuales.
- Garantiza la disponibilidad de los datos: Replica la información en diferentes nodos minimizando así el riesgo de pérdidas.
- Envía alertas de rendimiento: Monitorea los recursos del servidor y envía alertas a los administradores cuando detecta errores de consulta o tiempos de respuesta lentos. Esto es especialmente útil en las BBDD SQL cuyo rendimiento depende de la potencia del servidor donde se almacenan los datos.
- Favorece la escalabilidad: Permite agregar o eliminar nodos del clúster y ajustar los requerimientos del sistema a la carga de trabajo en aplicaciones que funcionan con BBDD NoSQL.
- Reduce la latencia: Ayuda a los administradores a identificar y solucionar problemas de latencia en aplicaciones que trabajan con datos en tiempo real. Por ejemplo, permite ajustar configuraciones de las BBDD NoSQL, como el número de conexiones simultáneas o el tamaño del búfer de red, mejorando así la rapidez de las consultas.
Conclusión
Hacer una elección correcta del tipo de base de datos es clave para que no surjan contratiempos durante el desarrollo de un proyecto y ampliar las posibilidades de crecimiento en un futuro.
Históricamente, las BBDD SQL fueron la piedra angular de la programación de aplicaciones, pero la evolución de Internet y la necesidad de almacenar grandes cantidades de datos estructurados y no estructurados, empujaron a los desarrolladores a buscar alternativas fuera del modelo relacional. Las bases de datos NoSQL destacan por su flexibilidad y rendimiento, aunque no son una buena alternativa en entornos donde la integridad de los datos es lo primordial.
Es importante tomarse un tiempo para estudiar las ventajas e inconvenientes de estos dos DBMS. Además, debemos comprender que tanto las bases de datos SQL como NoSQL requieren un mantenimiento continuo para optimizar su rendimiento.
Pandora FMS proporciona a los administradores las herramientas necesarias para mejorar el funcionamiento de cualquier tipo de base de datos, haciendo que las aplicaciones sean más rápidas y seguras, lo que se traduce en una buena experiencia para los usuarios.
por Pandora FMS team | Last updated Feb 16, 2024 | Pandora FMS
Entrevista a Alexander Twaradze, representante de Pandora FMS en los países de la CEI.
Ver original aquí.
La infraestructura de TI moderna de la compañía se compone de varios sistemas y servicios. Estos son servidores, equipos de red, software, canales de comunicación, servicios de terceros. Todos ellos se comunican a través de múltiples canales y protocolos. Monitorizar el funcionamiento de toda la infraestructura de TI es una tarea compleja que lleva mucho tiempo. En caso de error, podría enfrentarse a comentarios negativos de clientes, perder dinero y reputación, perder tiempo y causar estrés. El desafío es descubrir rápidamente el origen y la causa del fallo. Es necesario que el sistema de monitorización también permita automatizar la respuesta a fallos, por ejemplo, reiniciar el sistema, elevar el canal de comunicación de backup o agregar recursos al servidor virtual. Al mismo tiempo, es necesario que dicho sistema admita toda la variedad de sistemas y fabricantes que haya en la empresa. Hemos hablado con el director de la compañía, representante de Pandora FMS en los países de la CEI, Alexander Twaradze, acerca de cómo el software Pandora FMS ayuda a resolver este difícil problema.
Cuéntanos sobre Pandora FMS.
La sede central de Pandora FMS se encuentra en Madrid. La compañía ha estado en el mercado durante más de 15 años y actualmente ofrece tres productos principales:
Sistema de monitorización de infraestructura de TI;
Helpdesk, sistema de tickets de soporte;
Sistema de administración remota de servidores.
La compañía opera con éxito en el mercado internacional, y entre sus clientes hay un gran número de empresas del sector público y privado en Europa y Oriente medio, incluidos Viber, MCM Telecom, telefónica y otros.
¿Qué le aporta a una empresa la monitorización de la infraestructura de TI y qué importancia tiene?
Ahora el negocio está relacionado de una manera u otra con TI, por lo que el rendimiento de los servidores, servicios, redes y estaciones de trabajo afecta directamente a la empresa. Por ejemplo, las interrupciones en los centros de procesamiento pueden afectar los pagos de muchas empresas y servicios. El monitoreo de sistemas y servicios ayuda a resolver varios problemas a la vez:
- Realizar un seguimiento de los parámetros de hardware y servicios de antemano, toma medidas para resolver un problema potencial. Por ejemplo, Pandora FMS puede rastrear el nivel de consumo de memoria y advertir a los administradores de antemano que la memoria libre es insuficiente y que el Servicio puede detenerse.
- Comprender rápidamente dónde se produjo el error. Por ejemplo, la empresa tiene integración con el Servicio bancario a través de una API. Pandora FMS no solo puede rastrear que el canal de comunicación esté funcionando y tenga acceso al servidor, sino también que el Servicio bancario no responde correctamente a los comandos de la API.
- Realizar acciones para prevenir el problema. Por ejemplo, una organización tiene un servidor de informes. El pico de carga cae al final de la semana, y cuando el servidor está sobrecargado, esto causa problemas en la experiencia del usuario. Pandora FMS puede monitorizar la carga actual del servidor. Una vez que supera un cierto umbral, Pandora FMS ejecuta un servidor más potente en paralelo, migrando los servicios a este. Cuando pasa el pico de carga, Pandora FMS migra de nuevo al servidor estándar, mientras que el más potente se apaga.
Para realizar tales capacidades, el sistema debe ser capaz de ser flexible y trabajar con diferentes servicios y sistemas…
Es así, y Pandora FMS lo sabe. El sistema funciona con una variedad de fabricantes de hardware de red y servidor, tanto marcas conocidas como otras que no lo son tanto. Si aparece un hardware específico, basta con cargar su archivo MIB y especificar qué parámetros deben monitorizarse. Por ejemplo, nuestro socio en Arabia Saudí ahora está implementando un proyecto con una de las principales empresas estatales. Tienen un gran “zoológico” de sistemas de varios fabricantes, que incluye dispositivos de hace 10 años y soluciones modernas.
Pandora FMS es capaz de monitorizar una variedad de software: sistemas operativos, servidores web, bases de datos, contenedores, estibadores, sistemas de virtualización. Además, Pandora FMS es una solución certificada para la monitorización de SAP R/ 3, s/3, CRM, etc., incluida la monitorización de bases de datos SAP HANA.
El sistema tiene un alto grado de flexibilidad. En uno de los proyectos en la CEI, el cliente necesitaba monitorizar los parámetros de un equipo satelital especial. Al mismo tiempo, no hay protocolos de monitorización estándar, como SNMP, el hardware no era compatible, solo la interfaz web. Se creó un script que recopila datos de una página de interfaz web y los descarga en un archivo xml. Pandora FMS luego descarga los datos de ese archivo y los muestra al cliente como gráficos. Los datos se transmiten a dos centros de monitorización ubicados en diferentes partes del país. Si se desvía de los valores de referencia, la advertencia se envía a los administradores por correo electrónico y Telegram.
Pandora FMS no solo puede monitorizar, sino también administrar configuraciones de dispositivos de red, proporcionar inventario, CMDB, automatización de scripts, monitorización de servicios en la nube e interfaces web (monitorización UX), monitorización de direcciones IP, etc.
¿Qué tamaño de sistema de TI se puede monitorizar con Pandora FMS?
Ilimitadamente grande y desafiante. Un servidor de monitorización puede servir hasta 50,000 sensores diferentes. Se pueden combinar varios servidores en un solo sistema con la consola Enterpise. Para clientes con una estructura compleja, existe la posibilidad de monitorización distribuida utilizando servidores Satellite. Por ejemplo, dichos servidores pueden estar en sucursales y transmitir información a un servidor central Pandora FMS con una sola conexión. Esta solución permite fallos debido al hecho de que existe la posibilidad de instalar un servidor de copia de seguridad Pandora FMS. A diferencia de la competencia, esta función es gratuita. También se admite el modo Multy-tenancy. Por ejemplo, un servidor Pandora FMS puede servir de forma independiente a diferentes departamentos o empresas dentro de un Holding.
¿Es difícil instalar e implementar el sistema?
El sistema se coloca en una plataforma Linux. Todas las distribuciones principales son compatibles: RedHat, SUSE y Rocket. MySQL se utiliza como base de datos. Pandora FMS se implementa automáticamente mediante un script durante unos 15 minutos y no se requiere un conocimiento profundo de Linux por parte del usuario. A petición del cliente, podemos proporcionar imágenes completas. El equipo de red se puede conectar a través del escaneo automático de la red, la importación de datos a través de archivos o manualmente. La supervisión de los servidores se realiza a través de SNMP, WMI y / o agentes que se pueden instalar de forma automática o manual.
¿Cuál es la diferencia entre el modelo de licencia Pandora FMS?
La compañía ofrece licencias permanentes, que es conveniente, en particular, para las organizaciones gubernamentales. Esto asegura que el sistema de monitorización nunca se detenga. Licenciado por número de hosts, en incrementos de 100. Por ejemplo, si tiene 100 servidores y 200 equipos de red, necesita 300 licencias. Incluyen todos los módulos del sistema y acceso a más de 400 plugins. El host puede ser tanto un servidor como un equipo de red. En el futuro, al comprar licencias, el cliente puede comprar bloques de hosts 50. La diferencia de precio en comparación con las soluciones de los competidores a veces alcanza el 200-300%. Debido al hecho de que Pandora FMS se ejecuta en plataformas Linux, no necesita gastar dinero en licencias de Windows y servidor MS SQL.
Para obtener más información, póngase en contacto con Advanced Technologies Solutions, que es el representante de Pandora FMS en los países de la CEI. Puede comprar Pandora FMS a través de socios en Azerbaiyán y el distribuidor Mont Azerbaijan.
por Pandora FMS team | Last updated Feb 16, 2024 | Pandora FMS
Pandora FMS sobresale como una potente solución de software de monitorización que ayuda a individuos y organizaciones de todos los tamaños. Facilita la supervisión efectiva del rendimiento y estado de servidores, aplicaciones, dispositivos de red y otros componentes esenciales de la infraestructura de tecnologías de la información.
Ya conoces de buena mano Pandora FMS y la plataforma G2, así que queremos hacerte una propuesta para aprovechar tus vastos conocimientos:
Opina sobre Pandora FMS en G2 y ayuda a otros
Pandora FMS con una amplia gama de características como mapeo de red, correlación de eventos y generación de informes, es una excelente opción para las empresas que buscan mejorar sus capacidades. Y G2 es una plataforma de opiniones de usuarios sobre soluciones de software que les permite compartir sus experiencias y puntos de vista sobre diversos productos, ayudando a otros a tomar decisiones formadas sobre soluciones tecnológicas. Por ello hemos unido fuerzas para beneficiarte a ti y a todos los usuarios que conocerán de primera mano, gracias a tu review, todas la ventajas que Pandora FMS puede aportar a sus vidas.
Nos esforzamos por mejorar el software de Pandora FMS, por eso, tu opinión puede ayudarnos mucho a entender lo que funciona bien y en qué podemos mejorar. Sabemos que tu tiempo es oro así que, como agradecimiento, G2 te ofrece una tarjeta regalo de 25$. Queremos posicionar bien ¡Y necesitamos tu ayuda para lograrlo!
¿Cuáles son los pasos para dejar una opinión sobre Pandora FMS en G2?
- Accede a la Plataforma a través de este link de G2 y asegúrate de tener una cuenta. Es posible que necesites registrarte si aún no lo has hecho.
- Deja tu Opinión: Proporciona la información requerida, como una puntuación y tu comentario.
- Incluye detalles Relevantes: Sé específico en tu opinión. Comparte detalles sobre tu experiencia con Pandora FMS, tanto aspectos positivos como negativos. Esto ayudará a otros usuarios a obtener una visión más completa.
- Confirma y Envía: Revisa tu opinión para asegurarte de que esté completa y precisa. Después, confirma y envía tu reseña.
Date prisa, tómate unos minutos en G2 y recibe tu recompensa ¡qué se acaban!*
Tu feedback es crucial para nosotros. ¡Participa y benefíciate!
*Válido para las primeras 50 reviews aprobadas.
por Olivia Díaz | Last updated May 9, 2024 | Pandora FMS
Los sistemas distribuidos permiten implementar proyectos de forma más eficiente y a un menor costo, pero requieren de procesamientos complejos por el hecho de que se usan diversos nodos para procesar una o varias tareas con un mayor rendimiento en distintos sitios de la red. Para comprender esta complejidad, veamos primero sus fundamentos.
Los Fundamentos de Sistemas Distribuidos
¿Qué son los sistemas distribuidos?
Un sistema distribuido es un entorno informático en que conviven múltiples dispositivos, coordinando sus esfuerzos para completar una tarea de forma mucho más eficiente que si se realizara con solo un dispositivo. Esto ofrece muchas ventajas en comparación con los entornos informáticos tradicionales, tales como mayor escalabilidad, mejoras en la fiabilidad y menos riesgos al evitar un único punto vulnerable a fallas o ataques cibernéticos.
En la arquitectura moderna los sistemas distribuidos cobran mayor relevancia al poder distribuir la carga de trabajo entre varias computadoras, servidores, dispositivos en Edge Computing, etc. (nodos), para que las tareas se ejecuten de manera confiable y más rápida, sobre todo en estos tiempos en los que existe una alta demanda de disponibilidad continua, velocidad y alto rendimiento de parte de los usuarios y las infraestructuras se extienden más allá de la organización (no solo en otras geografías, sino también en Internet de las Cosas, Edge Computing, etc.).
Tipos y Ejemplo de sistemas distribuidos:
Existen varios modelos y arquitecturas de sistemas distribuidos:
- Sistemas cliente/servidor: Son el tipo más tradicional y sencillo de sistema distribuido, en el que varios ordenadores conectados en red interactúan con un servidor central para almacenar datos, procesarlos o realizar cualquier otro objetivo común.
- Redes de telefonía móvil: Son un tipo avanzado de sistema distribuido que comparte cargas de trabajo entre terminales, sistemas de conmutación y dispositivos basados en Internet.
- Redes peer-to-peer (igual a igual): Distribuyen cargas de trabajo entre cientos o miles de ordenadores que ejecutan el mismo software.
- Instancias de servidor virtual basadas en la nube: Son actualmente las formas más comunes de sistemas distribuidos en la empresa, ya que transfieren cargas de trabajo a decenas de instancias de servidor virtual basadas en la nube que se crean según sea necesario y se terminan cuando la tarea se ha completado.
Podemos ver ejemplos de sistemas distribuidos en una red de computadoras dentro de la misma organización, los sistemas de almacenamiento en sitio local o en la nube y los sistemas de bases de datos distribuidas en un consorcio empresarial. También, varios sistemas pueden interactuar entre sí, no solo desde la organización sino con otras empresas, como podemos ver en el siguiente ejemplo:
Desde casa, uno puede comprar un producto (cliente en casa) e inicia el proceso con el servidor de la distribuidora y éste a su vez con el servidor del proveedor para abastecer el producto, conectándose también a la red del banco para realizar la transacción financiera (conectándose al mainframe regional del banco, para después conectarse con el mainframe principal del banco). O bien, en la tienda, el cliente paga en la terminal de la caja del supermercado, que a su vez conecta con el servidor del negocio y a la red del banco para registrar y confirmar la transacción financiera. Como bien puede verse, existen varios nodos (terminales, computadoras, dispositivos, etc.) que se conectan e interactúan. Para comprender cómo es posible lograr una sintonía en los sistemas distribuidos, veamos cómo colaboran los nodos entre sí.
Colaboración entre Nodos: La Sinfonía de la Distribución
- Cómo interactúan los nodos en sistemas distribuidos: los sistemas distribuidos usan un software específico para poder comunicarse y compartir recursos entre diferentes máquinas o dispositivos, además de orquestar las actividades o tareas. Para ello, se usan de protocolos y algoritmos para coordinar las acciones y el intercambio de datos. Siguiendo el ejemplo anterior, la computadora o la caja de la tienda son el cliente a partir del cual se solicita un servicio a un servidor (servidor del negocio), el cual a su vez solicita el servicio de la red del banco, el cual lleva a cabo la tarea de registrar el pago y devuelve los resultados al cliente (la caja de la tienda) de que el pago ha sido exitoso.
- Los desafíos más comunes: son el poder coordinar tareas de los nodos interconectados, garantizar la consistencia de los datos que se intercambian entre los nodos y administrar la seguridad y privacidad de los nodos y los datos que viajan en un entorno distribuido.
- Para mantener la coherencia en los sistemas distribuidos, se requieren servicios de comunicación o mensajería asincrónica, sistemas de archivos distribuidos para almacenamiento compartido y plataformas de gestión de nodos y/o clústeres para administrar los recursos.
Diseñando para la escalabilidad: Principios clave
- Importancia de la escalabilidad en entornos distribuidos: La escalabilidad es la capacidad de crecer a medida que aumenta el tamaño de la carga de trabajo, lo que se consigue añadiendo unidades de procesamiento o nodos adicionales a la red según sea necesario.
- Principios de diseño para fomentar la escalabilidad: La escalabilidad se ha vuelto vital para soportar una mayor demanda de agilidad y eficiencia por parte de los usuarios, además del creciente volumen de datos. Se debe combinar el diseño arquitectónico, actualizaciones de hardware y software para garantizar el rendimiento y la confiabilidad, con base en:
- Escalabilidad horizontal: Agregando más nodos (servidores) al conjunto de recursos existente, lo que permite que el sistema maneje mayores cargas de trabajo distribuyendo la carga entre múltiples servidores.
- Balanceo de carga: Para lograr escalabilidad técnica, se distribuyen las solicitudes entrantes de manera uniforme entre varios servidores, de manera que ningún servidor se vea abrumado.
- Escalado automatizado: Mediante algoritmos y herramientas para ajustar dinámica y automáticamente los recursos según la demanda. Esto ayuda a mantener el rendimiento durante los picos de tráfico y reducir costos durante períodos de baja demanda. Las plataformas en la nube suelen ofrecer funciones de escalamiento automático.
- Almacenamiento en caché: Mediante almacenamiento de datos a los que se accede con frecuencia o resultados de respuestas anteriores, mejorando la capacidad de respuesta y reduciendo la latencia de la red en lugar de realizar solicitudes repetidas a la base de datos.
- Escalabilidad geográfica: Agregando nuevos nodos en un espacio físico sin afectar el tiempo de comunicación entre nodos, lo cual garantiza que los sistemas distribuidos puedan manejar el tráfico global de manera eficiente.
- Escalabilidad administrativa: Gestionando nuevos nodos agregados al sistema, lo que minimiza la sobrecarga administrativa.
El rastreo o monitorización distribuida es un método para monitorizar aplicaciones construidas sobre una arquitectura de microservicios que se despliegan habitualmente en sistemas distribuidos. El seguimiento supervisa el proceso paso a paso, ayudando a los desarrolladores a descubrir errores, cuellos de botella, latencia u otros problemas con la aplicación. La importancia de la monitorización en sistemas distribuidos radica en que se puede rastrear múltiples aplicaciones y procesos simultáneamente a través de numerosos nodos y entornos informáticos concurrentes, que se han vuelto el común en las arquitecturas de los sistemas de la actualidad (en sitio, en la nube o ambientes híbridos), que también demandan estabilidad y confiabilidad en sus servicios.
Diseñando para la escalabilidad: Principios clave
Para optimizar la administración de sistemas IT y lograr la eficiencia en la entrega de los servicios de TI, es indispensable la monitorización de sistemas adecuada, ya que los datos en los sistemas de monitorización y logs permiten detectar posibles problemas como también analizar incidencias para no sólo reaccionar sino ser más proactivos.
Herramientas esenciales y mejores prácticas
Una herramienta esencial es un sistema de monitorización centrado en procesos, memoria, almacenamiento y conexiones red, con los objetivos de:
- Aprovechar al máximo los recursos de hardware de una empresa.
- Notificar posibles problemas.
- Prevenir incidencias y detectar problemas.
- Reducir costos y tiempos de implementación de sistemas.
- Mejorar la experiencia de los usuarios y la satisfacción en atención al cliente.
Además del sistema de monitorización, se deben implementar las mejores prácticas es establecer un protocolo de resolución de incidencias, que marcará una gran diferencia a la hora de resolver problemas o simplemente reaccionar, con base en:
- Predicción y prevención. Las herramientas de monitoreo adecuadas no solo permiten actuar a tiempo sino también analizar para prevenir problemas que impacten en los servicios de TI.
- Personalizar alertas e informes que realmente se necesitan y que te permitan la mejor visualización del estado y desempeño de la red y los equipos.
- Apoyarse en la automatización, aprovechando las herramientas que cuentan con algunas reglas predefinidas.
- Documentar cambios (y su seguimiento) en las herramientas de monitoreo de sistemas, que faciliten su interpretación y auditoría (quién y cuándo realizó cambios).
Por último, se recomienda elegir la herramienta adecuada de acuerdo con el entorno de TI y madurez de la organización, los procesos críticos del negocio y su dispersión geográfica.
Resiliencia Empresarial: Monitorización Proactiva
Acceder en tiempo real para conocer el estado de los sistemas y activos informáticos críticos para la empresa permite detectar el origen de los incidentes. Sin embargo, la resiliencia mediante la monitorización proactiva se logra a partir de protocolos de actuación para resolver problemas en forma eficaz cuando se tiene claro qué y cómo hacer, además de contar con datos para emprender acciones proactivas y alertas frente a llenado de discos duros, límites en el uso de memoria y posibles vulnerabilidades al acceso a discos, etc., antes de que se conviertan en un posible problema, ahorrando también costos y tiempos del staff de TI para resolver incidentes. Veamos algunos casos de estudio que destacan la resolución rápida de problemas.
- Caso Cajasol: Necesitábamos un sistema que tuviera disponible una planta productiva muy amplia, en la que convivieran diferentes arquitecturas y aplicaciones, las cuales es necesario tener controladas y ser transparentes y proactivos.
- Caso Fripozo: Era necesario enterarse a tiempo de los fallos y corregirlos lo antes posible, pues esto redundaba en un peor servicio del departamento de sistemas al resto de la compañía.
Optimizando rendimiento: estrategias de monitorización efectiva
La supervisión constante de los sistemas permite gestionar los desafíos en su rendimiento, ya que permite identificar los problemas antes de que se conviertan en una suspensión o el fallo total que impida la continuidad del negocio, basándose en:
- La recopilación de datos sobre rendimiento y el estado de los sistemas.
- La visualización de métricas para detectar anomalías y patrones de comportamiento de los equipos, redes y aplicaciones.
- La generación de alertas personalizadas, que permitan accionar en tiempo y forma.
- La integración con otras plataformas y herramientas de gestión y automatización.
Monitorización con Pandora FMS en entornos distribuidos
Monitorización con agentes
La monitorización con agentes es una de las formas más efectivas de obtener información detallada sobre sistemas distribuidos. Se instala un software ligero en los sistemas operativos que recopila continuamente datos del sistema en el que está instalado. Pandora FMS utiliza agentes para acceder a información más profunda que los chequeos de red, permitiendo monitorizar “desde dentro” las aplicaciones y servicios en un servidor. La información comúnmente recopilada mediante la monitorización con agentes incluye:
- Uso de CPU y memoria.
- Capacidad de discos.
- Procesos en ejecución.
- Servicios levantados.
Monitorización interna de aplicaciones
Chequeos remotos con agentes – Modo broker
En escenarios donde se necesita monitorizar una máquina remota y no se puede llegar a ella directamente desde el servidor central de Pandora FMS, se utiliza el modo broker de los agentes instalados en sistemas locales. El agente broker ejecuta chequeos remotos en sistemas externos y envía la información al servidor central, actuando como un intermediario.
Monitorización de redes remotas con proxy de agentes – Modo proxy
Cuando se desea monitorizar una subred completa y el servidor central de Pandora FMS no puede llegar directamente a ella, se utiliza el modo proxy. Este modo permite que los agentes en sistemas remotos reenvíen sus datos XML a un agente proxy, que luego los transmite al servidor central. Es útil cuando solo una máquina puede comunicarse con el servidor central.
Monitorización distribuida con varios servidores
En situaciones donde se necesita monitorizar un gran número de dispositivos y un solo servidor no es suficiente, se pueden instalar varios servidores de Pandora FMS. Todos estos servidores están conectados a la misma base de datos, lo que permite distribuir la carga y manejar subredes diferentes de manera independiente.
Monitorización distribuida delegada – Export Server
Cuando se brindan servicios de monitorización a múltiples clientes, cada uno con su instalación independiente de Pandora FMS, se puede utilizar la funcionalidad de Export Server. Este servidor exportador permite tener una visión consolidada de la monitorización de todos los clientes desde una instalación central de Pandora FMS, con la capacidad de establecer alertas y umbrales personalizados.
Monitorización de redes remotas con chequeos locales y de red – Satellite Server
Cuando se necesita monitorizar una red externa tipo DMZ y se requiere tanto chequeos remotos como monitorización con agentes, se utiliza el Satellite Server. Este servidor satélite se instala en la DMZ y realiza chequeos remotos, recibe datos de agentes y los reenvía al servidor central de Pandora FMS. Es especialmente útil cuando el servidor central no puede abrir conexiones directas a la base de datos de la red interna.
Monitorización de redes aisladas securizadas – Sync Server
En entornos donde la seguridad impide abrir comunicaciones desde ciertas ubicaciones, como datacenters en diferentes países, se puede utilizar el Sync Server. Este componente, introducido en la versión 7 “Next Generation” de Pandora FMS, permite que el servidor central inicie comunicaciones hacia entornos aislados, donde se instala un servidor satélite y varios agentes para la monitorización.
La monitorización distribuida con Pandora FMS ofrece soluciones flexibles y eficientes para adaptarse a diversas topologías de red en entornos distribuidos.
Conclusión:
Emprender las mejores prácticas para implementar sistemas distribuidos son críticas para desarrollar la resiliencia de las organizaciones en infraestructuras y servicios de TI más complejos de gestionar, que requieren adaptación y proactividad ante las necesidades de las organizaciones de rendimiento, escalabilidad, seguridad y optimización de costos. Los estrategas de TI deben apoyarse en la monitorización de sistemas más robusta, informada y confiable, sobre todo cuando en las organizaciones de hoy y aquellas que miran hacia el futuro, los sistemas estarán cada vez más descentralizados (ya no todo en uno o varios data centers sino también en distintas nubes) y extendiéndose más allá de sus paredes, con centros de datos más cercanos a sus consumidores o usuarios finales y más cómputo de borde (Edge Computing). Para poner un ejemplo, según el Índice de Interconexión global 2023 (GXI) de la empresa Equinix, las organizaciones están interconectando la infraestructura de borde un 20% más rápidamente que el núcleo. Además, el mismo índice indica que el 30% de la infraestructura digital se ha trasladado a Edge Computing. Otra tendencia es que las empresas están cada vez más conscientes de los datos para tener más detalles sobre su operación, sus procesos e interacciones con los clientes, buscando una mejor interconexión con su ecosistema, directamente con sus proveedores o socios para ofrecer servicios digitales. Del lado de la experiencia de los usuarios y clientes estará siempre la necesidad de servicios de TI con respuestas inmediatas, estables y confiables las 24 horas del día y los 365 días del año.
Si te interesó este artículo, puedes leer también: topología de red y monitorización distribuida
por Olivia Díaz | Last updated Feb 23, 2024 | Pandora FMS
Para abordar este tema, primero hay que comprender que, en la digitalización que estamos viviendo, existen múltiples recursos y dispositivos que conviven en una misma red y que requieren de un conjunto de reglas, formatos, políticas y estándares para poder reconocerse entre sí, intercambiar datos y, de ser posible, identificar si existe algún problema para comunicarse, no importando la diferencia de diseño, hardware o infraestructura, usando un mismo lenguaje para enviar y recibir información. Esto es lo que denominamos protocolos de red (network protocols), que podemos clasificar en:
- Protocolos de comunicación de red para la comunicación entre los dispositivos de la red, ya sea en transferencia de archivos entre ordenadores o a través de Internet, hasta intercambio de mensajes de texto y la comunicación entre enrutadores y dispositivos externos o de Internet de las Cosas (IoT). Ejemplos: Bluetooth, FTP, TCP/IP y HTTP.
- Protocolos de seguridad de red para implementar la seguridad en las comunicaciones de la red, de manera que los usuarios no autorizados no puedan acceder a los datos transferidos a través de una red, ya sea por medio de contraseñas, autenticación o cifrado de datos. Ejemplos: HTTPS, SSL, SSH y SFTP.
- Protocolos de administración de red que permiten implementar la gestión y el mantenimiento de la red al definir los procedimientos necesarios para operar una red. Estos protocolos se encargan de asegurar que cada dispositivo esté conectado a los demás y a la propia red, además de vigilar la estabilidad de estas conexiones. También son recursos para solucionar problemas y evaluar la calidad de la conexión de red.
Importancia y contexto en la Administración de Redes
La gestión de redes abarca desde la configuración inicial hasta el constante monitoreo de los recursos y dispositivos, con el fin de garantizar la conectividad, la seguridad y el mantenimiento adecuado de la red. Esta comunicación y flujo de datos eficientes tienen impacto en el negocio para alcanzar sus objetivos en ambientes estables, confiables, seguros, eficientes, mejor experiencia de los usuarios y, por consecuencia, la mejor experiencia de socios y clientes.
Algo importante es el conocimiento del contexto de la red (topología y diseño), ya que hay un impacto en su escalabilidad, seguridad y complejidad. Mediante diagramas de red, mapas y documentación para visualizar y comprender la topología y el diseño de la red es posible realizar análisis para identificar los potenciales cuellos de botella, vulnerabilidades e ineficiencias donde hay que tomar acción para corregirla u optimizarla.
Otro aspecto importante son los recursos compartidos no solo en la red sino en infraestructuras cada vez más extendidas en la nube, en Edge Computing e incluso en Internet de las cosas que demandan el monitoreo sobre el estado de la red, la configuración y diagnóstico de red para fomentar la eficiencia, establecer prioridades y también anticipar o resolver problemas de conexión en la red y en internet.
Más adelante hablaremos sobre los beneficios de la Administración de Redes.

Protocolos de red vs protocolos de administración de red
Como bien se explicó anteriormente, los protocolos de administración de redes forman parte de los protocolos de red. Aunque puedan parecer lo mismo, hay diferencias: los protocolos de red, por norma general, permiten una transferencia de datos entre dos o más dispositivos y no están destinados a gestionar o administrar dichos dispositivos, en tanto que los protocolos de administración de red no tienen por objetivo la transferencia de información, sino la transferencia de datos administrativos (definición de procesos, procedimientos y políticas), que permiten gestionar, monitorear y mantener una red informática.
Lo importante es comprender lo siguiente:
- Dentro de una misma red, los protocolos de comunicación de red tendrán que convivir con los protocolos de administración de red.
- Los protocolos de administración de red también tienen injerencia en el rendimiento global de las plataformas, por lo que es fundamental conocerlos y controlarlos.
- La adopción de la nube y tecnologías emergentes, como Edge Computing e Internet de las Cosas, dejan claro que la conectividad confiable y eficiente es fundamental.
Protocolos de Administración de Red en Profundidad
Los protocolos de administración de red permiten conocer el estado de los recursos, equipos y dispositivos en la red (enrutadores, computadoras, servidores, sensores, ec.), y brindan información sobre su disponibilidad, posible latencia de la red o pérdida de datos, fallos, entre otros. Los protocolos de administración de red más comunes son: Protocolo Simple de Administración de Red (Simple Network Management Protocol o SNMP), Protocolo de Mensajes de Control de Internet (Internet Control Message Protocol o ICMP) y la Instrumentación de Administración de Windows (Windows Management Instrumentation o WMI), como se ve en el siguiente diagrama y que explicaremos a continuación:

Protocolo Simple de Administración de Red (SNMP)
SNMP es un conjunto de protocolos para administrar y monitorear la red, que son compatibles con la mayoría de los dispositivos (switches, estaciones de trabajo, impresoras, módems y otros) y marcas (la mayoría de los fabricantes se aseguran de que su producto incluya el soporte a SNMP) para detectar condiciones. Los estándares SNMP incluyen un protocolo de capa de aplicación, un conjunto de objetos de datos y una metodología para almacenar, manipular y utilizar objetos de datos en un esquema de base de datos. Estos protocolos son definidos por el Consejo de Arquitectura de Internet (Internet Architecture Board, IAB) y han ido evolucionando desde su primera implementación:
- SNMPv1: primera versión que opera dentro de la especificación de información de gestión de estructuras y se describe en RFC 1157.
- SNMPv2: versión en que se mejoró el soporte para la eficiencia y el manejo de errores, que se describe en RFC 1901.
- SNMPv3: esta versión mejora la seguridad y privacidad, introducido en RFC 3410.
Desglose de la Arquitectura SNMP: Agentes y Administradores
Todos los protocolos de administración de red proponen una arquitectura y unos procedimientos para extraer, recolectar, transferir, almacenar y reportar información proveniente de los elementos administrados. Es importante entender esta arquitectura y sus procedimientos para instrumentar una solución en función de dicho protocolo.
La arquitectura de SNMP se basa en dos componentes básicos: Agentes y los Administradores o Gestores, como presentamos en el siguiente diagrama de un esquema básico de la arquitectura SNMP:

Donde:
- Los agentes SNMP son piezas de software que corren en los elementos a ser administrados. Son los encargados de reunir la información sobre el dispositivo en cuestión. Luego, cuando los administradores SNMP solicitan dicha información a través de queries (consultas), el agente hará el envío correspondiente. Los agentes SNMP también pueden enviar al Administrador SNMP información que no corresponde a una consulta sino que parte de un evento que ocurre en el dispositivo y que requiere ser notificado. Entonces, se dice que el agente SNMP envía de forma proactiva un TRAP de notificación.
- Los Administradores SNMP o gestores SNMP son encontrados como parte de una herramienta de administración o de monitorización y están diseñados para funcionar como consolas donde se centraliza toda la información captada y enviada por los agentes SNMP.
- Los OID (Object Identifier o identificador de objeto) son los elementos que se utilizan para identificar los objetos que se desea administrar. Los OID siguen un formato de números como: .1.3.6.1.4.1.9.9.276.1.1.1.1.11. Estos números se extraen de un sistema de organización jerárquico que permite identificar el fabricante del dispositivo, para luego identificar el dispositivo y finalmente el objeto en cuestión. En la siguiente imagen vemos un ejemplo de este esquema de árbol de OID.
- Las MIB (Management Information Base o Base de Información de Gestión) refieren a los formatos que cumplirán los datos enviados desde los agentes SNMP a los gestores SNMP. En la práctica, se dispone de una plantilla general con lo que necesitamos para administrar cualquier dispositivo y luego se dispone de MIB individualizadas para cada dispositivo, con sus parámetros particulares y los valores que estos parámetros pueden alcanzar.
Las funciones cruciales de SNMP son:
- Validación de fallos: Para detección, aislamiento y corrección de problemas de red. Con la operación trap de SNMP, puede obtener el informe del problema del agente SNMP que se ejecuta en esa máquina. El administrador de la red puede entonces decidir cómo, probándolo, corrigiendo o aislando esa entidad problemática. El monitor SNMP de OpManager tiene un sistema de alerta que asegura que se le notifique con suficiente anticipación sobre problemas de la red, como averías y ralentizaciones en el rendimiento.
- Métricas de rendimiento: El monitoreo del rendimiento de la red es un proceso para rastrear y analizar eventos y actividades de la red para realizar los ajustes necesarios que mejoren el rendimiento de la red. Con las operaciones get y set de SNMP, el administrador de la red puede realizar un seguimiento del rendimiento en la red. OpManager, una herramienta de monitoreo de red SNMP, viene con informes poderosos y detallados para ayudarlo a analizar las métricas de rendimiento clave, como la disponibilidad de la red, los tiempos de respuesta, el rendimiento y el uso de recursos, lo que facilita la Gestión de SNMP.
Para profundizar sobre SNMP se recomienda leer el Blog Monitorización SNMP: claves para aprender a usar el Protocolo Simple de Administración de Red.
Protocolo de Mensajes de Control de Internet (Internet Control Message Protocol o ICMP)
Éste es un protocolo de capa de red utilizado por dispositivos de red para diagnosticar problemas de comunicación y realizar consultas de gestión. Esto hace que ICMP sea utilizado para determinar si los datos llegan o no al destino previsto de manera oportuna y sus causas, además de permitir analizar métricas de rendimiento como niveles de latencia, tiempo de respuesta o pérdida de paquetes. Los mensajes contemplados de ICMP suelen clasificarse en dos categorías:
- Mensajes de error: Utilizados para reportar un error en la transmisión de paquete.
- Mensajes de control: Utilizados para informar sobre el estado de los dispositivos.
La arquitectura con la que trabaja ICMP es muy flexible, ya que cualquier dispositivo de la red puede enviar, recibir o procesar mensajes ICMP sobre errores y controles necesarios en los sistemas de red informando a la fuente original para que se evite o corrija el problema detectado. Los tipos más comunes de mensajes ICMP son clave en la detección de fallas y en los cálculos de métricas de desempeño:
- Solicitud de eco y respuesta de eco: se utilizan para probar la conectividad de la red y determinar el tiempo de ida y vuelta para los paquetes enviados entre dos dispositivos.
- Destino inalcanzable: enviado por un enrutador para indicar que un paquete no puede entregarse a su destino.
- Redireccionamiento: enviado por un enrutador para informar a un host que debe enviar paquetes a un enrutador diferente.
- Tiempo excedido: enviado por un enrutador para indicar que un paquete ha sido descartado porque excedió su valor de tiempo de vida (time-to-live o TTL).
- Problema de parámetros: enviado por un enrutador para indicar que un paquete contiene un error en uno de sus campos.
Por ejemplo, cada router que reenvía un datagrama IP tiene que disminuir el campo de tiempo de vida (TTL) de la cabecera IP en una unidad; si el TTL llega a cero, un mensaje ICMP tipo 11 (“Tiempo excedido”) es enviado al originador del datagrama.
Cabe notar que en ocasiones es necesario analizar el contenido del mensaje ICMP para determinar el tipo de error que debe enviarse a la aplicación responsable de transmitir el paquete IP que solicitará el envío del mensaje ICMP.
Para más detalle, se recomienda acceder a los Foros de Discusión de Pandora FMS, con tips y experiencias de usuarios y colegas en la Administración de Redes usando este protocolo.
Instrumentación de Administración de Windows (WMI o Windows Management Instrumentation)
Con WMI (Windows Management Instrumentation) nos moveremos en el universo compuesto por equipos que corren algún sistema operativo Windows y por las aplicaciones que dependen de dicho sistema operativo. De hecho, WMI propone un modelo para representar, obtener, almacenar y compartir información de administración sobre el hardware y el software basado en Windows, tanto en forma local como remota. También, WMI permite la ejecución de ciertas acciones. Por ejemplo, los desarrolladores y administradores de TI pueden usar scripts o aplicaciones WMI para automatizar tareas administrativas en equipos u ordenadores ubicados en forma remota, así como también obtener datos desde WMI en varios lenguajes de programación.
Arquitectura WMI
La arquitectura WMI está compuesta por Proveedores WMI, Infraestructura WMI y Aplicaciones, Servicios o Scripts como se ejemplifica en este diagrama:

Donde:
- Proveedor de WMI es la pieza encargada de obtener información de administración de uno o más objetos.
- La infraestructura WMI actúa como intermediario entre los proveedores y las herramientas de administración. Entre sus responsabilidades se encuentran las siguientes:
- Obtener de forma planificada la data generada por los proveedores.
- Mantener un repositorio con toda la data obtenida de forma planificada.
- Encontrar de forma dinámica la data solicitada por las herramientas de administración, para lo cual se hará primero una búsqueda en el repositorio y, de no encontrarse la data solicitada, se hará una búsqueda entre los proveedores apropiados.
- Las aplicaciones de administración corresponden a las aplicaciones, servicios o scripts que utilizan y procesan la información sobre los objetos administrados. WMI logra ofrecer una interfaz uniforme a través de la cual se pueden tener aplicaciones, servicios y scripts solicitando datos y ejecutando las acciones que proponen los proveedores WMI sobre los objetos que se desean administrar.
Utilización de CIM y Desglose de Clases WMI
WMI se basa en CIM (Common Information Model), que es un modelo que utiliza técnicas basadas en objetos para describir diferentes partes de una empresa. Se trata de un modelo muy extendido en los productos Microsoft; de hecho, cuando se instala Microsoft Office o un servidor Exchange, por ejemplo, la extensión del modelo correspondiente al producto es instalada automáticamente.
Justamente esa extensión que viene con cada producto es lo que se conoce como WMI CLASS, que describe el objeto que se va administrar y todo lo que se puede hacer con el mismo. Esta descripción parte de los atributos que maneja la clase, tales como:
- Propiedades: Características propias de los objetos, como su nombre, por ejemplo.
- Métodos: Acciones que se pueden realizar sobre el objeto, como ¨detener¨ para el caso de un objeto que sea un servicio.
- Asociaciones: Refieren a las posibles asociaciones entre objetos.
Los proveedores WMI utilizan las clases de los objetos para recolectar la información de administración y esta información pasa a la infraestructura WMI, para lo cual se requiere organizar los datos. Esta organización se logra a través de contenedores lógicos llamados namespaces, los cuales se definen por área de administración y contienen la data que proviene de los objetos relacionados.
Los namespaces se definen bajo un esquema jerárquico que recuerda al esquema que siguen las carpetas en un disco. Una analogía que utilizan muchos autores para explicar la organización de la data en WMI es comparar WMI con las bases de datos, donde las clases corresponden a las tablas, los namespaces a las bases de datos y la infraestructura WMI al manejador de base de datos.
Para ahondar más sobre WMI, recomendamos leer el Blog ¿Qué es WMI? Windows Management Instrumentation, ¿lo conoces?
Perspectivas clave para el análisis de Protocolos de Administración de Red
Es fácil entender que mientras más compleja y heterogénea sea la plataforma que se desea administrar, mayor será su dificultad desde tres ángulos:
- Fallos: Disponer de procedimientos de detección de los fallos y un esquema para reportarlos.
- Rendimiento: Información sobre el comportamiento de la plataforma para comprender y optimizar su rendimiento.
- Acciones: Muchos protocolos de administración incluyen la posibilidad de ejecutar acciones sobre los dispositivos de la red (actualización, cambios, instauración de alertas, reconfiguraciones, entre otros).
Es importante comprender cuál de los tres ángulos ataca cada uno de los protocolos y, por tanto, qué será lo que nos permita hacer. Un pilar fundamental es la Organización de los Datos que explicaremos a continuación.
Organización efectiva de los datos: pilar fundamental en los protocolos de administración de red
Un aspecto fundamental en los Protocolos de Administración de Red es la forma en cómo se definen e identifican los elementos a administrar, haciendo planteamientos sobre:
- ¿Qué elemento puedo administrar con este protocolo?
- ¿Solo debe ser el hardware o también se debe considerar aplicaciones, por ejemplo?
- ¿Qué formato se debe utilizar para manejar los datos? ¿Cómo se debe almacenar, si es que se almacena?
- ¿Cuáles son las opciones que tengo para acceder a esta información?
En ese sentido, la organización efectiva de los datos permite el intercambio exitoso de la información entre los dispositivos y recursos en la red. En el monitoreo de la red, se requieren datos desde enrutadores, conmutadores, firewalls, balanceadores de carga e incluso end points o puntos finales, como servidores y estaciones de trabajo. Los datos obtenidos se filtran y analizan para identificar posibles problemas de red como cambios en configuración o fallas en dispositivo, interrupciones en los enlaces, errores de interfaz, paquetes perdidos, latencia o tiempo de respuesta de aplicaciones o servicios en la red. Los datos también permiten implementar la planificación de los recursos por crecimiento de tráfico o la incorporación de nuevos usuarios o servicios.
Desafíos, Beneficios y Tareas Clave en los Protocolos de Administración de Red
Para quienes están a cargo de operar y administrar las redes empresariales, es importante conocer cinco desafíos comunes:
- Ambientes mixtos, en que existen recursos y dispositivos en redes locales y remotas (incluyendo Edge Computing e IoT), lo que hace necesario adaptarse a las demandas de redes híbridas.
- Comprender las necesidades de la red y realizar una planificación estratégica, no sólo en ambientes físicos sino también en la nube.
- Reforzar la seguridad y confiabilidad de redes cada vez más dinámicas, más cuando los ecosistemas empresariales están involucrando a clientes, proveedores y socios de negocio que se interconectan.
- Lograr la observabilidad que permita eliminar puntos ciegos de la red y obtener una visualización integral de la infraestructura de TI.
- Establecer una estrategia de administración de red que pueda conectarse, integrarse e incluso automatizarse, especialmente cuando los equipos de TI cumplen cada vez más tareas en su día a día.
Como hemos visto a lo largo de este Blog, entender cómo funcionan los protocolos de administración de redes resulta esencial para la comunicación, la continuidad de las operaciones y la seguridad, que en su conjunto tienen gran impacto en las organizaciones para:
- Establecer y mantener conexiones estables entre dispositivos en la misma red, lo que a su vez resulta en menos latencia y una mejor experiencia para los usuarios de la red.
- Gestionar y combinar múltiples conexiones de red, incluso desde un solo enlace, lo que puede fortalecer la conexión y prevenir posibles fallas.
- Identificar y solucionar errores que afectan a la red, evaluando la calidad de la conexión y resolviendo problemas (menor latencia, restablecimiento de comunicación, prevención de riesgos en operaciones, etc.)
- Establecer estrategias de protección de la red y los datos transmitidos a través de ella, apoyándose en la encriptación, autenticación de entidad (de dispositivos o usuarios), seguridad de transporte (entre un dispositivo y otro).
- Implementación de métricas de rendimiento que garanticen niveles de servicio con calidad.
Tareas y Beneficios Clave en la Gestión de Redes
En la administración de redes eficiente se involucran la conectividad de los dispositivos, los sistemas de acceso, la automatización de red, la conectividad de servidores, la gestión de switches y el aseguramiento de la red, por lo que se recomienda llevar a cabo las siguientes tareas:
- Estrategias para Actualizaciones y Mantenimiento Efectivo: uno de los grandes desafíos es lograr la visibilidad de red de punta a punta en un entorno empresarial cada vez más complejo. La mayoría de los profesionales de TI tienen un conocimiento incompleto de cómo está configurada su red, ya que constantemente se agregan nuevos componentes, hardware, conmutadores, dispositivos, etc. Por lo que es vital mantener un catálogo actualizado de su red y dar mantenimiento adecuado para guiar los principios de administración de la red y hacer cumplir las políticas correctas. También hay que considerar que hay cambios de recursos en su equipo de TI. Es posible que el administrador original que definió la topología de la red y los protocolos necesarios puede ya no estar disponible, lo que podría implicar tener que someterse a una revisión completa de la administración de la red e incurrir en costos adicionales. Esto se puede evitar mediante documentación detallada de las configuraciones, las políticas de seguridad y las arquitecturas para garantizar que las prácticas de gestión sigan siendo reutilizables a lo largo del tiempo.
- Monitoreo Riguroso del Rendimiento: La gestión de la red demanda un monitoreo del rendimiento (por ejemplo, con un tablero de mando con indicadores de desempeño) en forma constante y rigurosa con los estándares definidos para dar el mejor servicio y una experiencia de uso satisfactoria sin latencia y en forma más estable posible. Anteriormente esto era un desafío mayor cuando los entornos de red tradicionales se basaban principalmente en hardware para múltiples dispositivos, ordenadores y servidores administrados; hoy, los avances en la tecnología de redes definidas por software permiten estandarizar procesos y minimizar el esfuerzo humano para monitorear el rendimiento en tiempo real. También se recomienda asegurarse de que el software de gestión de red no esté sesgado hacia uno o unos pocos fabricantes de equipos originales (OEM) para evitar la dependencia de uno o pocos proveedores a largo plazo. El impacto también se vería en la dificultad para diversificar las inversiones en TI al paso del tiempo.
- Prevención de Tiempo de Inactividad: Un equipo designado para la gestión de fallas en la red permite anticipar, detectar y resolver incidentes en la red para minimizar el tiempo de inactividad. Además de eso, el equipo es responsable de registrar información sobre los fallos, realizar registros, analizar y ayudar en auditorías periódicas. Esto implica que el equipo de gestión de fallos de la red tenga la capacidad de informar al administrador de la red para mantener la transparencia, y estar en estrecha colaboración con el usuario final en caso de que deba informarse los fallos. También, se recomienda apoyarse en un proveedor de servicios administrados (Managed Service Provider o MSP) como un socio externo que puede ayudar en el diseño e implementación de la red y en el mantenimiento rutinario, controles de seguridad y cambios de configuración, además de poder apoyar en la administración en forma y el soporte en sitio.
- Gestión de la Protección y Amenazas de Seguridad en Red: Cada vez más los procesos empresariales se mueven en línea, por lo que la seguridad de la red es vital para lograr la resiliencia, junto con la gestión de riesgos. En una red empresarial se genera un flujo regular de registros que son analizados por el equipo de gestión de seguridad de la red para encontrar huellas digitales de amenazas. Dependiendo del negocio y el tamaño de la organización, es posible tener equipos o personal asignado para cada tipo de gestión de la red. Aunque también se recomienda apoyarse en servicios gestionados por expertos en la industria en que se desenvuelve la organización, con un conocimiento claro de los riesgos comunes, mejores prácticas de seguridad y con expertos en la materia de seguridad que constantemente evoluciona y se vuelve más sofisticada.
- Gestión Ágil de Direcciones IP y Aprovisionamiento Eficiente: Los protocolos de red son la columna vertebral de la comunicación digital con reglas y procedimientos sobre cómo se transmiten los datos entre dispositivos dentro de una red, independientemente del hardware o software involucrado. Un aprovisionamiento debe contemplar la infraestructura de TI en la empresa y el flujo y tránsito de datos en distintos niveles desde la red, incluyendo servidores, aplicaciones y usuarios para brindar conectividad y seguridad (gestionando también dispositivos e identidades de los usuarios). Otra tarea importante en la administración de la red es la transparencia sobre el uso, anomalías y tendencias de uso para diferentes funciones o unidades de negocio e incluso usuarios individuales. Esto resulta de particular valor para grandes empresas en que deben transparentar el uso de servicios compartidos que alquila recursos de red a diferentes sucursales y subsidiarias para mantener un margen de beneficio interno.
Resumen y conclusión
En la digitalización del negocio, los Protocolos de Administración de Red tiene por objetivo emprender acciones y estandarizar procesos para lograr una red segura, confiable y de alto rendimiento para los usuarios finales (empleados, socios, proveedores y clientes finales). Las empresas distribuidas en distintas geografías dependen de los Protocolos de Administración de Red para mantener conectadas las diferentes áreas de negocio, funciones y equipos empresariales, permitiendo el flujo de datos dentro y fuera de la empresa, ya sea en servidores locales, nubes privadas o nubes públicas.
A medida que la tecnología continúa evolucionando, también lo hacen los protocolos de red. El estratega de TI y los equipos asignados a la administración de redes deben prepararse para el futuro de los protocolos de red y la integración de tecnologías emergentes, para el aprovechamiento de los avances en velocidad, confiabilidad y seguridad. Por ejemplo, 5G es una tecnología que se espera tenga un impacto significativo en las redes, impulsada por la necesidad de mayor conectividad y menor latencia. También la vida cotidiana de las personas implica conectar objetos (vehículos, electrodomésticos, sensores, etc.), revolucionando las redes para atender al Internet de las Cosas. En Seguridad, se están desarrollando protocolos de red más robustos, como el Transport Layer Security (TLS), que cifra los datos transmitidos para evitar el acceso o la manipulación por parte de terceros.
Todo esto nos dice que el desarrollo de protocolos de red no se desacelerará en el corto plazo a medida que avancemos hacia un mundo cada vez más conectado.
Pandora FMS trabaja con los tres protocolos principales para la administración de la red para ofrecer una solución de monitorización amplia y flexible. Consulte con el equipo comercial de Pandora FMS para obtener una prueba gratuita del software de monitorización más flexible del mercado: https://pandorafms.com/es/demo-gratuita/
Para más información, conéctese con sus colegas para hallar respuestas y también para hacer llegar sus preguntas en nuestros grupos privados o públicos en: pandorafms.com/community
No dude en enviar sus consultas. El equipo de Pandora FMS estará encantado de atenderle!
por Olivia Díaz | Last updated Feb 23, 2024 | Pandora FMS
Digital-First (primero digital) ha sido la tendencia de las organizaciones en el mundo y América Latina, en que se opta primero por una estrategia digital para la entrega de productos y servicios, especialmente cuando se busca un mayor impacto de la marca de forma más inmediata a un determinado segmento del mercado junto con una difusión más amplia sobre la oferta, de manera más personalizada y, sobre todo, si se busca acercarse más al cliente final. Según Marketing4Commerce, Digital Report, el número de usuarios de internet en el mundo alcanza los 5,160 millones (64,4% de la población mundial, al 2023) con un tiempo de navegación en internet mayor a 6 horas, y personas con dispositivos móviles alcanzan los 5,440 millones (68% de la población mundial, al 2023).
También, esto lo vemos reflejado en un reporte de Adobe (Tendencias Digitales de 2023) en que más de 70% de las organizaciones, tanto líderes como seguidoras, consideran que las expectativas de sus clientes se ajustan constantemente para alinearse a las experiencias omnicanal mejoradas, esto es porque los clientes finales están constantemente evaluando sus experiencias en comparación con su última mejor experiencia. Ciertamente, las experiencias más memorables serán creadas por las organizaciones que sepan aprovechar los datos y los combinen con el conocimiento humano para anticiparse a las necesidades del cliente, con mayor empatía y en forma más individualizada.
En este panorama la Inteligencia Artificial (IA) se convierte en una aliada para implementar estrategias de experiencia del cliente en forma personalizada e innovadora, aprovechando herramientas de reconocimiento de voz, comprensión del lenguaje natural, los datos sobre patrones de conducta y las preferencias del consumidor. En los últimos años las interacciones con asistentes virtuales se han vuelto el común, impulsando el desarrollo de modelos de lenguaje para determinadas tareas o resultados esperados. A esto se le conoce como Ingeniería de Preguntas, el cual es el proceso de construir alertas o inputs para guiar a una determinada conducta del sistema de IA y obtener respuestas deseadas y precisas a partir de los modelos de IA. De manera que la IA asume un papel de colaborador digital que no solo sirve de punto de contacto con el consumidor, sino que también impulsa el conocimiento y la productividad para los colaboradores de la organización.
¿Qué es la Ingeniería de Preguntas?
De acuerdo con Techopedia, la Ingeniería de Preguntas (Prompt Engineering) refiere a una técnica utilizada en inteligencia artificial (IA) para optimizar y ajustar modelos de lenguaje para tareas particulares y resultados deseados. También se la conoce como diseño de avisos o alertas (Prompts), que construye cuidadosamente indicaciones o entradas para modelos de IA con el fin de mejorar su desempeño de tareas específicas. Los prompts, adecuadamente diseñados, se utilizan para guiar y modificar el comportamiento deseado del sistema de IA y obtener respuestas precisas y deseadas de los modelos de IA.
La Ingeniería de Preguntas usa las capacidades de los modelos de lenguaje y optimiza sus resultados a través de indicaciones correctamente diseñadas. Esto permite no depender solo de la capacitación previa o el ajuste, además de ayudar a los usuarios a guiar los modelos para lograr objetivos específicos, fomentando respuestas precisas y proporcionando instrucciones directas, excepciones o ejemplos en las indicaciones.
De acuerdo con una encuesta realizada por la empresa COPC Inc. Durante el año 2022, “Mejorar la experiencia del cliente” alcanzó el 87% como el objetivo más mencionado en cuanto a la implementación de soluciones basadas en IA. En este aspecto, 83% de los encuestados afirmaron que utilizan soluciones basadas en IA mayormente para aplicaciones de contacto con sus clientes, y es que la IA tiene un sinfín de usos que impactan directamente en la Experiencia del Cliente. Según un estudio realizado por CX optimization 2023, los usos más implementados son la creación de contenidos, perfilamiento del cliente y reducción de las llamadas internas.
Para procesar estos prompts, tenemos a los Modelos de Lenguaje Grandes (Large Language Models, LLM), que son modelos lingüísticos avanzados basados en algoritmos de Deep Learning (aprendizaje profundo) para procesar y analizar grandes cantidades de datos de texto. LLM trabaja a partir de redes neuronales artificiales (sistemas que se inspiran en la función del cerebro humano), que se entrenan para aprender patrones y relaciones en un texto y generar respuestas a las preguntas de los usuarios. Esto permite que LLM sea capaz de analizar grandes volúmenes de datos de texto y, a partir de ello, usar dicha información para entender palabras, frases y oraciones y sus contextos, habilitando la comunicación humana-IA.
Lado Técnico de la Ingeniería de Preguntas
Como habíamos mencionado anteriormente, los LLM se entrenan a partir de grandes cantidades de datos de texto para enseñar al modelo a reconocer relaciones y patrones en un texto. Todos estos datos son procesados para ajustar parámetros del modelo y, de ese modo, mejorar la precisión y comprensión del lenguaje. También se usan técnicas de preprocesamiento de textos (eliminación de palabras irrelevantes, estandarización de palabras para detectar la variabilidad de un texto), ajustes de hiperparámetros y optimización para lograr la mayor precisión en el modelo. Para implementar la Ingeniería de Preguntas, existen diversas técnicas, tales como:
- Zero-Shot Prompting genera una respuesta sin dar a los modelos lingüísticos ejemplos ni contexto previo. Se usa para respuestas rápidas a preguntas o temas generales.
- Ejemplo: “¿Qué es un prompt?”
- Respuesta: “Un Prompt es…”
- One-Shot Prompting se extrae una respuesta desde un ejemplo o contexto proporcionado por el usuario.
- Ejemplo: “Si presupuesto en portugués es orçamento, ¿cómo puedo traducir Proveedor?”
- Respuesta: “Fornecedor”.
- Recuperación de información se formula a la IA generativa una pregunta concreta para obtener respuestas detalladas. La clave de esto es la fuente de datos de donde se alimentan los LLMs. Por ejemplo, ChatGPT solo tiene acceso a datos posteriores a septiembre de 2021.
- Ejemplo: “¿Cuáles son las ventajas de LLM?”
- Respuesta: “1. Diversificación de contenidos. 2. Personalización…”.
- Escritura creativa a través de esta técnica es posible desarrollar textos con imaginación, historias y expresiones textuales que se adaptan a las preferencias de la audiencia.
- Ejemplo: “Haz un poema a la luna”
- Respuesta: “La luna se puede tomar a cucharadas…o como una cápsula cada dos horas. Es buena como hipnótico y sedante y también alivia”.
- Expansión del contexto enriquecimiento de la información a la Inteligencia Artificial para mejorar la comprensión usando los métodos de las 5W y 1H, que refiere a 5 preguntas (que en inglés empiezan con W): Quién, Qué, Dónde, Cuándo, Por qué); y a 1 H, que es el Cómo (How) sobre un tema.
- Ejemplo: “Es bueno comer Betabel?”
- Respuesta: “Quiénes: la mayoría de las personas pueden comer Betabel; Qué: “El Betabel o Remolacha refiere a un tubérculo comestible de rojo intenso…”
- Resumen de contenidos con enfoque específico consiste en dirigir la atención de la IA a aspectos concretos de la instrucción, con un énfasis particular. Se puede destacar qué elementos deben priorizarse en el modelo, para que el resumen refleje la esencia del enfoque.
- Ejemplo: “guía completa sobre técnicas de optimización de sitios web, pero sólo quiero las estrategias de optimización para móviles.”
- Respuesta: “Los aspectos clave son: Caché móvil- activar esta opción permite…; Lista de User Agents Móviles- si la función de Caché móvil está activada…”
- Rellenar plantillas para crear contenidos versátiles y estructurados. Se usa una plantilla con marcadores de posición para personalizar prompts en diferentes instrucciones, manteniendo una coherencia. Los content managers o desarrolladores web usan esta estrategia para crear fragmentos de contenido personalizados, que han sido generados por IA en sus sitios web. Un ejemplo es usar una plantilla estándar para cotizar, haciendo que IA complete datos de cliente, productos, precios, etc. Otro ejemplo es la automatización de correos personalizados desde una plantilla con una estructura general – desde el saludo, texto principal, despedida (‘Hola {Nombre}, Gracias por solicitar nuestro {Servicio}…{Cierre}».
- Personalización de Prompt o Prompt Reframing permite cambiar la redacción de las preguntas manteniendo la intención original de la consulta. Se puede diseñar el modelo lingüístico para dar varias respuestas que respondan a la consulta original de diferentes maneras. Esto puede hacerse con sinónimos o reformulación de preguntas.
- Ejemplo: “Prompt original: ¿cuáles son las formas de reducir la latencia en la red? Prompt reformulado: ¿puede enumerar técnicas para optimizar la velocidad en la red?”.
- Combinación de Prompts consiste en fusionar diferentes prompt o preguntas en una misma instrucción para obtener una respuesta completa.
- Ejemplo: “¿Puedes explicar las diferencias entre el hosting compartido y el hosting VPS y recomendar cuál es mejor para un pequeño sitio web de comercio electrónico?”.
- Respuesta: “Hosting compartido y hosting VPS son dos tipos de servicios de alojamiento…Hosting Compartido: …”
- Cadena de Pensamiento o Chain-Of-Thought Prompting usa interacciones de IA en tiempo real para guiar hacia respuestas más precisas y completas. No se basa en una sola pregunta, sino en una secuencia de preguntas o ejemplos asociados con la finalidad de profundizar sobre la consulta original. Para ello, hay que dividir una consulta o un tema complejo en secciones más pequeñas. Luego, estas partes se presentan como una secuencia de consultas que se desarrollan unas sobre otras, para conducir a IA hacia una respuesta deseada.
- Ejemplo: “¿Cuál es el tema principal?… ¿Con qué objetivo?… ¿Quién es la audiencia?…”
- Prompting iterativo consiste en hacer consultas de seguimiento a partir de respuestas anteriores para profundizar un tema, obtener información adicional o aclarar alguna ambigüedad sobre el resultado inicial. En esta técnica, se requiere expertos en procesamiento del lenguaje natural (Natural Language Processing) para diseñar prompts iterativos y elaborar respuestas parecidas a las realizadas por un ser humano.
- Ejemplo: “¿Cuáles son las mejores películas de 2022?”
- Respuesta: “’Drive My Car’ de Ryûsuke Hamaguchi; ‘El callejón de las almas perdidas’ de Guillermo del Toro; ‘The Banshees of Inisherin’ de Martin McDonagh; ‘Holy Spider’ de Ali Abbasi…”
- Storytelling interactivo y juegos de rol aprovecha la capacidad de IA para adaptar respuestas en función de los prompts e interacciones anteriores, desarrollando una narración fluida.
- Ejemplo: “Prompt: Quiero empezar un ejercicio de narración colaborativa contigo. Escribiremos una historia de fantasía sobre una tierra en la que existe la magia,… El personaje será….”
- Respuesta: “En las sombras de un bosque existía…”
- Inyección implícita de información la particularidad de esta técnica es que se otorga un contexto sutilmente para que IA entienda las necesidades sin necesidad de expresarlo explícitamente.
- Ejemplo: “¿Puedes mencionar las mejores prácticas de Modernización de un datacenter?”
- Respuesta: “1- Eleve la temperatura de funcionamiento de su centro de datos; 2- Actualice los servidores y sistemas para una mejor consolidación y eficiencia”.
- Traducción de idiomas con matices contextuales generación de contenidos multilingües, más allá de traducir palabras de un idioma a otro, considerando el contexto cultural o situación para una traducción más precisa y natural.
- Ejemplo: “Traduce la frase «She took the ball and ran with it» del inglés al francés, teniendo en cuenta que se trata de una metáfora empresarial para referirse a tomar las riendas de un proyecto.”
- Respuesta: “Elle a pris le ballon et a foncé avec”, considerando la idea de tomar la iniciativa de un proyecto.”
Adicional a éstos, podemos mencionar a la Ingeniería de prompt automática, donde la ingeniería automática de prompts (Automatic Prompt Engineering, APE) es un avance en inteligencia artificial que aprovecha los LLM para ayudar a la IA a generar y seleccionar automáticamente instrucciones por sí misma. Los pasos principales son:
- Asigna al chatbot una tarea específica y muestra algunos ejemplos.
- Al chatbot se le ocurren diferentes maneras de hacer el trabajo, por razonamiento directo o teniendo en cuenta tareas similares que conoce.
- A continuación, se prueban en la práctica estos distintos métodos.
- El chatbot valora la eficacia de cada método.
- La IA elegirá entonces un método mejor y lo aplicará.
Con Machine Learning, las herramientas de IA Generativa pueden agilizar las tareas, desde el análisis de datos en un contexto hasta la atención automatizada al cliente, sin necesitar constantes prompts generados por los humanos.
Cabe mencionar que en Prompt Engineering es importante considerar aspectos técnicos básicos como Temperatura y lo que llamamos Muestreo Top-K, para mejorar la calidad y diversidad del contenido generado por IA, al influir en el proceso de selección de tokens (palabras o subpalabras) del modelo:
- Temperatura un valor de temperatura más alto (p. ej., 1,0 o superior) dará como resultado un texto más diverso y creativo, mientras que un valor más bajo (p. ej., 0,5 o menos) producirá resultados más centrados y deterministas. Para ello, se recomienda fomentar la creatividad con base en valores de temperatura más altos al generar escritura creativa, sesiones de lluvia de ideas o explorar ideas innovadoras. También se recomienda mejorar la coherencia, optando por valores de temperatura más bajos con contenido bien estructurado, coherente y enfocado, como documentación técnica o artículos formales.
- El muestreo Top-k es otra técnica recomendada en la generación de texto de IA para controlar el proceso de selección de tokens del modelo, desde un conjunto restringido de k tokens más probables. Un valor k más pequeño (por ejemplo, 20 o 40) dará como resultado un texto más enfocado y determinista, mientras que un valor k más grande (por ejemplo, 100 o 200) producirá resultados más diversos y creativos. Las aplicaciones del muestreo top-k incluyen impulsar la diversidad de contenido, usando valores k más grandes al generar contenido que requiera una amplia gama de ideas, perspectivas o vocabularios. También consiste en garantizar resultados enfocados, eligiendo valores k más pequeños, generando contenido que requiere un alto grado de concentración, precisión o coherencia.
Para implementar las técnicas de Temperatura y Muestreo Top-k, se recomienda la Experimentación (probando varias combinaciones de temperatura y valores top-k para identificar la configuración óptima para tareas o contenidos) y el Ajuste Secuencial, durante el proceso de generación de texto para controlar el comportamiento del modelo de IA en diferentes etapas. Por ejemplo, comience con una temperatura alta y un valor k grande para generar ideas creativas, luego cambie a valores más bajos para un posterior refinamiento y enfoque.
Por último, se recomienda la aplicación de los gradientes descendentes que consisten en un algoritmo de optimización para minimizar una función objetivo y calculan la tasa de cambio o gradiente de la función de pérdida. En Machine Learning esta función objetivo suele ser la función de pérdida para evaluar el rendimiento del modelo. Los parámetros se actualizan iterativamente utilizando los gradientes descendentes hasta que se alcanza un mínimo local.
¿Por qué la Ingeniería de Preguntas es Importante?
La rapidez con la que funciona ChatGPT de OpenAI desde 2022 es abrumadora, hoy está siendo usada por millones de personas, como una forma de inteligencia artificial conversacional, partiendo de algoritmos avanzados de aprendizaje profundo (Deep Learning) para comprender el lenguaje humano.
Actualmente, las organizaciones utilizan diversas técnicas de inteligencia artificial, tales como el procesamiento del lenguaje natural (Natural Language Processing), la ingeniería de preguntas, las redes neuronales artificiales (Artificial Neural Network, NN), el aprendizaje automático (Machine Learning) y el proceso de decisión de Markov (Markov Decision Processing, MDP) para automatizar varias tareas.
La importancia de la Ingeniería de Preguntas radica en que mejora la experiencia del cliente y las interacciones entre personas e IA, además de que contribuye a construir mejores sistemas de IA conversacionales. Estos sistemas de IA conversacionales dominan y dominarán el mercado en los próximos años al utilizar LLM en forma coherente, relevante y preciso. Solo para tener un punto de referencia, tenemos que ChatGPT alcanzó los 100 millones de usuarios activos en cuestión de semanas después de su lanzamiento.
Para los desarrolladores, la Ingeniería de Preguntas ayuda a comprender cómo los modelos basados en IA llegan a las respuestas esperadas y también obtienen información precisa del funcionamiento de los modelos AI en el back-end. Desde luego, se necesitará el desarrollo de prompts que abarquen diversos temas y escenarios. Otros beneficios que podemos mencionar son: que la Ingeniería de Preguntas y el contexto de la síntesis texto-imagen, permiten personalizar las características de la imagen (el estilo, la perspectiva, la relación de aspecto, el punto de vista y la resolución de la imagen).También, desempeña un papel importante en la identificación y mitigación de los ataques de inyección de prompt, protegiendo así los modelos de IA de posibles actividades maliciosas.
Evolución de la Ingeniería de Preguntas
Natural Language Processing (NLP), es parte de IA que ayuda a percibir, como dice su nombre, el “lenguaje natural” usado por los humanos, facilitando la interacción entre personas y computadoras, gracias a que puede comprender palabras, frases y oraciones. También comprende el procesamiento sintáctico (significado de las palabras y vocabulario) y semántico (comprensión dentro de una frase o combinación de frases). Las primeras luces de NLP se vieron en los años 50, cuando se comenzaron a adoptar métodos basados en reglas, que consistían más que nada en la traducción automática. Su aplicación se dio en el análisis de palabras/oraciones, respuesta a preguntas y traducción automática. Hasta la década de los 80, aparece la gramática computacional como campo activo de investigación. Se tuvo más disponibilidad de herramientas y recursos gramaticales, lo que impulsó su demanda. Hacia los años 90, el uso de la web generó un gran volumen de conocimiento, lo que impulsó a los métodos de aprendizaje estadístico que requerían trabajar con NLP. AL 2012, entra en la arena Deep Learning como solución para el aprendizaje estadístico, produciendo mejoras en los sistemas de NLP, profundizando los datos sin procesar y aprendiendo de sus atributos.
Al 2019, surge el Transformador Generativo Pre-entrenado (GPT) como un avance notable en el dominio del procesamiento del lenguaje natural, ya que con ello es posible entrenar previamente modelos de lenguaje a gran escala para enseñar a los sistemas IA cómo representar palabras y oraciones en un contexto. Esto permitió el desarrollo de máquinas que pueden comprender y comunicarse utilizando el lenguaje de una manera muy similar a la de los seres humanos. Su aplicación más popular es ChatGPT, el cual obtiene información de textos publicados desde el año 2021 en Internet, incluyendo noticias, enciclopedias, libros, páginas web, entre otros, pero carece de la capacidad para discriminar qué información es cierta y cuál no lo es. Precisamente por ello, la Ingeniería de Preguntas surge como un método para optimizar el procesamiento del lenguaje natural en IA y mejorar la precisión y calidad de sus respuestas.
El Arte y la Ciencia de Crear Preguntas
Un prompt es en sí un texto que se incluye en el modelo de lenguaje (Language Model, LM), y la Ingeniería de Preguntas es el arte de diseñar ese texto para obtener el resultado deseado, con calidad y precisión. Esto implica adaptar la entrada de datos para que las herramientas impulsadas por IA puedan comprender la intención del usuario y obtener las respuestas claras y concisas. Lo cual nos indica que el proceso debe ser eficaz para garantizar que las herramientas impulsadas por la IA no generen respuestas inapropiadas y sin sentido, especialmente cuando las soluciones GPT se basan más que nada en la frecuencia y asociación de palabras, pudiendo arrojar resultados incompletos o erróneos.
Para crear Preguntas en herramientas de IA Generativa, se recomienda seguir esta guía esencial:
- Comprender el resultado deseado
Una Ingeniería de Preguntas exitosa parte de saber qué preguntas hacer y cómo hacerlo de manera efectiva. Por lo que el usuario debe tener claro lo que quiere en primer lugar: objetivos de la interacción y un esquema claro de los resultados previstos (qué obtener, para qué audiencia y cualquier acción asociada que el sistema deba realizar).
- Recordar que la forma importa
Los sistemas de IA funcionan con base en solicitudes simples y directas, mediante oraciones informales y un lenguaje sencillo. Pero las solicitudes complejas se beneficiarán de consultas detalladas y bien estructuradas que se adhieran a una forma o formato coherente con el diseño interno del sistema. Eso es esencial en la Ingeniería de Preguntas, ya que la forma y el formato pueden diferir para cada modelo, y algunas herramientas puede existir una estructura preferida que implique el uso de palabras clave en ubicaciones predecibles.
- Hacer solicitudes claras y específicas
Considere que el sistema solo puede actuar en función de lo que puede interpretar a partir de un mensaje determinado. Por lo que hay que formular solicitudes claras, explícitas y procesables y comprender el resultado deseado. A partir de ello, luego se debe trabajar para describir la tarea por realizarse o articular la pregunta que debe responderse.
- Estar atento a la longitud
Los prompts pueden estar sujetos a un número mínimo y máximo de caracteres. Aun cuando hay interfaces de IA que no imponen un límite estricto, las indicaciones extremadamente largas pueden resultar difíciles de manejar para los sistemas de IA.
- Elegir las palabras cuidadosamente
Como cualquier sistema informático, las herramientas de IA pueden ser precisas en el uso de comandos y el lenguaje, sin saber cómo responder a comandos o lenguaje no reconocidos. Se recomienda evitar la ambigüedad, metáforas, modismos y jerga específica para no producir resultados inesperados e indeseables.
- Plantear preguntas o solicitudes abiertas
El propósito de IA Generativa es crear. Las preguntas simples de Sí o No son limitantes y con posibles resultados breves y poco interesantes. Las preguntas abiertas permiten más flexibilidad.
- Incluir contexto
Una herramienta de IA generativa puede cumplir con una amplia gama de objetivos y expectativas, desde resúmenes breves y generales hasta exploraciones detalladas. Para aprovechar esta versatilidad, los prompts bien diseñados incluyen un contexto que ayuda al sistema de IA a adaptar su salida a la audiencia prevista.
- Establecer objetivos o límites de duración de la producción
Aunque la IA generativa pretende ser creativa, a menudo es aconsejable incluir barreras en factores como la duración de la salida. Los elementos de contexto en las indicaciones pueden incluir, por ejemplo, solicitar una respuesta simplificada y concisa versus una respuesta larga y detallada. También considere que los modelos de procesamiento de lenguaje natural, como GPT-3, están entrenados para predecir palabras basándose en patrones del lenguaje, no para contarlas.
- Evitar términos contradictorios
Derivado también de prompts largas y se puede incluir términos ambiguos o contradictorios. Se recomienda que los ingenieros de Prompt revisen la formación de Prompt y garantizar que todos los términos sean coherentes. Otra recomendación es usar un lenguaje positivo y evitar el lenguaje negativo. La lógica es que los modelos de IA están entrenados para realizar tareas específicas, no para no hacerlas.
- Utilizar la puntuación para aclarar indicaciones complejas
Al igual que los humanos, los sistemas IA dependen de la puntuación para ayudar a analizar un texto. Los prompts de IA también pueden hacer uso de las comas, las comillas y los saltos de renglón para ayudar al sistema a analizar y operar en una consulta compleja.
En cuanto a imágenes, se recomienda considerar su descripción, el ambiente y ánimo en su contexto, colores, luz, realismo.
Cómo Funciona la Ingeniería de Preguntas
La Ingeniería de Preguntas es propiamente una disciplina para impulsar y optimizar el uso de modelos de lenguaje en IA, mediante la creación y prueba de entradas de datos, con diferentes oraciones para ir evaluando las respuestas obtenidas, a base de ensayo y error hasta lograr el entrenamiento del sistema basado en IA, siguiendo estas tareas fundamentales:
- Especificar la tarea: definición de un objetivo en el modelo de lenguaje, lo cual puede implicar tareas relacionadas con NLP como complementación, traducción, resumen de texto.
- Identificar entradas y salidas: definición de las entradas que se requieren en el modelo de lenguaje y las salidas o resultados deseados.
- Crear prompts informativos: creación de prompts que comunican claramente el comportamiento esperado en el modelo, debiendo ser claros, breves y acorde al propósito por el cual fue creado.
- Interactuar y evaluar: se somete a pruebas usando modelos de lenguaje y evaluando los resultados que se arrojan, buscando fallas e identificando sesgos para hacer ajustes que mejoren su desempeño.
- Calibrar y refinar: consiste en tomar en cuenta los hallazgos obtenidos, haciendo ajustes hasta obtener el comportamiento requerido en el modelo, alineado con los requerimientos e intenciones con el cual fue creado el prompt.
En todo este proceso, el Ingeniero de Preguntas debe tener en mente que al diseñar preguntas es fundamental ser claros y precisos. Si el mensaje diseñado es ambiguo, el modelo tendrá dificultades para responder con calidad. Al diseñar prompts se debe prestar atención a las fuentes utilizadas durante el entrenamiento previo, considerando audiencias sin sesgo por géneros y culturas, para promover el respeto y la inclusión. Lo que se recomienda es enfocarse en respuestas encaminadas a ayudar, aprender y brindar respuestas neutrales y basadas en hechos.
También, se recomienda la aplicación de Juego de roles en que se crea un escenario donde el modelo asume un rol e interactúa con otra entidad. Por ejemplo, si se quiere crear una reseña de productos, se puede asumir el rol de un cliente que ha probado un producto y que escribe su experiencia satisfactoria.
El Rol de un Ingeniero de Preguntas
Un Ingeniero de Preguntas es el responsable de diseñar, desarrollar, probar, depurar, mantener y actualizar aplicaciones de IA, en estrecha colaboración con otros desarrolladores de software para garantizar que el software responda y funcione de manera eficiente. En su función se requiere creatividad y atención al detalle para elegir palabras, frases, símbolos y formatos correctos que guíen al modelo IA en la generación de textos relevantes y de alta calidad. Este rol emergente ha cobrado mayor relevancia en la necesidad de que IA contribuya a mejorar y agilizar los servicios ante el cliente y en forma interna. Ahora, si nos preguntamos quiénes puede ser Ingenieros de Preguntas, no solo para agilizar sus tareas sino para desarrollarse profesionalmente, podemos decir que pueden ser los investigadores e ingenieros de IA, los científicos y analistas de datos, los creadores de contenido, ejecutivos de atención al cliente, personal docente, profesionales de negocios, investigadores. Se espera que la demanda de Ingenieros de Preguntas crezca en la medida que las organizaciones requieran de personas que sepan manejar las herramientas impulsadas por IA.
El Futuro de la Ingeniería de Preguntas
Se prevé que las tendencias hacia un futuro de la Ingeniería de Preguntas estará vinculada a la integración con la realidad aumentada (RA) y la realidad virtual (RV), en el sentido que la adecuada aplicación de prompts puede mejorar las experiencias inmersivas de RA/VR, optimizando interacciones de IA en entornos 3D. En los avances de la Ingeniería de Preguntas es posible que los usuarios conversen con personajes de IA, soliciten información y emitan órdenes mediante el lenguaje natural en entornos simulados y en tiempo real. Esto parte de que, con la Ingeniería de Preguntas, se puede dotar a IA de un contexto o situación, una conversación y el intercambio del ser humano con aplicaciones de RA/VR, ya sea de uso espacial, educacional, de investigación o exploración.
Otra de las previsiones del uso de la Ingeniería de Preguntas es la posibilidad de lograr una traducción simultánea en lenguas habladas y escritas, aprovechando los contextos en varios idiomas para que la IA traduzca bidireccionalmente en tiempo real y en la forma más fidedigna posible. El impacto de esto es la comunicación en contextos empresariales, multiculturales, diplomáticos y personales, tomando en cuenta los dialectos regionales, los matices culturales y los patrones del habla.
En cuanto a la creatividad interdisciplinar, la Ingeniería de Preguntas puede impulsar a IA para generar arte, historias, obras y música, combinándose con la creatividad humana. Desde luego, esto puede tener implicaciones éticas, aunque también se democratiza el acceso de IA con fines artísticos.
Desde luego, a medida que la Ingeniería de Preguntas va madurando, se plantean cuestiones sobre equidad, respeto y alineación con los valores morales, desde la propia formulación de la consulta hasta el tipo de respuestas que pueden derivarse. Hay que tener en mente que en el futuro de IA y la Ingeniería de Preguntas, la tecnología siempre será un reflejo de las personas.
Desafíos y Oportunidades
Como hemos visto, la Ingeniería de Preguntas representa la oportunidad de desarrollar Preguntas bien diseñadas que mejoren la funcionalidad de la IA, en forma más eficiente y efectiva. La ventaja de esto es que se pueden agilizar tareas cotidianas, además de ampliar el conocimiento en diversos temas e impulsar la creatividad. Se fomenta también la inclusión cuando se implementa adecuadamente, con un impacto positivo en las experiencias de género.
La otra cara de la moneda son las preguntas mal diseñadas que pueden resultar en respuestas de IA con sesgos, prejuicios o datos erróneos. De ahí que las consideraciones éticas en la Ingeniería de Preguntas pueden mitigar estos riesgos, sin comprometer la equidad, el respeto y la inclusión. También, la falta de aplicación de mejores prácticas, incluso por profesionales en la materia, podrían no lograr el resultado deseado en el primer intento y resultar difícil de encontrar un punto adecuado para iniciar el proceso.
Asimismo, puede ser difícil controlar el nivel de creatividad y singularidad del resultado. A menudo, los profesionales de Ingeniería de Preguntas pueden proporcionar información adicional en el mensaje que puede confundir al modelo de IA y afectar la precisión de la respuesta.
Conclusiones
En la economía digital, las experiencias más memorables serán aquéllas en que se aprovechan los datos y se combinan con el conocimiento humano para así anticiparse a las necesidades del cliente, con empatía y personalización. En este entorno, la IA se convierte en el colaborador digital, no solo como punto de contacto con el cliente, sino que también como impulsor de productividad en la organización. Cierto es que GPT ha ganado tracción en una búsqueda de mayor acercamiento al cliente; sin embargo, se basa en frecuencia y asociación de palabras, careciendo de la capacidad para discriminar la información correcta de la incorrecta. Es en esta necesidad de mejorar la calidad de respuestas que la Ingeniería de Preguntas toma relevancia para desarrollar y optimizar los modelos de lenguaje natural de IA y obtener calidad y precisión en sus respuestas, basándose en una mayor comprensión de la intención del usuario. Sin duda alguna, la demanda del Ingeniero de Preguntas crecerá confirme las organizaciones requieran de profesionales que sepan comprender la naturaleza de las herramientas basadas en IA.
Claro es que, conforme la adopción de la Ingeniería de Preguntas madure se seguirán planteando cuestiones de equidad, respeto y alineación con los valores morales en la formulación de los prompts y los resultados, por lo que se requiere de técnicas adecuadas para lograr su implementación sin sesgos o prejuicios. Para emprender este viaje a la Ingeniería de Preguntas, se recomienda acompañarse por un socio de tecnología que transmita a su equipo las mejores técnicas y prácticas para su implementación.
por Olivia Díaz | Last updated Feb 23, 2024 | Control Remoto
Parecería que la línea de la ciencia ficción y la realidad está cada vez más borrosa. Esto ya no lo vemos solo en el cine y los juegos, sino en el comercio electrónico, la educación, el entretenimiento, la capacitación del personal, el diagnóstico remoto o proyectos arquitectónicos. Hoy la Realidad Virtual y la Realidad Aumentada están cambiando la forma en que usamos las pantallas al crear nuevas experiencias, más interactivas e inmersivas. Pero… ¿Cómo definimos la Realidad Virtual y la Realidad Aumentada?
La Realidad Virtual (Virtual Reality o VR) refiere a un entorno artificial creado con hardware y software, presentado al usuario de tal manera que parece y se siente como un entorno real. Para “ingresar” a una realidad virtual, el usuario se pone guantes, auriculares y gafas especiales, desde los cuales se recibe información del sistema informático. Además de proporcionar información sensorial al usuario (tres de los cinco sentidos: tacto, oído y visión), los dispositivos también monitorean las acciones del usuario.
Para la Realidad Aumentada (Augmented Reality o AR) se utiliza tecnología capaz de insertar elementos digitales en entornos del mundo real para ofrecer a consumidores y profesionales una experiencia híbrida de la realidad. Aun cuando la Realidad Aumentada es compatible con diversos dispositivos, es más popular en las aplicaciones de teléfonos inteligentes, con interacciones en tiempo real. De hecho, la mayoría de las herramientas de RA actuales están orientadas al consumidor, aunque las organizaciones comienzan a adoptar la RA en procesos, productos y servicios comerciales.
Si bien RA es distinta de la VR, ambas innovaciones representan un campo de tecnología denominado realidad extendida (XR), que engloba todos los entornos, reales y virtuales, representados por gráficos de ordenador o dispositivos móviles. El objetivo de XR es combinar realidades físicas y virtuales hasta conseguir que el usuario no sea capaz de distinguirlas, además de estar al alcance de cualquier persona para mejorar la vida de los usuarios.
La importancia de entender cada realidad (RA y RV) es el potencial de alterar el panorama digital en la vida y los negocios, transformando la forma en que nos comunicamos e interactuamos con la información y cambiando la forma en que pueden operar diversas industrias. Vemos esto con más detalle a continuación.
Realidad Aumentada (AR)
Esta realidad incorpora contenido virtual en el mundo físico para mejorar la percepción y la interacción del usuario con un entorno real. AR se experimenta con teléfonos inteligentes, tabletas o gafas AR, que proyectan objetos virtuales, texto o imágenes para que los usuarios puedan interactuar simultáneamente con elementos virtuales y físicos.
Por ejemplo, una cámara del dispositivo registra el entorno del usuario y los giroscopios y acelerómetros monitorean la orientación y ubicación de la cámara. El software de RA analiza la transmisión de la cámara, que identifica objetos y características del entorno. A partir de ahí, el usuario puede interactuar con objetos virtuales mediante pantallas táctiles, gestos y comandos de voz. Por ejemplo: desde una Tablet, se puede consultar sugerencias para quien visita una ciudad. En pantalla se presentan lugares para comprar, comer, visitar un museo, etc., basándose en las preferencias del usuario.
En el piso de producción de una empresa de manufactura, a través de lentes y software de AR, el ingeniero de mantenimiento puede obtener información sobre el estado de salud de un equipo, de manera que puede tomar decisiones en tiempo real y en forma más proactiva.
Otro ejemplo podemos verlo en el diseño de espacios y arquitectura. Desde una lente se puede obtener una imagen de cómo se vería el proyecto concluido para plantear el proyecto ejecutivo ante los inversores o detectar mejoras en el diseño y/o impacto en el entorno.
Funcionamiento y ejemplo de Realidad Virtual (VR)
Dentro de lo que es la Realidad Extendida, la realidad virtual es la forma más popular. Los usuarios usan auriculares o gafas de realidad virtual (wearables o dispositivos que se pueden llevar puestos) que tienen sensores para rastrear movimientos y permitirles explorar entornos virtuales generados por computadora, así como también para interactuar con objetos y participar en diversas actividades que se muestran en pantallas o lentes.
En VR, los usuarios ven imágenes tridimensionales (3D) que crean la sensación de profundidad e inmersión, mientras que el audio espacial mejora la experiencia a través de auriculares, altavoces o bocinas. También hay que comprender que la experiencia inmersiva es un formato cuyo objetivo es “sumergir” completamente a la persona en un entorno o contexto específico real o virtual.
Una de las aplicaciones más difundidas de VR es en los juegos, en que los usuarios interactúan directamente con el juego a través de dispositivos como lentes, cinturones, guantes y otros complementos que mejoran la experiencia del jugador.
En las industrias, VR puede apoyar en el diseño y capacitación con elementos que podrían ser de riesgo para el operador en una etapa de inducción. También se reducen riesgos en el análisis de diseño de productos o construcción y arquitectura.
En el campo de la salud, VR ha contribuido en mejoras en el diagnóstico de enfermedades tanto físicas como mentales, capacitación de personal médico, aplicación de la telemedicina, educación del paciente sobre su padecimiento, la gamificación (que traslada la mecánica de los juegos al ámbito educativo-profesional) en terapias de recuperación o rehabilitación. Algo muy importante en VR es que el contenido inmersivo es tan importante como el hardware desde el cual el usuario tiene interacciones. Sin hardware, no existe un “entorno simulado” al que se pueda dar vida.
Para llegar a lo que hoy entendemos con VR, en 1961, se construyó lo que se considera el primer casco de realidad virtual (por los científicos Corneau y Bryan), basado en un sistema de sensores magnéticos, incorporando los elementos de la realidad virtual: aislamiento, libertad de perspectiva y una experiencia sensorial inmersiva. Un año después, Morton Heilig presentó el Sensorama, que reproducía contenido audiovisual. El usuario encajaba la cabeza en un aparato especialmente diseñado para vivir una experiencia tridimensional donde incluso se reproducían olores. Fue un dispositivo mecánico, anterior a la electrónica digital. En 1965, Ivan Shuterland, sentó las bases de un sistema multisensorial basado en un ordenador. En 1968, Shutherland creó el primer casco de VR o head-mounted display (HMD) para su uso en simulaciones inmersivas. Los gráficos que comprendían el entorno virtual en el que se encontraba el usuario consistían en simples habitaciones de modelos renderizadas a partir del algoritmo wireframe (una representación visual de lo que los usuarios verán y con lo que interactuarán). A este dispositivo se le denominaba The Sword of Damocles (el casco era tan grande que necesitaba ser suspendido del techo).
Con el tiempo, se fueron realizando avances, hasta que en los 80 y 90, las empresas de juegos Sega y Nintendo desarrollaron sistemas de juegos de realidad virtual. En 2009, surgieron las gafas Oculus Rift en un proyecto de Palmer Luckey, para desarrollar dispositivos en la industria de los videojuegos. Hasta la década de 2010 las empresas Oculus y HTC Vive introdujeron cascos de realidad virtual de alta calidad, pudiendo aprovechar potentes gráficos y tecnología de seguimiento de movimiento. Recientemente, Apple, con Vision Pro, y Meta, con Oculus Go auriculares, han generado una gran expectación sobre el uso de VR.
En cuanto a los orígenes de AR, en 1974, Myron Kruger, investigador informático y artista, construyó un laboratorio en la Universidad de Connecticut llamado ‘Videoplace’ que estaba enteramente dedicado a la realidad artificial. Dentro de estas paredes, se utilizó tecnología de proyección y cámara para emitir siluetas en pantalla que rodeaban a los usuarios para una experiencia interactiva. Luego, AR fue saliendo de los laboratorios para su uso en diversas industrias y aplicaciones comerciales. En 1990, Tom Caudell, investigador de Boeing, acuña el término “realidad aumentada”. En 1992, Louis Rosenburg, investigador del Armstrong’s Research Lab de USAF, creó “Virtual Fixtures”, que fue uno de los primeros sistemas de realidad aumentada completamente funcionales. El sistema permitió al personal militar controlar virtualmente y guiar la maquinaria para realizar tareas como entrenar a sus pilotos de la Fuerza Aérea de EE. UU. en prácticas de vuelo más seguras.
En 1994, Julie Martin, escritora y productora, llevó la realidad aumentada a la industria del entretenimiento con la producción teatral titulada Dancing in Cyberspace. El espectáculo contó con acróbatas bailando junto a objetos virtuales proyectados en el escenario físico.
En 1998, Sportsvision transmitió el primer juego de la NFL en vivo con el sistema gráfico virtual 1st & Ten, también conocido como el marcador de yardas amarillo. La tecnología mostraba una línea amarilla superpuesta en la parte superior de la transmisión para que se pudiese ver rápidamente hacia dónde avanzó el equipo para obtener un primer intento. En 1999, la NASA creó un sistema híbrido de visión sintética para su nave espacial X-38. El sistema aprovechó la tecnología AR para ayudar a proporcionar una mejor navegación durante los vuelos de prueba.
Desde esos años hasta la actualidad, AR ha sido ampliamente adoptada en diversos ámbitos como entretenimiento, industrial, personal y diseño: la revista Esquire utilizó la realidad aumentada (2009) en los medios impresos por primera vez en un intento de hacer que las páginas cobraran vida. Cuando los lectores escanearon la portada, la revista equipada con realidad aumentada mostraba a Robert Downey Jr. hablando con los lectores. Volkswagen presentó en 2013 la aplicación MARTA (Mobile Augmented Reality Technical Assistance), que principalmente brindaba a los técnicos instrucciones de reparación paso a paso dentro del manual de servicio. Google presentó Google Glass, que es un par de gafas de realidad aumentada para vivir experiencias inmersivas. Los usuarios con tecnología AR se comunicaban con Internet mediante comandos de procesamiento de lenguaje natural, pudiendo acceder a una variedad de aplicaciones como Google Maps, Google+, Gmail y otros. En 2016, Microsoft presenta HoloLens, que son auriculares que corren en Windows 10 y es en esencia un ordenador vestible que permite a los usuarios escanear su entorno y crear sus propias experiencias en AR. En 2017, IKEA lanzó su aplicación de realidad aumentada llamada IKEA Place que cambió la industria minorista para siempre. La aplicación permite a los clientes obtener una vista previa virtual de las opciones de decoración de su hogar antes de realizar una compra.
Similitudes y Diferencias entre AR y VR
Como hemos visto, AR y VR son bastante similares y ofrecen objetos virtuales en la vida real. Sus similitudes pueden resumirse en:
- Pueden mostrar objetos ampliados y de tamaño natural y utilizan los mismos dispositivos.
- Se necesita contenido 3D.
- Se pueden usar en sus ordenadores portátiles, PC, teléfonos inteligentes, etc.
- Existe el seguimiento de movimiento de manos, ojos, dedos y más.
- Se ofrece inmersión.
Sin embargo, hay diferencias que podemos resumir como sigue:
Realidad Aumentada
|
Realidad Virtual
|
Utiliza un escenario del mundo real para colocar un elemento u objeto virtual que se puede ver a través de una lente. AR aumenta la escena del mundo real
|
Todo es completamente virtual, incluso el entorno. VR es un entorno virtual completamente inmersivo
|
Los usuarios pueden controlar sus mentes y su presencia en el mundo real. El usuario puede sentir su propia presencia junto con objetos virtuales.
|
Los sistemas de VR guían a los usuarios en el entorno virtual. Los sentidos visuales están controlados por el sistema. Solo pueden sentirse los objetos, sonidos, etc., de la imagen en su vista
|
El usuario puede acceder a AR en su teléfono inteligente, ordenador portátil o tableta.
|
Para acceder a la realidad virtual, se necesitan auriculares.
|
AR mejora el mundo virtual y real y simplifica su trabajo. En AR, el mundo virtual es 25% y el mundo real es 75%
|
VR mejora la realidad ficticia. En VR, el mundo virtual es 75% y el mundo real es 25%
|
AR requiere mayor ancho de banda, alrededor de 100 Mbps.
|
La realidad virtual puede funcionar a baja velocidad. Se requiere alrededor de 50 Mbps de conexión.
|
Audiencia: para quien requiere agregar virtualidad al mundo real y mejorar tanto el mundo virtual como el real. AR detecta ubicaciones y marcadores de usuarios, así como llamadas al sistema en contenido predefinido. Es parcialmente inmersivo y abierto.
|
Audiencia: para quien necesita reemplazar toda la realidad y mejorar la realidad virtual para muchos propósitos, como juegos, marketing, etc. VR es una secuencia inmersiva de animaciones, URL, vídeos, audio. VR es completamente inmersivo y cerrado
|
En cuanto a las audiencias para las cuales se enfoca cada una, AR es para quien requiere agregar virtualidad al mundo real y mejorar tanto el mundo virtual como el real. AR detecta ubicaciones y marcadores de usuarios, así como llamadas al sistema en contenido predefinido. Es parcialmente inmersivo y abierto. Mientras que la VR es para quien necesita reemplazar toda la realidad y mejorar la realidad virtual para muchos propósitos, como juegos, marketing, etc. considerando que VR es una secuencia inmersiva de animaciones, URL, vídeos, audio. VR es completamente inmersivo y cerrado.
Ejemplos de Aplicaciones de AR y VR
Algunos ejemplos de cómo las organizaciones han adoptado AR son:
- Desarrollo de aplicaciones de traducción. Estas aplicaciones interpretan el texto, que es escaneado, de un idioma a otro.
- En la industria de los juegos, para desarrollar en tiempo real gráficos en 3D.
- Análisis y reconocimiento de un objeto o texto. Ejemplo: con captación de imagen usando Google Lens, la aplicación empezará analizar la imagen y reconocerá de qué se trata. Una vez lo haya hecho, te ofrecerá acciones a realizar que están relacionadas con el tipo de objeto o texto.
- En publicidad e impresión, se utiliza AR para mostrar contenido digital en la parte superior de las revistas.
- En diseño, como habíamos mencionado en el ejemplo de IKEA Place, mediante AR se obtiene una vista previa virtual de las opciones de decoración antes de realizar una compra. Otro ejemplo es YouCam Makeup, una aplicación gratuita que permite diseñar y crear estilos de maquillaje, peinados, retoques de rostro y cuerpo con filtros, tintes, pestañas, entre otros.
VR ha ganado impulso en diversas industrias, como:
- Las Fuerzas Armadas usan tecnología de realidad virtual para entrenar a sus soldados mostrando simulaciones de vuelo y de campo de batalla.
- Los estudiantes de medicina pueden aprender mejor con el escaneo 3D de cada órgano o de todo el cuerpo con la ayuda de la tecnología VR.
- La realidad virtual también se usa para tratar el estrés postraumático, fobias o ansiedad haciendo que los pacientes comprendan la causa real de su enfermedad y en otros escenarios de atención médica.
- Los profesionales utilizan la realidad virtual para medir el rendimiento de un deportista y analizar técnicas con el dispositivo de entrenamiento digital.
- Dispositivos basados en realidad virtual (Oculus Rift, HTC Vive, google cartoon, etc.) ayudan a los usuarios a imaginar un entorno que no existe exactamente, como una experiencia inmersiva en el mundo de los dinosaurios.
- Desde la fabricación y el embalaje hasta el diseño de interiores, las empresas pueden utilizar la realidad virtual para ofrecer a los consumidores una demostración del producto y comprender mejor lo que implica fabricarlo. Un ejemplo es Lowe’s Holoroom, mediante el cual los clientes pueden seleccionar artículos de decoración del hogar, electrodomésticos, gabinetes y diseños de habitaciones para ver el resultado final.
- La gamificación se puede implementar para involucrar tanto a los clientes como a los empleados, impulsando la inspiración, la colaboración e interacciones. Por ejemplo, en la banca personal se puede ofrecer a los clientes leales algunos beneficios o recompensas.
- En la experiencia cercana de un producto en particular, VR permite resaltar sus características más exclusivas y al mismo tiempo brindar la oportunidad de experimentar su uso. El fabricante de vehículos Volvo utilizó tecnología de realidad virtual implementada para ayudar a los clientes que no tenían fácil acceso a sus concesionarios para probar sus automóviles. Esta experiencia se proporcionó mediante el uso de los auriculares Google Cardboard VR.
Uso de AR en Dispositivos Móviles
En un inicio, parecía que AR se destinaría sólo a aplicaciones militares o juegos, pero hoy vemos que juegan un rol importante en la innovación en el mercado móvil, permitiendo a los usuarios de teléfonos y tablets inteligentes interactuar virtualmente con su entorno gracias a un mayor ancho de banda y mejor conectividad. En palabras de Mark Donovan, analista de ComScore, “…La idea de que un dispositivo móvil sepa dónde estoy y pueda acceder, manipular y superponer esa información en imágenes reales que están justo frente a mí realmente hace fluir mis jugos de ciencia ficción… Esto recién está comenzando y probablemente será una de las tendencias móviles más interesantes en los próximos años”.
Un factor importante en el mercado móvil es el GPS y las tecnologías basadas en la ubicación, que permiten a los usuarios rastrear y encontrar amigos mientras viajan o “registrarse” en ubicaciones particulares. Esa información se almacena y comparte con otros a través de la nube de Internet y puede usarse para que los especialistas en marketing pueden usarla para dar a conocer promociones o descuentos especiales, o una ciudad que promueve sus sitios de interés podría incrustar en la pantalla hechos y sobre el vecindario y las personas que vivían allí. Otros visitantes podrían dejar comentarios virtuales sobre el recorrido. En la educación, los estudiantes de biología, por ejemplo, podrían utilizar una aplicación de realidad aumentada y un teléfono inteligente para obtener información adicional sobre lo que ven mientras diseccionan una rana.
La forma en que los teléfonos inteligentes están impulsando el uso de AR, Qualcomm mostró recientemente la tecnología de realidad aumentada en sus dispositivos. Los procesadores Snapdragon de Qualcomm y un nuevo kit de desarrollo de software para teléfonos inteligentes Android han sido diseñados para proporcionar la base necesaria en la construcción y uso de tecnología de realidad aumentada en teléfonos móviles. Con Mattel, fabricante de juguetes, colaboró en la actualización virtual de un juego clásico llamado Rock ‘Em Sock ‘Em Robots. Utilizando la tecnología de Qualcomm y la cámara integrada del teléfono inteligente, los jugadores podían ver robots virtuales superpuestos en las pantallas de sus teléfonos inteligentes. Los robots aparecieron en el ring, que era un trozo de papel impreso con la imagen estática del ring y sus cuerdas. Los jugadores usaban los botones de sus teléfonos para lanzar golpes y sus robots se movían alrededor del ring mientras los jugadores rodeaban físicamente la mesa donde estaba colocada la imagen del ring. La compañía también ve el potencial en marketing, como ejemplo menciona la inserción de cupones animados encima de imágenes reales de sus productos en las tiendas, para que, cuando los consumidores pasen junto a una caja de cereales, por ejemplo, en el supermercado y miren la pantalla de su teléfono, puedan obtener un descuento instantáneo.
Ahora bien, ¿qué se necesita para la AR en dispositivos móviles? Se necesita un dispositivo de captura de la imagen real, un software que esté simultáneamente transcribiendo esta información y los elementos virtuales que van a transformar esa realidad. También existen diferentes tipologías de realidad aumentada: la que se transcribe a través de una geolocalización y la que se basa en marcadores:
- Proyección de la RA: se proyecta luz artificial sobre superficies del mundo real. Las aplicaciones de realidad aumentada, además, pueden detectar la interacción táctil de esta luz proyectada. De esta manera, la interacción del usuario se detecta por una proyección alterada sobre la proyección esperada.
- Superposición de la RA: antes de la superposición, la aplicación debe reconocer qué elemento tiene que reemplazar. Una vez conseguido, se superpone parcial o totalmente un objeto.
- Marcadores de RA: mediante una cámara o un marcador visual (un QR, por ejemplo), se distingue un marcador de cualquier otro objeto del mundo real. De este modo, la información se superpone al marcador.
- Geolocalización de RA: se basa en la geolocalización que emite el teléfono inteligente a través del GPS para conocer su posición y ubicación.
- Dispositivos para la RA: en RA es necesario contar con sensores y cámaras. El proyector, generalmente muy pequeño, permite proyectar la realidad en cualquier espacio sin necesidad de usar un teléfono móvil o una tableta para interactuar. Las gafas o los espejos también utilizan la realidad aumentada.
También tenemos 2 tipos de sensores:
- Sensores usados para Trazado (tracking): se encargan de conocer la posición del mundo real, de los usuarios y cualquier dispositivo de la solución. De esta forma se puede conseguir esa sincronización o registro entre mundo real y virtual que comentamos al dar la definición de realidad aumentada. A su vez, estos sensores los clasifica en:
- Cámara (visión por ordenador): quizá una de las tecnologías más importantes. Están también los ‘fiducial markers’, es decir, marcas en el entorno que permiten al sistema de visión y a la solución en su conjunto, no sólo observar lo que existe y su movimiento, sino también situarlo espacialmente.
- Posicionamiento (GPS): una tecnología no muy específica de la realidad aumentada pero que también sirve en ocasiones para el posicionamiento espacial.
- Giróscopos, acelerómetros, brújulas y otros: que permiten apreciar la orientación (giróscopos), dirección (brújulas) y aceleración (acelerómetros). Muchos de estos sensores vienen ya incorporados, por ejemplo, en móviles y tablets.
- Sensores para recoger información del ambiente: humedad, temperatura y otra información atmosférica. Otro tipo de informaciones posibles son el pH, tensión eléctrica, radiofrecuencia, etc.
- Sensores para recoger entradas del usuario: son dispositivos bastante comunes como botones, pantallas táctiles, teclados, etc.
Influencias cinematográficas en la percepción pública sobre VR y AR
Sin duda alguna, el cine ha sido uno de los factores que han influido en la percepción sobre la Realidad Virtual y la Realidad Aumentada. Como ejemplo, tenemos estas películas reconocidas donde estas tecnologías tuvieron un rol protagónico:
- Iron Man: Esta película es un gran ejemplo de cómo las fuerzas militares pueden utilizar la tecnología en el campo utilizando información alimentada por un ordenador central.
- Viven (They Live): es la historia de un vagabundo que descubre un par de gafas que le permiten ver la realidad de que los extraterrestres se han apoderado de la Tierra. Todo el concepto de ponerse gafas para ver lo que otros no pueden es la gran idea detrás de la AR.
- Minority Report: película futurista de ciencia ficción ambientada en 2054, cargada con tecnología AR de principio a fin. Desde la interfaz del ordenador que aparece en el aire hasta la interacción con un tablero computerizado en 3D y los anuncios que ofrecen lo que el usuario gustaría tener.
- Avatar: el personaje principal, Jake Sulley, se halla en un enorme dispositivo AR que permite a su anfitrión experimentar un nivel completamente diferente de percepción sensorial.
- Robocop: el oficial de Detroit Alex Murphy se convirtió en Robocop. Su casco está conectado con la tecnología de realidad aumentada más avanzada que le permite seguir cumpliendo su papel como oficial de policía, aunque a un nivel más impresionante.
- Wall-e: película futurista animada en 3D. Esta película de alguna manera hizo una declaración sutil de que la tecnología AR no es solo para uso exclusivo de las fuerzas del orden.
- Top Gun: los HUD que se encuentran en las cabinas de los F-14 Tomcats utilizados en la película son la verdadera razón por la que se les llama HUD. Estas cosas permitieron a los pilotos mantener la cabeza en alto en el fragor de la acción y no mirar sus paneles de instrumentos.
- Tron/Tron: Legacy: Estas dos películas profundizan en lo que podría suceder si te metieran inesperadamente en un videojuego. Aunque para muchos jugadores apasionados pueda parecer un sueño hecho realidad, las películas demuestran rápidamente que no está exento de inconvenientes.
- Virtuosity: esta película plantea lo que podría suceder si un personaje de realidad virtual fuera colocado en nuestra realidad. Existe una simulación de realidad virtual construida combinando los personajes de múltiples asesinos en serie que se abre paso en la realidad.
- Matrix: examina un mundo dominado por máquinas creadas por humanos, combinando secuencias de acción con efectos especiales innovadores. A diferencia de Skynet en la trilogía Terminator, cuyo objetivo era aniquilar a la humanidad, la inteligencia artificial en Matrix ha descubierto un propósito más útil para nuestra especie: la energía. Las máquinas hacen esto absorbiendo energía de los cuerpos mientras mantienen a las personas entretenidas en un reino de realidad virtual conocido como Matrix.
- Gamer: en la película, los usuarios controlan a convictos condenados a muerte en la vida real en el juego de Internet Slayers. Gerard Butler interpreta a uno de estos convictos y, para lograr su liberación, debe sobrevivir al juego con la ayuda de la persona que lo controla. Es una experiencia intensa y visceral que explora la frontera entre la violencia virtual y la genuina.
- Ender’s game: retrata una sociedad donde los niños son educados para ser soldados militares mediante simulaciones de realidad virtual. Es un concepto deprimente contrarrestado con imágenes vívidas y extremadamente hermosas, particularmente en los paisajes recreados.
- Ready Player One: narra cómo la realidad virtual ha cambiado las convenciones culturales gracias a una nueva tecnología llamada Oasis. Aunque comenzó como una plataforma de videojuegos, Oasis se ha expandido hasta convertirse en una forma de vida. La gente trabaja en el Oasis, los niños van a la escuela allí y las empresas intentan monetizar cada centímetro cuadrado del Oasis. En el juego, el ganador recibe las enormes riquezas de Halliday, así como la propiedad del Oasis.
Además de representar el uso de AR y VR, las películas también plantean aspectos de ética y gobierno como en toda tecnología emergente.
Desafíos Tecnológicos y Empresariales
AR y VR son tecnologías que estarán cada vez más presentes en la vida cotidiana de las personas y en el quehacer de las empresas. Desde luego, existen desafíos que las organizaciones deben considerar al momento de adoptarlas:
- Expectativas excesivas: a menudo se especula que es posible ejecutar en ambientes virtuales absolutamente todas las acciones que se pueden realizar en la realidad. Es importante efectuar todos los procedimientos necesarios para que exista coherencia entre el mundo virtual y el real.
- Desarrollo específico: considerando que debe realizarse el desarrollo de habilidades en campos específicos y según las necesidades de cada organización, con resultados definidos desde su diseño en el modelo del negocio y donde se genere un impacto positivo para la organización.
- Recursos limitados: comprensión de las limitaciones actuales en el desarrollo de mejores apps y objetos de aprendizaje con AR y VR, desde el equipamiento, el software y hardware necesarios, y el talento humano que pueda desarrollar y soportar las aplicaciones.
- Brecha tecnológica: reducción de la brecha educativo-digital entre instituciones, regiones y sectores sociales con acceso a la tecnología de AR y de VR y aquellas que aún no tienen las mismas oportunidades ni capacidades tecnológicas.
- Curva de Aprendizaje: desde el primer modelo de negocio donde se planea integrar AR y VR y la cultura organizacional que permita el desarrollo consistente y continuo de estas tecnologías.
- Aspectos transdisciplinarios: AR y VR implican aspectos transdisciplinarios desde diversas áreas del conocimiento y áreas del negocio: tecnologías de información, mercadotecnia, ventas, operaciones, recursos humanos, etc.
- Cambio acelerado: la tecnología es muy ágil y el cambio de los dispositivos electrónicos que le dan vida a este tipo de herramientas se actualiza a una velocidad acelerada, que detonan desafíos en inversiones en tecnologías que la soporten y en el talento humano que conozca estas tecnologías y que puedan implementarlas.
Otro aspecto importante en la realidad de muchos países es que los requisitos de ancho de banda y baja latencia para estas tecnologías que consumen recursos multimedia están a un nivel insuficiente, además de que las redes actuales a menudo no pueden soportar transmisiones AR y VR en alta calidad, realizar la transmisión de datos de alta velocidad, conexión estable que elimine las fluctuaciones y ofrezca una experiencia sin inconvenientes.
Futuro de la Realidad Aumentada y Virtual
Aun cuando AR y VR siguen siendo tecnologías emergentes, en un futuro se prevé tecnología más rápida, liviana y asequible. Por un lado, los avances en la tecnología de los teléfonos inteligentes (con mejores cámaras y procesadores) significarán que se podrá disfrutar de experiencias AR y VR más innovadora. También el avance en las redes inalámbricas 5G permitirán disfrutar de estas tecnologías desde cualquier lugar del mundo.
Aunque esta alta tecnología se asocia con la ciencia ficción y la industria del juego, la Realidad Virtual tiene el potencial de revolucionar varias industrias, especialmente cuando buscan formas innovadoras de aumentar su productividad, mejorar procesos y, a medida que la lejanía gana terreno, las posibilidades de la realidad virtual ayudan a lograr objetivos.
Para VR, se prevé el desarrollo de procesadores más poderosos como Oculus Quest de Meta y los auriculares 8KVR/AR de Apple. En la medida que los dispositivos sean más robustos en funcionalidad y ligeros en su uso, la adopción de esta tecnología jugará un rol importante en la creación de experiencias más inmersivas e intuitivas en todos los campos.
También Podemos mencionar algunas predicciones y mejoras en ciernes:
- LiDAR traerá creaciones AR más realistas a nuestros teléfonos. iPhone 12 y iPad Pro ahora están equipados con tecnología LiDAR LiDAR (Light Detection and Ranging) se utiliza esencialmente para crear un mapa 3D del entorno, lo que puede mejorar seriamente las capacidades AR de un dispositivo. Además, proporciona una sensación de profundidad a las creaciones de RA, en lugar de un gráfico plano.
- Los cascos de VR serán más pequeños, livianos e incorporarán más funciones. La detección de manos y el seguimiento ocular son dos ejemplos destacados de la tecnología incorporada en los cascos de realidad virtual. Debido a que la detección de manos permite a los usuarios de realidad virtual controlar los movimientos sin controladores torpes, los usuarios pueden ser más expresivos en la realidad virtual y conectarse con su juego o experiencia de realidad virtual en un nivel más profundo. Y la inclusión de la tecnología de seguimiento ocular permite que el sistema enfoque la mejor resolución y calidad de imagen solo en las partes de la imagen que el usuario está mirando (exactamente como lo hace el ojo humano). Se reduce el retraso (delay) y el riesgo de náuseas.
- Existirán nuevos accesorios XR para profundizar aún más la experiencia. La startup Ekto VR ha creado botas robóticas que brindan la sensación de caminar, para adaptarse al movimiento en los auriculares, aunque en realidad esté parado. Los discos giratorios en la parte inferior de las botas se mueven para coincidir con la dirección de los movimientos del usuario. En el futuro, accesorios como este podrán considerarse una parte normal de la experiencia de realidad virtual.
- Incluso tendremos trajes hápticos (del tacto) de cuerpo completo. Existen ya los guantes hápticos que simulan la sensación del tacto mediante vibraciones. Se plantea el traje de cuerpo entero como el TESLASUIT, que hoy no son asequibles para la mayoría de los usuarios de realidad virtual. Con el tiempo podrían reducir su costo que a su vez aumentarán su adopción.
Según las empresas encuestadas por PWC en 2022, los alumnos de realidad virtual absorben conocimientos cuatro veces más rápido que los alumnos en el aula y tienen un 275%más de confianza cuando se trata de aplicar en el mundo real las habilidades que aprendieron durante la capacitación.
En el campo laboral, el trabajo remoto es más popular que nunca, pero todavía hay aspectos de interacciones cara a cara que son difíciles de replicar. Como resultado, las herramientas de trabajo colaborativo de realidad mixta aprovecharán cada vez más la realidad virtual y la realidad aumentada para capturar y expresar los aspectos más sutiles de la interacción que no se traducen en las videollamadas.
En el comercio, que la realidad virtual y la realidad aumentada se convertirán con mayor frecuencia en parte del proceso de marketing y ventas. Las marcas invertirán en la creación de entornos virtuales donde puedan interactuar con los compradores para ayudarlos a resolver sus problemas, animándoles a dar el salto de ser clientes a ser fieles seguidores.
En la salud, desde el uso de AR para mejorar la terapia del cáncer de hígado hasta la creación de simulaciones de cirugías en realidad virtual, los sistemas de atención médica están utilizando estas tecnologías en una variedad de aplicaciones. El desarrollo continúa, debido en gran parte a la creciente demanda impulsada por más conectividad, costos en dispositivos que irán reduciéndose y la necesidad de reducir costos y riesgos en intervenciones.
Según Forbes, se estima que las inversiones mundiales en realidad aumentada crecerá de $62,75 mil millones de dólares en 2023 a $1,109,71 mil millones de dólares para 2030, a una tasa compuesta anual del 50,7%. Para la realidad virtual, Forbes estimó que las inversiones mundiales en realidad virtual (VR) alcanzaron los 59,96 mil millones de dólares en 2022 y se espera que crezcan a una tasa de crecimiento anual compuesta (CAGR) del 27,5% de 2023 a 2030. Sin duda alguna, el crecimiento a doble dígito deja claro que las organizaciones deben plantearse cómo abordar estas tecnologías emergentes para lograr resultados del negocio.
Conclusión
AR y VR son tecnologías que deben revisarse en la estrategia de Transformación Digital de las organizaciones, por las ventajas que representan, desde la visualización para los clientes sobre características destacadas de productos, la factibilidad de un proyecto o diseño; guías prácticas sobre uso de productos, demostraciones, publicidad o promociones; la formación y desarrollo de habilidades del personal sobre nuevos equipos o protocolos de seguridad mediante VR motivando el aprendizaje interactivo; la realización de reuniones o eventos virtuales que simulen la verdadera presencia de cliente y colegas; visitas virtuales a instalaciones, comercios, instituciones educativas, museos, etc.; hasta la mejor atención al cliente, con un mejor acercamiento ahorrando tiempo y recursos.
Desde luego, el uso de la realidad aumentada y la realidad virtual depende de las capacidades internas, del presupuesto y de los objetivos de la organización. Aunque ya existen en el mercado muchas aplicaciones que utilizan la realidad aumentada, la tecnología aún no se ha generalizado; sin embargo, a medida que los dispositivos, procesadores y software agreguen más potencia y sofisticación, el nivel de información que se puede agregar aumentará. AR y VR pueden ayudar a mejorar la capacidad de toma de decisiones, la comunicación y la comprensión al experimentar un escenario que es artificial pero que parece y se siente natural. Como hemos visto a lo largo de este artículo, la AR y VR tienen muchas aplicaciones en las industrias del entretenimiento, militar, de ingeniería, médica, industrial, entre otras. Una recomendación, para obtener mejores resultados es combinar ambas tecnologías haciendo un análisis de cada caso de uso sobre la adaptabilidad, la productividad, el tiempo de comercialización, el retorno de inversión y los resultados esperados. También se recomienda acercarse a un socio de tecnología de información que tenga la experiencia en su industria y comprenda sus desafíos.
por Olivia Díaz | Last updated Feb 23, 2024 | Pandora FMS
Para comprender qué es un Análisis de Causa Raíz (Root Cause Analysis o RCA), debemos partir de que una causa raíz es un factor que causó una no conformidad y debe eliminarse mediante la mejora de procesos. La causa raíz es la cuestión central y la causa de más alto nivel que pone en marcha toda la reacción de causa y efecto que, en última instancia, conduce al problema.
Situaciones que requieren análisis de raíz
Entendiendo esto, el análisis de causa raíz (Real Cause Analysis o RCA) describe una amplia gama de enfoques, herramientas y técnicas utilizadas para descubrir las causas de los problemas. Los enfoques de RCA pueden estar orientados a identificar las verdaderas causas fundamentales, algunos son técnicas generales para la resolución de problemas y otros ofrecen apoyo para la actividad central del análisis de las causas fundamentales. Algunos ejemplos de situaciones comunes donde el análisis de causa raíz puede ayudar a resolver problemáticas:
- Manufactura: un fabricante de piezas de computadora identificó que sus productos fallaban rápidamente por un fallo en el diseño en uno de los microchips. Después de llevar a cabo un RCA, se desarrolló un nuevo chip eliminando el fallo.
- Seguridad: después de que un paciente sufriera una desafortunada caída mientras estaba dentro de las instalaciones de un hospital, mediante RCA se halló que no llevaba calcetines antideslizantes. Esto llevó a definir cambios en las políticas, incluyendo calcetines antideslizantes para garantizar que todos los pacientes tengan esta nueva medida de seguridad adicional.
- Desarrollo de software: a raíz de las quejas de los clientes sobre un software que fallaba inesperadamente durante su uso, se llevó a cabo un RCA, dejando claro que sí existían errores en el diseño que causaban los fallos. La empresa aplicó nuevos procesos de prueba antes del lanzamiento de cualquier producto, mejorando la satisfacción de los clientes.
- Construcción: el RCA realizado por el retraso en la finalización de un proyecto reveló que los componentes críticos se habían entregado tarde, lo cual derivó en la definición de procesos de adquisiciones más estrictos para garantizar la entrega oportuna.
- Comercio: en una tienda minorista se observó que sus estantes estaban frecuentemente vacíos. Al realizar un RCA se descubrió que el proceso de pedidos de la tienda era inadecuado, provocando retrasos en los pedidos. Se tomó la decisión de que la tienda implementara un nuevo proceso de pedidos para evitar retrasos y mantener los estantes completamente abastecidos.
- Alimentos: un restaurante experimentaba frecuentes problemas de seguridad alimentaria. Mediante RCA se descubrió que los empleados no estaban capacitados en los procedimientos de seguridad alimentaria. El restaurante implementó la capacitación y la supervisión adicionales para garantizar el cumplimiento de las normas de seguridad alimentaria y prevenir problemas futuros.
Los enfoques más comunes para el análisis de causa raíz incluyen los cinco porqués, los diagramas de espina de pescado, el análisis de árbol de fallos (FTA), el mapeo de causa raíz y el análisis de Pareto. Más adelante veremos cada uno de estos enfoques:
¿Qué es el Análisis de Raíz?
De acuerdo con Techopedia, el análisis de causa raíz (RCA) es un método de resolución de problemas que se utiliza para identificar la causa exacta de un problema o evento. La causa raíz es la causa real de un problema específico o un conjunto de problemas. Al eliminar la causa se evita que se produzca el efecto indeseable final. Esta definición deja claro que RCA es un método reactivo, a diferencia de preventivo, ya que se aplicará sólo después de que ha ocurrido un problema para buscar su causa y evitar que vuelva a ocurrir.
La importancia de RCA para abordar las causas subyacentes radica en que es un análisis basado en procesos y procedimiento, que ayudan a guiar al analista de problemáticas o tomador de decisiones para descubrir y comprender las causas reales de los problemas y, por lo tanto, llegar a una solución práctica que prevenga la recurrencia de dicho problema.
Objetivos y Beneficios del Análisis de Raíz
RCA tiene por objetivo identificar la fuente original de un problema para evitar que vuelva a presentarse. Al abordar la causa principal, también es posible implementar acciones y medidas preventivas apropiadas. Aun cuando el acercamiento de RCA se basa en una reacción (se analiza la causa a partir de un problema que ya se presentó), existen beneficios importantes:
- Descubrimiento de causas y reacción más inmediata: RCA le permite intervenir rápidamente para solucionar un problema y evitar que cause daños generalizados. El proceso de toma de decisiones también debería mejorarse y ser más oportuno.
- Comprensión para soluciones efectivas: RCA detalla por qué ocurrió un problema y comprender los pasos involucrados en el problema. Cuantos más detalles se obtienen sobre la problemática, más fácil será comprender y comunicar por qué ocurrió el problema y trabajar en equipo para desarrollar soluciones.
- Aplicación del aprendizaje para prevenir problemas futuros: al realizar un RCA y tomar las medidas necesarias para evitar que vuelvan a ocurrir los problemas, es posible también desarrollar una mentalidad enfocada a hallar problemas en forma más proactiva.
Principios Esenciales del Análisis de Raíz
Para implementar un RCA, deben considerarse sus principios esenciales para asegurar la calidad del análisis y, lo más importante, generar confianza y aceptación del analista por parte de los interesados (proveedores, clientes, socios de negocios, pacientes, etc.) para emprender acciones específicas para eliminar y prevenir problemas. Los principios básicos de RCA son los siguientes:
- Enfoque en corregir causas, no solo síntomas, el foco es corregir y remediar las causas de raíz en lugar de sólo los síntomas.
- Importancia de tratar síntomas a corto plazo evita ignorar la importancia de tratar los síntomas de un problema para lograr un alivio a corto plazo.
- Reconocimiento de la posibilidad de múltiples causas para un mismo problema, tener en cuenta que podría haber múltiples causas raíz.
- Enfocarse en el “cómo” y “por qué”, no en el “quién”, se debe concentrar en cómo y por qué sucedió una problemática, no empeñarse en buscar a un responsable.
- Metodicidad y búsqueda de evidencia concreta para llevar a cabo un RCA se debe ser metódico y encontrar evidencias concretas de causa y efecto para respaldar las afirmaciones de causa raíz.
También se recomienda proporcionar suficiente información para definir un curso de acción correctivo y buscar cómo esta información también contribuya a la prevención de una problemática a futuro.
Por último, se recomienda siempre un enfoque integral y contextualizado, considerando que en una problemática pueden estar involucrados sistemas interdependientes.
Cómo Realizar un Análisis de Raíz Eficaz: Técnicas y Métodos
Para llevar a cabo un RCA, existen cuatro pasos esenciales:
- Identificar el problema/evento: es crucial identificar el problema o evento en cuestión e involucrar a todas las partes interesadas relevantes para comprender claramente el alcance y su impacto.
- Recopilar datos: incluye revisar la documentación, entrevistar a los involucrados en la situación, observar los procesos y analizar la información disponible para poder desarrollar una visión integral del problema o evento.
- Identificar la causa(s) raíz: aquí se utilizan varias herramientas, como la metodología de los cinco porqués, los diagramas de espina de pescado, análisis de cambio y el análisis de Pareto, para analizar los datos recopilados antes de idear las soluciones que aborden cada factor identificado. Esto podría incluir cambios/actualizaciones de procesos, capacitación del personal o la introducción de nuevas tecnologías.
- Desarrollar e implementar soluciones: monitorear la efectividad de las estrategias elegidas a lo largo del tiempo, pudiendo ajustarlas cuando sea necesario en el caso de que problemas similares vuelvan a surgir más adelante.
-
Los 5 ¿por qué?
Es la primera y más popular técnica de RCA. Este método consiste en preguntar “por qué” cinco veces hasta que se revela la causa subyacente de un problema. Se logra encontrar respuestas detalladas a las preguntas que surgen. Las respuestas se vuelven cada vez más claras y concisas. El último “por qué” debe conducir al proceso que haya fallado. Ejemplo: si una empresa de fabricación tiene muchos defectos en sus productos, entonces, mediante un análisis de cinco porqués, se podría determinar que no se ha asignado ningún presupuesto porque la dirección no lo hizo.
-
Consiste en analizar los cambios que conducen a un evento por un período de tiempo más largo y se obtiene un contexto histórico. Se recomienda este método cuando se trabaja con varias causas potenciales. Para ello, se debe:
- Hacer una lista de todas las causas potenciales que condujeron a un evento y por cada vez que se produjo un cambio.
- Se clasifica cada cambio o evento según su influencia o impacto (interno o externo, provocado o no provocado).
- Se revisa cada evento y se decide si era un factor no relacionado, correlacionado, contribuyente o causa raíz probable. Aquí se puede usar otras técnicas como los 5 porqués.
- Se observa cómo se puede replicar o remediar la causa raíz.
-
Diagrama de Espina de Pescado (Ishikawa)
Estos pueden identificar las causas principales dividiéndolas en categorías o subcausas. Por ejemplo, en los casos en los que la satisfacción del cliente en los restaurantes es baja debido a la calidad del servicio, se tiene en cuenta la calidad de la comida, el ambiente, la ubicación, etc. Estas subramas se utilizan posteriormente para analizar el principal motivo de insatisfacción del cliente. Ejemplo:

Como puede verse, el diagrama fomenta la lluvia de ideas siguiendo caminos ramificados, que se asemeja al esqueleto de un pez, hasta ver las posibles causas y tener visualmente claro cómo la solución alteraría el escenario. Para construir el Diagrama Ishikawa, en la cabeza se sitúa el problema fundamental. Después de plantear el problema fundamental, se trazan las espinas del pez. La columna vertebral será el vínculo entre las categorías de causas y el problema fundamental. La categorías comunes para este diagrama son:
- Personas involucradas en el proceso.
- Método o cómo se diseñó el trabajo.
- Máquinas y equipo utilizado en el proceso.
- Materiales y materias primas utilizadas.
- Medio ambiente o factores causales.
En las espinas, adheridas a la columna, se incluyen las categorías o grupos de causa. También se pueden unir más espinas (subcausas) a las espinas del nivel superior, y así sucesivamente. Esto hace que se visualice la relación causa-efecto.
-
Una técnica que puede ayudar a seleccionar la mejor solución para un problema cuando hay muchas soluciones potenciales, sobre todo cuando los recursos disponibles son limitados. El análisis de Pareto se deriva de la regla 80/20, que establece que el 80% de los resultados de un evento son producto del 20% de las contribuciones. Esta técnica permite a los usuarios separar una serie de factores de entrada que probablemente impongan el mayor impacto en el efecto o resultado. Entonces, si el resultado es positivo, los individuos o empresas deciden continuar con los factores. Por el contrario, los usuarios eliminan esos factores de su plan de acción si el efecto parece ser negativo.
Consejos para un Análisis de Raíz Efectivo
Para implementar un RCA, el primer paso consiste en determinar un único problema para ser discutido y evaluado. A partir de ahí, se deben seguir estos pasos para un RCA efectivo:
- Establecer el planteamiento del problema formulando preguntas clave, tales como ¿qué está mal?, ¿cuáles son los síntomas?
- Entender el problema: apoyándose en diagramas de flujo, de araña o una matriz de desempeño, trabajando en equipo y aceptando diversas perspectivas.
- Dibujar un mapa mental de la causa del problema para organizar pensamientos o análisis.
- Recopilar datos sobre el problema apoyándose en listas de verificación, muestreo, etc.
- Analizar los datos usando histogramas, diagramas de Pareto, gráficos de dispersión o diagramas de afinidad.
- Identificar la causa raíz mediante un diagrama de causa y efecto (como el diagramas de espina de pescado), los cinco porqués o análisis de sucesos.
- Definir plazos y eliminar la causa raíz.
- Implementar una solución.
Se recomienda la planificación de análisis de raíz futuros, teniendo presente los procesos, tomando notas constantemente e identificando si una técnica o un método determinados funciona mejor para las necesidades de la organización y los entornos específicos del negocio.
También se recomienda hacer un análisis de raíz en los casos de éxito. RCA es una herramienta valiosa para hallar también la causa de un resultado exitoso, la superación de objetivos trazados inicialmente o la entrega anticipada de un producto y más adelante poder replicar la fórmula del éxito. De manera que RCA también ayuda a priorizar y proteger factores clave en forma proactiva.
Como último paso, se recomienda supervisar la solución, para detectar si la solución ha funcionado o si deben realizarse ajustes.
Conclusiones
Sin duda alguna, RCA es una herramienta valiosa para identificar la fuente original de un problema que puede ser crítico para la organización y reaccionar con rapidez y eficacia, además de evitar también que vuelva a surgir la misma problemática. Más allá de un acercamiento reactivo, RCA puede ayudar a las organizaciones a implementar acciones y medidas preventivas, e incluso puede también mapear el éxito (análisis de raíz en casos de éxito) para poder replicar en un futuro los mismos factores clave que hayan conducido a la satisfacción del cliente, el logro de niveles de calidad adecuados o la entrega a tiempo de un producto.
Algo también muy importante es que RCA permite mejorar la comunicación dentro de la organización, detallando el por qué surgió un problema y qué pasos seguir para resolverlo en forma objetiva. Cuantos más detalles se tengan del contexto, existe la posibilidad de involucrar a las personas adecuadas con cursos de acción claros, con decisiones sustentadas y bien informadas.
Desde luego, existen diversas herramientas de análisis causa raíz para evaluar los datos, cada una evalúa la información con una perspectiva diferente. También, para entender un problema, hay que aceptar diversos puntos de vista y trabajar en equipo para alcanzar los beneficios de RCA.
por Ahinóam Rodríguez | Last updated Jan 29, 2025 | Control Remoto
En este artículo, abordaremos a fondo el RMM Software (Software de Monitoreo y Gestión Remota) y su papel esencial para los Proveedores de Servicios Gestionados (MSP). Explicaremos las funciones centrales del RMM, desde el monitoreo remoto hasta la gestión eficiente de dispositivos clientes, destacando sus beneficios clave como la reducción de costos laborales y la mejora de la productividad. Analizaremos la integración estratégica de RMM y PSA (Automatización de Servicios Profesionales) para potenciar los flujos de trabajo de los MSP y ofreceremos una visión del futuro, respaldada por estadísticas prometedoras. Concluimos resaltando la importancia continua del RMM en el panorama tecnológico y alentando a los MSP a considerar su implementación para optimizar la eficiencia y el éxito en la entrega de servicios gestionados.
¿Qué es el software RMM?
En el pasado todas las empresas, independientemente de su tamaño, utilizaban infraestructuras TI locales. Cuando se presentaba un problema contactaban con su proveedor de servicios y un equipo técnico acudía a las oficinas para solucionarlo. Sin embargo, el panorama cambió por completo con el desarrollo de la tecnología Cloud. La posibilidad de acceder a los datos y recursos informáticos desde cualquier lugar fue reduciendo poco a poco la dependencia de las infraestructuras TI centralizadas. El salto definitivo se produjo con la llegada del teletrabajo y del trabajo híbrido. Las organizaciones que apuestan por un marco laboral flexible tienen sus sistemas distribuidos en ubicaciones muy diversas, a menudo fuera de la red corporativa tradicional.
Por otro lado, cada departamento dentro de la empresa cuenta con necesidades tecnológicas específicas que se van adaptando con rapidez a los cambios del mercado. Gestionar todas estas aplicaciones de forma manual resultaría muy complejo, costoso y podría dar lugar a errores humanos que ponen en riesgo la seguridad.
Está claro que para abordar estos desafíos tenían que surgir herramientas novedosas como el software RMM (Remote Monitoring and Management) que permite a las empresas mantener un control efectivo de todos sus activos TI, incluso en entornos distribuidos.
¿Cómo contribuye el software RMM a la transformación digital de las empresas?
Como acabamos de mencionar, el software RMM se ha convertido en una pieza clave para asegurar la transición hacia entornos de infraestructura descentralizada y dinámica, sin descuidar los aspectos esenciales.
Gracias a esta tecnología los profesionales TI pueden supervisar y gestionar de forma remota toda la infraestructura de una empresa, monitorear en tiempo real el rendimiento de los dispositivos IoT conectados a la red, identificar posibles amenazas o actividades anómalas y aplicar medidas correctivas.
Si bien las herramientas de gestión remota surgieron en la década de los 90, en sus inicios tenían funcionalidades limitadas y eran difíciles de implementar.
Los primeros RMM ofrecían una supervisión básica y se instalaban en cada equipo de manera individual. Luego el sistema central analizaba los datos y creaba informes o alertas sobre eventos críticos.
En cambio, el software RMM actual adopta un enfoque más integral y permite una gestión unificada y completa de la infraestructura tecnológica de la empresa ya que extrae la información de todo el entorno TI en lugar de hacerlo de cada dispositivo de manera aislada. Además, es compatible con instalaciones locales y en la nube.
Finalmente, otra contribución clave de las herramientas RMM para la digitalización consiste en pasar de un modelo de mantenimiento reactivo a un modelo de mantenimiento preventivo. Las soluciones de acceso remoto permiten a los equipos técnicos monitorear de forma proactiva los procesos de software, sistemas operativos y subprocesos de red, y abordar los posibles problemas antes de que se conviertan en situaciones críticas.
Una herramienta clave para los MSP
Un Proveedor de Servicios Administrados (MSP) es una empresa que brinda servicios de gestión y soporte tecnológico a otras empresas, desde la administración de servidores, a la configuración de redes o la gestión de activos en la nube.
A medida que las organizaciones crecen almacenan más datos y las amenazas cibernéticas también van en aumento. Muchas PYMES deciden contratar los servicios de un proveedor MSP para que se haga cargo de sus infraestructuras, sobre todo si no cuentan con un departamento TI interno que optimice la seguridad y el rendimiento de sus sistemas.
Los MSP utilizan diferentes tecnologías para distribuir sus servicios y una de las más importantes es el software RMM, que les permite supervisar proactivamente las redes y equipos de sus clientes y resolver cualquier incidencia de manera remota sin necesidad de acudir presencialmente a las oficinas.
Según datos del portal Transparency Market Research, el mercado de este tipo de software no ha parado de crecer en los últimos años y se prevé que este crecimiento siga siendo constante por lo menos hasta el año 2030 impulsado por la demanda de los MSP.
¿Cómo funcionan las herramientas RMM para la supervisión remota?
Las herramientas RMM funcionan gracias a un agente que se instala en las estaciones de trabajo, servidores y dispositivos de la compañía. Una vez instalado, se ejecuta en segundo plano y va recopilando información sobre el rendimiento y la seguridad de los sistemas.
El agente RMM monitorea continuamente la actividad de la red (uso de la CPU, memoria, espacio en disco, etc.) y si detecta cualquier anomalía genera automáticamente un ticket con información detallada sobre el problema y lo envía al proveedor MSP. Los tickets se organizan en un panel según su prioridad y se pueden cambiar de estado una vez que han sido resueltos o escalarlos a un nivel superior en los casos más complejos.
Además, las herramientas RMM crean informes periódicos sobre el estado general de los sistemas. Estos informes pueden ser analizados por los equipos técnicos para reforzar la estabilidad de la red.
¿Cómo ayuda el software RMM a mejorar la eficiencia operativa de los MSP?
El software RMM tiene una serie de utilidades prácticas que pueden aprovechar los MSP para elevar la calidad de sus servicios:
- Supervisión y gestión remota
Monitorea el rendimiento de los equipos en tiempo real y permite solucionar problemas de manera remota sin tener que ir al lugar donde se produjo la incidencia. Esto supone un ahorro de tiempo y de los costes asociados al desplazamiento.
Otra ventaja de implementar herramientas RMM es la posibilidad de contratar a los mejores profesionales sin importar su ubicación y abarcar diferentes zonas horarias ofreciendo un soporte 24/7.
- Visibilidad completa de la infraestructura TI
Gracias al software RMM los equipos técnicos pueden realizar un seguimiento de todos los activos TI de sus clientes desde un único panel de control. Por ejemplo, pueden hacer un inventario de todos los dispositivos y servicios en la nube que están activos, o comprobar en una sola vista de panel los tickets que están abiertos y los que están pendientes de resolver.
- Automatización de tareas repetitivas
Las herramientas RMM crean flujos de trabajo automatizados para tareas rutinarias como: instalar/ desinstalar software, transferir archivos, ejecutar scripts, gestionar parches y actualizaciones o realizar copias de seguridad. Esto reduce la carga de trabajo de los equipos TI y minimiza el riesgo de errores humanos.
- Mayor seguridad
El agente RMM envía alertas en tiempo real si se produce un evento crítico. De esta forma, los administradores de la red pueden identificar con mucha rapidez las amenazas de seguridad o problemas que afectan al rendimiento de los equipos.
La monitorización proactiva es fundamental para que los proveedores MSP puedan garantizar un entorno TI estable y seguro para sus clientes. Además, reduce los costos asociados a la reparación de equipos y recuperación de datos.
- Reducir los tiempos de inactividad
La instalación de nuevos programas, actualizaciones y medidas correctivas, se ejecuta en segundo plano sin interferir en la actividad de los usuarios. Esto facilita el cumplimiento de los acuerdos de nivel de servicio (SLA), al solucionar los problemas con la mayor brevedad sin que existan interrupciones prolongadas del servicio.
¿Qué aspectos deben considerar los MSP al elegir un software RMM?
Es importante optar por una solución estable, segura y fácilmente escalable que satisfaga las necesidades de los clientes. Además, lo ideal es que el software RMM elegido se integre fácilmente con otras herramientas para ofrecer una gestión más eficiente y completa.
¡Veamos algunos requisitos básicos!
- Implementación sencilla
Las herramientas RMM deben ser intuitivas para reducir el tiempo y los costes de su puesta en marcha.
- Flexibilidad
A medida que las empresas crecen, también lo hace su infraestructura TI. En el caso de los MSP, un volumen mayor de clientes significa aumentar la capacidad de monitoreo. Por eso es importante elegir una herramienta que sea flexible y escalable. De esta manera, será posible agregar nuevos dispositivos y usuarios sin limitaciones técnicas.
- Estabilidad
Verifica que el software RMM sea estable. Algunas soluciones brindan acceso remoto mediante software de terceros y esto puede afectar al rendimiento de la conexión ya que cada herramienta tiene sus propias características y velocidad de transferencia de datos. Por lo tanto, es mejor seleccionar una plataforma que ofrezca un acceso remoto integrado para optimizar la capacidad de respuesta y evitar interrupciones.
- Compatibilidad con diferentes dispositivos
La herramienta debe estar preparada para monitorear la actividad de una amplia variedad de dispositivos y sistemas informáticos compatibles con protocolos SNMP. Esto incluye, pero no se limita a, servidores, routers, switches, impresoras, cámaras IP, etc.
- Integración sin fisuras con las herramientas PSA
La integración de RMM y PSA mejora el flujo de trabajo de los MSP.
Las herramientas PSA automatizan y gestionan tareas relacionadas con la prestación de servicios profesionales como la facturación, la gestión de tickets, registro de tiempo, etc.
Por ejemplo, los problemas detectados durante la supervisión remota pueden generar tickets de forma automática en el sistema PSA para que los técnicos revisen el historial de incidencias del dispositivo y lleven un seguimiento.
Los tiempos dedicados a aplicar medidas correctivas también pueden ser registrados automáticamente por los PSA, lo que permite una facturación más precisa.
- Seguridad
Asegúrate de que el software RMM que piensas adquirir tenga las licencias adecuadas y cumpla con los estándares de seguridad. Debería proporcionar funciones como cifrado de datos, autenticación multifactor, acceso al sistema a través de VPN o bloqueo de cuentas inactivas.
- Soporte
Por último, antes de decidirte por una solución RMM comprueba que el proveedor ofrezca un buen soporte posterior a la implementación. Revisa las referencias y opiniones de otros clientes para conocer la calidad del servicio y tener la certeza de que estás haciendo una buena inversión.
Conclusión
Las PYMES están cada vez más digitalizadas y dependen de una gran variedad de programas informáticos para realizar sus operaciones diarias. A medida que las empresas migran sus infraestructuras a la nube, los proveedores MSP necesitan soluciones de acceso remoto para llevar una gestión integral de los activos de sus clientes.
Existen diferentes herramientas RMM que permiten supervisar el rendimiento de los sistemas en tiempo real y realizar acciones de soporte y mantenimiento. Una de las más completas es Pandora FMS Command Center, una versión específica de la plataforma Pandora FMS para la monitorización MSP y que ha sido diseñada para trabajar en entornos TI con un volumen alto de dispositivos. Es una solución segura y escalable que ayuda a los proveedores de servicios gestionados a reducir la carga de trabajo y expandir su cartera de clientes.
Además, cuenta con un plan de formación específico para que los equipos TI consigan aprovechar al máximo todas las funciones avanzadas del software.
Muchas empresas que trabajan con Pandora FMS Command Center ya han logrado reducir sus costes operativos entre el 40% y el 70% gracias a la automatización de tareas y a la reducción de incidencias.
Es hora de aumentar la productividad de tu negocio y ofrecerles a tus clientes un servicio excepcional. Contacta con nuestro equipo comercial para pedir un presupuesto o resolver tus dudas sobre nuestra herramienta.
por Pandora FMS team | Dec 28, 2023 | Pandora FMS
En este emocionante recorrido, celebramos los éxitos de nuestro equipo a lo largo de un año increíblemente productivo. Desde resolver 2677 tickets de desarrollo y 2011 tickets de soporte hasta dedicar 5680 horas a proyectos y operaciones, cada métrica representa nuestra dedicación y éxito compartido con nuestros valiosos clientes, quienes son el motor de nuestro crecimiento.
Reforzamos nuestro compromiso con la seguridad al convertirnos en CNA oficial en colaboración con INCIBE (Instituto Nacional de Ciberseguridad de España). Este logro de prestigio coloca a Pandora FMS, Pandora ITSM y Pandora RC como el CNA número 200 a nivel mundial y el tercer CNA en España. El reconocimiento como CNA (Common Vulnerabilities and Exposures Numbering Authority) significa que Pandora FMS ahora forma parte de un selecto grupo de organizaciones que coordinan y gestionan la asignación de CVE (Common Vulnerabilities and Exposures), identificando problemas de seguridad de manera única y colaborando en su resolución.
Durante este año, vivimos una apasionante unificación de marca. Lo que inició como Artica en Pandora FMS ha evolucionado hacia un solo nombre: Pandora FMS. Esta transición refleja nuestra consolidación como una única entidad, reforzando nuestro compromiso con la excelencia y simplificando nuestra identidad.
A nivel global, nos destacamos en eventos clave, desde el Blackhat de Riad hasta Madrid Tech Show. Además, nos expandimos a nuevos mercados, conquistando China, Camerún, Costa de Marfil, Nicaragua y Arabia Saudita.
Hemos evolucionado eHorus a Pandora RC y transformado Integria en Pandora ITSM, fortaleciendo nuestra presencia en el mercado. Inauguramos una nueva plataforma de cursos online y desarrollamos un sistema de documentación multi versión en cuatro idiomas.
Destacamos con orgullo el hito tecnológico del año: la creación del sistema MADE (Motor de Detección de Anomalías de Monitorización), resultado de nuestra colaboración con la Universidad Carlos III de Madrid. Presentado en el Congreso & Expo ASLAN 2023 en Madrid, MADE utiliza Inteligencia Artificial para monitorizar extensas cantidades de datos, adaptándose de manera automática a cada entorno de gestión. Esta innovación marca un cambio radical en la monitorización al eliminar la necesidad de configuración manual de reglas, permitiendo que la adaptación a la dinámica de los datos sea totalmente autónoma.
Este año no solo fue técnico, sino también personal. Desde el menor número de horas presenciales en la oficina en 17 años hasta pequeñas anécdotas personales, cada detalle cuenta.
¡Celebremos juntos el extraordinario esfuerzo y dedicación de todo el equipo en esta nueva etapa como Pandora FMS! ¡Felicidades por un año excepcional, lleno de éxitos en cada paso que hemos dado!
Please accept
marketing cookies to watch this video.
por Sancho Lerena | Last updated Feb 23, 2024 | Pandora FMS

SSH significa “Secure Shell” (o “Shell Seguro” en español). Es un protocolo de red utilizado para acceder y gestionar de forma segura dispositivos y servidores a través de una red no segura. Proporciona una forma certera de autenticación, así como una comunicación cifrada entre dos sistemas, lo que lo hace especialmente útil en entornos donde la seguridad es una preocupación.
SSH se utiliza comúnmente para acceder a servidores remotos a través de una interfaz de línea de comandos, pero también puede ser utilizado para transferir archivos de forma segura (a través de SFTP o SCP). Utiliza técnicas de cifrado para proteger la información transmitida, lo que hace que sea difícil para terceros interceptar o manipular los datos durante la transmisión.
Una de las principales ventajas de SSH es su capacidad para autenticar tanto al cliente como al servidor, lo que ayuda a prevenir ataques de tipo “man in the middle” y otras amenazas de seguridad. SSH reemplaza métodos más antiguos y menos seguros de acceso remoto, como Telnet, que transmite información de manera no cifrada, lo que hace que sea susceptible a la interceptación y el robo de datos.
SSH es un protocolo independiente del sistema operativo, aunque fue concebido para entornos Unix, está presente en sistemas operativos como OSX (Mac) y en las últimas versiones de servidores Microsoft Windows. SSH es, de facto, el estándar de conexión a servidores por línea de comandos.
Utiliza el puerto 22/TCP, pero se puede configurar para escuchar y conectarse por puertos diferentes. De hecho, se considera una buena práctica de seguridad cambiar el puerto por defecto de escucha para evitar ser identificado por herramientas de escaneo remoto.
Un breve repaso a la historia de SSH y OpenSSH
La trayectoria de OpenSSH se remonta al año 1999 y se encuentra estrechamente vinculada con el software original denominado “SSH” (Secure Shell), creado por Tatu Ylönen en 1995. SSH es un protocolo de red que permite la conexión segura y el control remoto de un sistema a través de una interfaz de línea de comandos.
En sus primeros días, SSH era software propietario y aunque estaba disponible de forma gratuita para uso no comercial, requería licencias para su uso en entornos comerciales. Esto llevó a la creación de varias implementaciones de SSH de código abierto para llenar la brecha en términos de accesibilidad y licencias de software.
En este contexto, el proyecto OpenSSH fue iniciado por Markus Friedl, Niels Provos, Theo de Raadt, y Dug Song en diciembre de 1999. La creación de OpenSSH se llevó a cabo en respuesta a una serie de eventos que incluyeron la liberación del código fuente del protocolo SSH por parte de Tatu Ylönen y la preocupación sobre la propiedad y las licencias del software propietario existente.
El objetivo inicial del proyecto OpenSSH era crear un protocolo gratuito y de código abierto que fuera compatible con las versiones existentes, especialmente con SSH-1 y SSH-2. OpenSSH también buscaba evitar las restricciones de licencia asociadas con las implementaciones propietarias de SSH.
A medida que el proyecto avanzaba, se convirtió en la implementación de facto de SSH en sistemas basados en Unix y Linux. La creciente popularidad de OpenSSH se debió a su código abierto, su capacidad para proporcionar una comunicación segura y sus características como el cifrado fuerte, la autenticación basada en clave y la capacidad de transferencia de archivos segura (SFTP).
OpenSSH también se benefició de la colaboración con la comunidad de software libre y de código abierto. A lo largo de los años, ha experimentado mejoras continuas, actualizaciones de seguridad y extensiones funcionales, lo que lo convierte en una herramienta esencial en la administración de sistemas remotos y la seguridad de la red.
En resumen, OpenSSH surgió como una respuesta a la necesidad de una implementación de SSH de código abierto y gratuita. A lo largo de los años, ha evolucionado para convertirse en la implementación de SSH más utilizada en sistemas Unix y Linux y sigue siendo fundamental en la seguridad de la comunicación y administración de sistemas en entornos distribuidos.
Ejecución de comandos remota con SSH
SSH no solo provee una forma de acceder de manera interactiva a la shell de una máquina remota, también se puede utilizar para ejecutar comandos remotos en un sistema, con la sintaxis siguiente:
ssh usuario@host:/ruta/del/comando
SSH se utiliza frecuentemente en scripts para la automatización de todo tipo de acciones y procesos, para ello necesita la autenticación automática por medio de certificados, ya que, por defecto, requerirá la introducción de una contraseña de manera manual e interactiva por el usuario a través del teclado.
La seguridad en SSH
SSH es acrónimo de Secure Shell, así que la seguridad es parte del diseño fundacional de SSH.
SSH tiene además la capacidad de crear túneles TCP que permiten utilizar un host para crear una especie de VPN dedicada entre dos IP que puede ser bidireccional. Es lo que se conoce como “Túnel TCP” y que mal usado, puede ser un problema de seguridad.
SSH permite la autenticación automática a través de certificados, lo que permite que un usuario se pueda conectar a un sistema mediante SSH sin conocer el password. Para ello hay que copiar la clave pública de un certificado digital en el servidor, de manera que identificamos a ese usuario a través de su certificado. Esta es una opción avanzada que permite la automatización de ejecución de comandos vía SSH, pero que presenta riesgos inherentes a cualquier automatización.
¿Qué diferencias hay entre Telnet y SSH?
SSH y Telnet son dos protocolos de red utilizados para acceder a sistemas remotos, pero hay diferencias significativas en términos de seguridad y funcionalidad.
SSH es el estándar actual para acceso remoto en todo tipo de entornos. Telnet, por otro lado, es más antiguo y menos seguro, y su uso se desaconseja a no ser que sea imposible usar SSH.
Seguridad
SSH: Proporciona un entorno seguro para la comunicación entre dos sistemas. Todos los datos, incluidos nombres de usuario y contraseñas, se cifran antes de ser transmitidos, lo que hace que sea mucho más difícil para un atacante interceptar y entender la información transmitida.
Telnet: Transmite datos, incluyendo credenciales de inicio de sesión, de forma no cifrada. Esto significa que si alguien tiene acceso a la red entre el cliente y el servidor, puede capturar y leer fácilmente la información.
Cifrado
SSH: Utiliza cifrado para proteger los datos durante la transmisión. Los algoritmos de cifrado en SSH pueden configurarse para cumplir con los estándares de seguridad más recientes.
Telnet: No proporciona cifrado, lo que significa que toda la información, incluidas las contraseñas, se transmiten de manera no segura.
Autenticación
SSH: Admite diversos métodos de autenticación, incluyendo la utilización de contraseñas, clave pública, y autenticación basada en tokens.
Telnet: Dependiendo de la configuración, generalmente utiliza solo nombres de usuario y contraseñas para la autenticación.
Puertos
SSH por defecto. SSH utiliza el puerto 22, a diferencia de Telnet que usa el puerto 23. No obstante, estos puertos se pueden cambiar en cualquier momento.
Mejores clientes de SSH
A continuación se enumeran algunos de los clientes de SSH más conocidos del mercado.
OpenSSH
OpenSSH (Linux, macOS, Windows con WSL) y otros sistemas operativos como BSD o dispositivos de comunicaciones que soportan una versión de OpenSSH.
OpenSSH es una implementación gratuita y de código abierto del protocolo SSH. Viene preinstalado en la mayoría de las distribuciones de Linux y es ampliamente utilizado en entornos Unix.
Es altamente confiable, seguro y es la elección predeterminada en muchos sistemas operativos basados en Unix, además de ser 100 % gratuito.

Putty
PuTTY es un cliente SSH gratuito y de código abierto para Windows y por ello, muy popular. Aunque inicialmente se diseñó para Windows, también existe una versión no oficial llamada “PuTTY for Mac” que funciona en macOS, también existen versiones alternativas para Linux.

Es liviano, fácil de usar y se puede ejecutar como una aplicación portátil sin necesidad de instalación. Sin embargo, adolece de una interfaz potente, no permite grabación de secuencias, y en general, carece de funcionalidades más avanzadas que podemos encontrar en otros clientes “visuales” de SSH. Tampoco dispone de una interfaz específica para transferencia de archivos.
De todas las opciones, PuTTY es la más básica, pero al menos es una interfaz visual, a diferencia del cliente estándar de SSH del sistema operativo que es gratis, pero donde todas las “funcionalidades” están basadas en líneas de comando.
Descargas y actualizaciones
Se puede descargar desde su web, aunque existen diversos sitios en paralelo que ofrecen versiones alternativas para Mac e incluso Linux.
Precio y licencias
Es gratuito y bajo licencia OpenSource por lo que puede modificar su código y compilarlo por su cuenta.
BitVise
Bitvise SSH Client es una opción sólida para usuarios de Windows que buscan un cliente SSH fácil de usar y seguro. Su combinación de una interfaz intuitiva, funciones avanzadas de transferencia de archivos y seguridad robusta lo convierte en una herramienta apreciada para la administración de sistemas remotos y la transferencia de archivos segura.

Servidor SSH
BitVise ofrece tanto un cliente SSH como un servidor SSH. Generalmente, los sistemas Windows no utilizan SSH por lo que puede ser una muy buena opción para implementarlo, pese a que las últimas versiones de Microsoft Windows Server lo implementan ya. Es una opción excelente para implementar SSH en versiones antiguas de Windows, ya que, soporta una amplia selección de versiones, prácticamente desde Windows XP:
- Windows Server 2022
- Windows 11
- Windows Server 2019
- Windows Server 2016
- Windows 10
- Windows Server 2012 R2
- Windows Server 2012
- Windows 8.1
- Windows Server 2008 R2
- Windows Server 2008
- Windows Vista SP1 or SP2
- Windows Server 2003 R2
- Windows Server 2003
- Windows XP SP3
Túneles SSH y reenvío de puertos
Permite la configuración de túneles SSH y reenvío de puertos, lo que es útil para redirigir tráfico de red de manera segura a través de conexiones SSH.
Gestión de sesiones avanzada
Bitvise SSH Client ofrece opciones avanzadas para la gestión de sesiones, incluyendo la capacidad de guardar configuraciones de sesión para un acceso rápido y fácil a servidores frecuentemente utilizados.
Registro de sesiones y auditoría
Proporciona un registro detallado de las sesiones, lo que puede ser útil para fines de auditoría y seguimiento de actividades.
Compatibilidad con proxy:
Bitvise SSH Client es compatible con varios tipos de proxy, lo que permite a los usuarios sortear restricciones de red y conectarse a través de servidores proxy.
Descargas y actualizaciones.
Se puede descargar una versión de evaluación de 30 días desde su web https://www.bitvise.com.
Licencias y precio
Solo para Windows, su precio ronda los 120 USD por año.
SecureCRT
Está disponible para todas las plataformas: Windows, macOS y Linux. Se puede descargar una demo funcional desde su página web en https://www.vandyke.com.

SecureCRT es un cliente comercial que ofrece soporte para múltiples protocolos, incluido SSH. Proporciona una interfaz gráfica avanzada, funciones de script y automatización, y es ampliamente utilizado en entornos empresariales.
Emulación de terminal
Ofrece emulación de terminal para una amplia variedad de tipos, incluyendo VT100, VT102, VT220, ANSI, entre otros. Esto asegura una compatibilidad efectiva con diversos sistemas y dispositivos remotos.
Transferencia de archivos segura
SecureCRT incluye soporte para protocolos de transferencia de archivos seguros, como SCP (Secure Copy Protocol) y SFTP (Secure File Transfer Protocol). Esto permite a los usuarios transferir archivos de manera segura entre sistemas locales y remotos. Para la gestión de transferencias de archivos utiliza un producto adicional llamado SecureFX (con coste de licencia adicional).
Automatización y secuencias de comandos
Facilita la automatización de tareas mediante la ejecución de secuencias de comandos. Admite varios lenguajes de secuencias de comandos, como VBScript, JScript y Python, proporcionando flexibilidad en la automatización de procesos.
Gestión de sesiones eficiente
SecureCRT ofrece una interfaz de gestión de sesiones eficiente que permite a los usuarios organizar y acceder fácilmente a conexiones previas. También posibilita la importación y exportación de sesiones para una fácil transferencia de configuraciones entre sistemas. Permite la configuración avanzada de sesiones, incluyendo opciones de autenticación, configuración de teclas de función, reenvío de puertos, entre otros. Esto ofrece a los usuarios un control preciso sobre sus sesiones remotas.
Integración de claves SSH
SecureCRT es compatible con la autenticación basada en clave, lo que significa que los usuarios pueden gestionar y utilizar claves SSH para una autenticación segura sin depender de contraseñas.
Soporte para protocolos adicionales:
Además de SSH, SecureCRT también es compatible con otros protocolos como Telnet, rlogin y Serial. Esto lo convierte en una herramienta versátil para diversos entornos de red.
Precio y licencias
Una versión completa para un usuario, incluyendo las funcionalidades de transferencia segura (SecureFX) viene a salir por unos 120$ al año.
ZOC
ZOC Terminal es un cliente SSH y emulador de terminal que ofrece características avanzadas para usuarios que necesitan una herramienta potente y versátil para trabajar con conexiones remotas SSH. También es compatible con otros protocolos como Telnet y Rlogin, lo que amplía su utilidad en diversos entornos no solo como cliente SSH sino como cliente Telnet.

ZOC es compatible con Windows y macOS y publica versiones actualizadas de manera regular. Puede descargarse una versión de demo desde su web en https://www.emtec.com.
Funciones de emulación de terminal
ZOC es compatible con múltiples emulaciones de terminal, como xterm, VT220, TN3270, y más. Esto permite a los usuarios conectarse a una variedad de sistemas remotos y mainframes.
Transferencia de archivos
Incluye funcionalidades de transferencia de archivos seguras (e inseguras), como FTP, SFTP (SSH File Transfer Protocol) y SCP (Secure Copy Protocol), permitiendo a los usuarios transferir archivos de manera segura entre el sistema local y remoto. La funcionalidad está incluida en el mismo producto.
Automatización y secuencias de comandos:
ZOC facilita la automatización de tareas mediante la ejecución de secuencias de comandos. Admite varios lenguajes de secuencias de comandos, como VBScript, JScript, y Python, lo que proporciona flexibilidad para la automatización de procesos. También permite grabar una combinación de teclas y reproducirla para, por ejemplo, automatizar sesiones de login que requieran el uso de sudo o su.
Gestión de sesiones
La capacidad de gestionar y organizar sesiones es crucial para aquellos que trabajan con múltiples conexiones. ZOC ofrece una interfaz de gestión de sesiones intuitiva que permite organizar y acceder fácilmente a conexiones previas. Se puede tener un catálogo de sistemas donde conectarse fácilmente.
Precio y licencias
La licencia básica ronda los 80 USD, pero su versión gratuita permite trabajar cómodamente, si exceptuamos el algo molesto popup del inicio.
Pandora RC: Alternativa al uso de SSH
Pandora RC (antes llamado eHorus) es un sistema de gestión de equipos para Microsoft Windows®, Linux® y Mac OS® que permite acceder a ordenadores registrados allí donde estén, desde un navegador, sin que tenga conectividad directa a sus dispositivos desde el exterior.
Seguridad
Para mayor seguridad, cada agente, al configurarlo, puede tener una contraseña individual que no se almacena en los servidores centrales de Pandora RC, sino que cada vez que el usuario quiera acceder a dicha máquina, tendrá que introducir de forma interactiva.
Acceso remoto sin conexión directa
Uno de los problemas más habituales de SSH es que necesitamos poder acceder a la IP del servidor. Con Pandora RC, es el servidor quien se conecta a un servicio en la nube y así está disponible desde cualquier lugar, sin necesidad de una VPN o reglas complejas en los firewalls.
Integración con Pandora FMS
Se integra nativamente con el software de monitorización Pandora FMS, de manera que es posible no solo monitorizar los servidores, sino acceder a ellos directamente desde la misma interfaz, sin necesidad de instalar clientes ssh, recordar contraseñas o generar duplicidades.
Precio y licencia
Gratuito hasta 5 dispositivos. Existen licencias de uso para ilimitadas máquinas a partir de 19€/mes. Más información en la web: https://pandorafms.com/en/remote-control/prices/
Shell remota y escritorio remoto todo en uno
Pandora RC dispone de un sistema de control remoto a través de acceso al Escritorio de manera visual. En ambos casos se utiliza una interfaz web para operar con el servidor remoto, sea Windows, MacOS o Linux. También provee un mecanismo de transferencia de archivos y gestión de procesos/servicios. Todo integrado en una aplicación WEB:
Ejemplo de Shell remota en un sistema Mac:

Ejemplo de un escritorio remoto en un sistema Mac:

Ejemplo de una compartición de archivos en un sistema Linux:
