lunes, 28 de enero de 2013

Diseños con balanceadores


"Se revisan de modo esquemático los diseños de arquitectura de balanceadores, 
dando una pequeña descripción, así como las ventajas/inconvenientes de cada uno de ellos"


En esta entrada se describen las arquitecturas “estándar” de diseño de infraestructuras de balanceo. Para ello se parte de una topología convencional inicial como la que se muestra a continuación:

Ilustración 1 - Esquema inicial

En este esquema, los clientes se encuentran en redes externas, dándoles acceso a los servidores internos por un router perimetral. En este ejemplo los servidores tendrán configuradas IPs públicas, por lo que el router perimetral no realiza ningún tipo de NAT.

Para los siguientes ejemplos no se tienen en cuenta, por simplificar, los conceptos de HA ni en routers ni en los propios elementos balanceadores.

Para introducir el balanceo en este esquema, se pueden realizar diversos despliegues del balanceador, entre los que se pueden encontrar:
  • Routed mode (modo ruteado)
  • Bridged mode (modo transparente)
  • ONE-ARM
  • DSR

A continuación se explican cada uno de ellos, haciendo hincapié en las ventajas e inconvenientes.



Modo ruteado/encaminado (Routed mode)


En este despliegue se introduce el balanceador entre los servidores y el router perimetral, dividiendo la antigua red en dos diferentes.

La parte externa de la red, también llamada red cliente, es la que debiera conservar el direccionamiento público, ya que es a ella a la que acceden los clientes. Por el contrario, los servidores deberán modificar los parámetros de red (IP, máscara, default Gateway) y se les podría asignar un direccionamiento privado. El Default Gateway de los servidores, en este despliegue, suele ser el propio balanceador.

Dependiendo de las necesidades de los servidores, puede ser posible que estos necesiten acceder a las redes externas a través del balanceador, o que los servidores sean accedidos directamente (suponiendo que tuviesen direccionamiento público). En estos casos se debería permitir explícitamente en los balanceadores el encaminamiento de estas peticiones, ya que por norma general, los balanceadores solo reenvían los paquetes destinados a algún servicio balanceado publicado en ellos.

También se debería tener en cuenta que si los servidores con direccionamiento público necesitan acceder a servicios situados tras el balanceador, a parte de la configuración del encaminamiento mencionada antes, se deberá configurar una política de NAT/PAT en el balanceador para que cambie la IP privada del servidor por una pública.

Flujo del tráfico de servicio
  1. El cliente realiza la petición a la IP pública de servicio
  2. Las peticiones de los clientes llegan al router perimetral y este las encaminaría hacia el balanceador.
  3. Este, a su vez, la reenvía a uno de los servidores que tenga configurados en el pool asociado a ese servicio.
  4. La petición llega al servidor (conservando la IP de origen), con lo que la respuesta la envía al Default Gateway que tengan configurado, es decir, de vuelta al balanceador.
  5. El balanceador modifica la IP de origen para incluir la IP de servicio (IP pública) y la envía hacia su Default Gateway (router perimetral)
  6.  La respuesta llega al cliente con IP origen la IP de servicio



Ilustración 2 - Diseño en routed mode


Ventajas
  • Es una de las arquitecturas más comunes entre los despliegues.
  • Se tiene visibilidad completa de las transacciones balanceadas.
  • El balanceador puede ejecutar otros trabajos como la securización de aplicaciones o la externalización del cifrado SSL, descargando a los servidores internos de dicho trabajo

 Inconvenientes
  • El balanceador debe ser incluido en el camino de la comunicación, lo cual conlleva que el rendimiento del dispositivo balanceador tiene que ser suficiente para gestionar todo el tráfico que transcurre por él. Esto, en algunos casos, es un problema porque puede que se necesite acceder desde fuera directamente a los servidores internos o que los servidores internos necesiten comunicarse con el exterior, lo que aumenta el throughput que transcurre por los Balanceadores. Además, puede darse el caso de que ese tráfico de los servidores al exterior esté NATeado por los balanceadores, lo que supone mayor necesidad de recursos en estos dispositivos.
  • Se necesita desdoblar la red, lo que implica un cambio de dirección IP en los servidores



Modo transparente (Bridge mode)


Este despliegue, al igual que en el “routed mode”, necesita incluir el balanceador entre los servidores y el router pero, a diferencia del anterior, no implica una división del direccionamiento IP de la red. No obstante, es necesario una división lógica entre la parte cliente (conectada al router) y la parte servidor, y esta se suele realizar mediante la configuración de VLANs, de tal manera que cualquier elemento de la VLAN servidor, para comunicarse con alguno de la VLAN cliente, deberá transcurrir por el balanceador.

Aunque esta topología parece sencilla, lo cierto es que para llevarla a cabo se necesitan tener en consideración muchos más factores que en el modo ruteado, ya que normalmente todos los elementos suelen estar duplicados, por exigencias de alta disponibilidad, y existe un alto riesgo de que se produzcan bucles o comportamientos indeseados asociados a conectar las dos VLANs a nivel 2.

Estas problemáticas se ven acentuadas si existe la necesidad de conectividad entre los elementos de la VLAN de servidores con los de la VLAN de clientes (siempre que no se trate del tráfico de servicio publicado en el balanceador). En estos casos, de forma similar a la que sucedía en routed mode, se hace necesario permitir este flujo de tráfico de manera explícita en la mayoría de los casos.

Flujo del tráfico de servicio
  1. El cliente realiza la petición a la IP pública de servicio
  2. Las peticiones de los clientes llegan al router perimetral y este la envía al balanceador, que es quien conserva la IP de servicio
  3. Este, a su vez, la reenvía a uno de los servidores que tenga configurados en el pool asociado a ese servicio. 
  4. La petición llega al servidor (conservando la IP de origen), con lo que la respuesta la envía al Default Gateway que tengan configurado, en este caso el router perimetral.
  5. Como para alcanzar el router perimetral el tráfico tiene que transcurrir por el balanceador, este se hace cargo de modificar la IP de origen para incluir la IP de servicio, tras lo cual la reenvía al router. 
  6. La respuesta llega al cliente con IP origen la IP de servicio



Ilustración 3 - Diseño en bridged mode

Ventajas:
  • No necesita redireccionamiento en los servidores

 Inconvenientes
  • Posibles problemas con bucles y comportamientos no deseados
  • Imposibilidad de funcionalidades avanzadas de tráfico a nivles 4-7 en muchos fabricantes
  • Implica que el balanceador sea capaz de manejar toda la comunicación, incluyendo la que no es específica del servicio balanceado, al igual que sucedía en el modo enrutado. Hay que tener en cuenta que el balanceador almacenará las comunicaciones entre las VLAN cliente y servidor en sus tablas de sesiones, lo cual puede implicar que se llegue a la máxima capacidad de estas aunque no exista gran tráfico de servicio.
  • Los clientes no pueden estar en la misma red que los servidores


Modo ONE-ARM

Este el primero de los diseños mostrados que no necesita implementar el balanceador entre los servidores y el router de acceso. En su lugar se conectará en la red de servicios mediante un único enlace (o agregado), de ahí el nombre de "one-arm".

Debido a que el balanceado se encuentra instalado en paralelo, tan solo la comunicación balanceada transcurrirá por ellos, con lo que para el dimensionado del balanceador solo tendrá que tener en cuenta dicho throughput. Es probable que en algunos entornos se pueda cubrir un mismo servicio con un balanceador con menor capacidad si se despliega este diseño en lugar del modo ruteado o transparente.

Este esquema tiene un inconveniente que, en muchos casos, es causa de que no pueda desplegarse: no se tiene visibilidad de las IPs de cliente desde los servidores. Esto es debido a que, para garantizar que el tráfico de vuelta de los servidores (las respuestas a las peticiones de los clientes) transcurran por los balanceadores, es necesario realizar un NAT de origen de las peticiones de cliente, con lo que se "oculta" el origen de la petición.

Para solventar este problema, algunos protocolos concretos, pueden hacer uso de funcionalidades propias para no perder la visibilidad del origen de las peticiones, como por ejemplo x-forwarded-for en las peticiones HTTP o se puede configurar PBR en los routers para hacer que el flujo concreto que se quiera tratar pase siempre por el balanceador..

Esta topología es muy conveniente en los despliegues de "demo", ya que no requiere el corte de servicio necesario en los despliegues "in-path", como son el modo ruteado y modo transparente, y no afecta a cualquier comunicación que no sea la balanceada, así como no requiere modificaciones en los servidores.

También se puede hacer uso de este tipo de despliegues en entornos donde existan tráficos, alternativos a los servicios balanceados, muy sensibles a los retardos, o que, por algún motivo, presenten problemas al transcurrir por los balanceadores.

Flujo del tráfico de servicio
  1. El cliente realiza la petición a la IP pública de servicio
  2. Las peticiones de los clientes llegan al router perimetral y este la envía al balanceador, que es quien conserva la IP de servicio
  3. Este, a su vez, la reenvía a uno de los servidores que tenga configurados en el pool asociado a ese servicio, pero modificando la IP de origen, cambiando la del cliente por la suya propia.
  4. La petición llega al servidor, con la IP del balanceador como origen, con lo que la respuesta la devuelve al balanceador.
  5. El balanceador recibe la respuesta del servidor y modifica la IP de origen para incluir la IP de servicio, y la IP destino, para volver a incluir la IP del cliente que realizó la petición. 
  6. La respuesta llega al cliente con IP origen la IP de servicio




Ilustración 4- Diseño en one-arm


Ventajas:
  • El balanceador solo gestiona el tráfico balanceado
  • La arquitectura de balanceo es totalmente transparente al resto de flujos de tráfico
 Inconvenientes
  • Se pierde la visibilidad de la IP de los clientes que realizan las peticiones (si no se utiliza ninguna funcionalidad añadida)


Modo Direct Server Return (DSR)

Este diseño es similar a la arquitectura one-arm, con dos diferencias fundamentales: no se realiza NAT de origen para las IPs de clientes en el balanceador, por lo que se conserva la visibilidad en los servidores, y que las respuestas de los servidores no transcurren por los balanceadores.

Para que esto sea posibles, los servidores deben adoptar como suya la IP de servicio, ya que las respuestas deben conservar la IP de servicio como IP origen. Para ello se configura la IP de servicio como una dirección de loopback y se hace que las respuestas de los servidores se realicen desde esta IP.

El que las respuestas no fluyan por el balanceador hacen que este diseño sea propicio para servicios en los que exista una gran necesidad de throughput en las respuestas en comparación con las peticiones (como FTP), de manera que se puede hacer un dimensionamiento mucho más ajustado del balanceador.

Por contra, al no tener visibilidad de todo el transcurso de la conversación entre los clientes y el servidor en el balanceador, no se pueden realizar muchas de las funcionalidades añadidas (securizaciones, aceleraciones, etc) que los balanceadores ofrecen para capas 4-7.

Flujo del tráfico de servicio
  1. El cliente realiza la petición a la IP pública de servicio
  2. Las peticiones de los clientes llegan al router perimetral y este la envía al balanceador, que es quien conserva la IP de servicio
  3. Este, a su vez, la reenvía a uno de los servidores que tenga configurados en el pool asociado a ese servicio.
  4. La petición llega al servidor, con la IP del cliente como origen, con lo que la respuesta la encamina a su Default Gateway.
  5. La respuesta llega al cliente con IP origen la IP de servicio



Ilustración 5- Diseño DSR



Ventajas
:
  • El balanceador solo gestiona las peticiones del tráfico balanceado
  • La arquitectura de balanceo es totalmente transparente al resto de flujos de tráfico
 Inconvenientes
  • Requiere configuraciones en los servidores (IPs de loopback, etc)
  • No permite el tratamiento avanzado de las conexiones por parte del balanceador

jueves, 24 de enero de 2013

SNMP MIBs y traps comunes en F5 Big-IP


"En esta entrada incluyo algunos traps SNMP y OIDs que pueden ser configurados

 en la monitorización de los dispostivos F5 Big-IP, separados en dos tablas."

Algunos Traps de la versión TMOS 11.2.1:


Name
Cause
Test
Actions
OID
bigipCpuTempHigh
CPU Temperature is too high (>75ºC)
tmsh show /sys hardware
Check the CPU and air temperatures
.1.3.6.1.4.1.3375.2.4.0.4
bigipCpuFanSpeedBad
Fan failed
tmsh show /sys hardware
Check the CPU temperature and verify that the CPU fan is plugged in and receiving power. If the CPU temperature is normal, the condition is not critical
.1.3.6.1.4.1.3375.2.4.0.6
bigipChassisTempHigh
Device temperature is too high
tmsh show /sys hardware
Check the chassis and air temperatures
.1.3.6.1.4.1.3375.2.4.0.7
bigipChassisFanBad
Fan failed
tmsh show /sys hardware
Check the chassis temperature. Also check that the fan is receiving power, or replace the fan.
.1.3.6.1.4.1.3375.2.4.0.8
bigipChassisPowerSupplyBad
Power supply failed
tmsh show /sys hardware
Verify that the power supply is plugged in, or contact F5 Networks technical support. For a dual-power-supply system, one power supply might not be plugged in.
.1.3.6.1.4.1.3375.2.4.0.9
bigipStandby
Device changed its cluster rol to "Standby"
tmsh show /sys ha-status   all-properties
Review the log files in the /var/log directory and then search for core files in the /var/core directory.
.1.3.6.1.4.1.3375.2.4.0.14
bigipActive
Device changed its cluster rol to "Active"
None. Recuperaión de bigipStandby
None
.1.3.6.1.4.1.3375.2.4.0.15
bigipLicenseExpired
A device license has expired
tmsh show /sys license
Check licensing
.1.3.6.1.4.1.3375.2.4.0.20
bigipAggrReaperStateChange
The state of the aggressive reaper   has changed, indicating that the BIG-IP system is moving to a distress mode.
check log /var/log/ltm
Check source IP device
.1.3.6.1.4.1.3375.2.4.0.22
bigipAuthFailed
A user tried to log with invalid credentials
None
None
.1.3.6.1.4.1.3375.2.4.0.27
bigipPacketRejected
Packet was dropped
check log /var/log/ltm
Check the detailed message within this trap and act accordingly.
.1.3.6.1.4.1.3375.2.4.0.34
bigipServiceDown
A BIG-IP system health monitor has detected a service on a node to be stopped and has therefore marked the node as down.
tmsh show ltm node
Check the service on the node
.1.3.6.1.4.1.3375.2.4.0.10
bigipServiceUp
A BIG-IP system health monitor has detected a service on a node to be running and has therefore marked the node as up.
None. Recuperaión de bigipServiceDown
None
.1.3.6.1.4.1.3375.2.4.0.11
bigipNodeDown
A BIG-IP system health monitor has marked a node as down.
tmsh show ltm node
Check the node and the cable connection.
.1.3.6.1.4.1.3375.2.4.0.12
bigipNodeUp
A BIG-IP system health monitor has marked a node as up.
None. Recuperaión de bigipNodeDown
None
.1.3.6.1.4.1.3375.2.4.0.13
bigipDiskPartitionWarn
 The disk partition free space has less than a specified limit. By default, the limit is set
  to 30% of total disk space
df -h
Increase the available disk space.
.1.3.6.1.4.1.3375.2.4.0.25
bigipLogEmerg
This notification occurs when the system logs a message with the log level LOG_EMERG.
Check logs on /var/log
Check the detailed message within this trap and within the /var/log files to determine which processes have the error conditions.
Then act accordingly.
.1.3.6.1.4.1.3375.2.4.0.29
bigipLogAlert
This notification occurs when the system logs a message with the log level LOG_ALERT.
Check logs on /var/log
Check the detailed message within this trap and within the /var/log files to determine which processes have the error conditions.
Then act accordingly.
.1.3.6.1.4.1.3375.2.4.0.30
bigipLogCrit
This notification occurs when the system logs a message with the log level LOG_CRIT.
Check logs on /var/log
Check the detailed message within this trap and within the /var/log files to determine which processes have the error conditions.
Then act accordingly.
.1.3.6.1.4.1.3375.2.4.0.31
bigipLogErr
This notification occurs when the system logs a message with the log level LOG_ERR.
Check logs on /var/log
Check the detailed message within this trap and within the /var/log files to determine which processes have the error conditions.
Then act accordingly.
.1.3.6.1.4.1.3375.2.4.0.32
bigipLogWarning
This notification occurs when the system logs a message with the log level LOG_WARNING.
Check logs on /var/log
Check the detailed message within this trap and within the /var/log files to determine which processes have the error conditions.
Then act accordingly.
.1.3.6.1.4.1.3375.2.4.0.33
bigipCompLimitExceeded
The compression license limit is exceeded
tmsh show /sys license
Check license expiration time
.1.3.6.1.4.1.3375.2.4.0.35
bigipSslLimitExceeded
The SSL license limits are exceeded,
  either for TPS (Transactions Per   Second) or
  for MPS (Megabits Per Second)
tmsh show /sys license
Check license expiration time
.1.3.6.1.4.1.3375.2.4.0.36
bigipGtmPoolAvail
Pool changed its status to up
None. Recuperaión de bigipGtmPoolNotAvail
None
.1.3.6.1.4.1.3375.2.4.0.40
bigipGtmPoolNotAvail
Pool changed its status to down
tmsh show /gtm  pool
Check the status of the pool, as well as the relevant detailed log message.
.1.3.6.1.4.1.3375.2.4.0.41
bigipGtmPoolDisabled
Pool has been disabled
None
None
.1.3.6.1.4.1.3375.2.4.0.42
bigipGtmPoolEnabled
Pool has been enabled
None. Recuperaión de bigipGtmPoolDisabled
None
.1.3.6.1.4.1.3375.2.4.0.43
bigipGtmWideIpAvail
Wide IP changed its status to up
None. Recuperaión de bigipGtmWideIpNotAvail
None
.1.3.6.1.4.1.3375.2.4.0.48
bigipGtmWideIpNotAvail
Wide IP changed its status to down
tmsh show /gtm  wideip
Check the status of the wide IP, as well as the relevant detailed log message.
.1.3.6.1.4.1.3375.2.4.0.49
bigipGtmWideIpDisabled
Wide IP has been disabled
None
None
.1.3.6.1.4.1.3375.2.4.0.50
bigipGtmWideIpEnabled
Wide IP has been enabled
None. Recuperaión de bigipGtmWideIpDisabled
None
.1.3.6.1.4.1.3375.2.4.0.51
bigipGtmPoolMbrAvail
Pool member changed its status to up
None. Recuperaión de bigipGtmPoolMbrNotAvail
None
.1.3.6.1.4.1.3375.2.4.0.52
bigipGtmPoolMbrNotAvail
Pool member changed its status to down
tmsh show /gtm  pool
Check the status of the pool member, as well as the relevant detailed log message.
.1.3.6.1.4.1.3375.2.4.0.53
bigipGtmPoolMbrDisabled
Pool member has been disabled
None
None
.1.3.6.1.4.1.3375.2.4.0.54
bigipGtmPoolMbrEnabled
Pool member has been enabled
None. Recuperaión de bigipGtmPoolMbrDisabled
None
.1.3.6.1.4.1.3375.2.4.0.55
bigipGtmServerAvail
Server changed its status to up
None. Recuperaión de bigipGtmServerNotAvail
None
.1.3.6.1.4.1.3375.2.4.0.56
bigipGtmServerNotAvail
Server changed its status to down
tmsh show /gtm  server
Check the status of the server, as well as the relevant detailed log message.
.1.3.6.1.4.1.3375.2.4.0.57
bigipGtmServerDisabled
Server has been disabled
None
None
.1.3.6.1.4.1.3375.2.4.0.58
bigipGtmServerEnabled
Server has been enabled
None. Recuperaión de bigipGtmServerDisabled
None
.1.3.6.1.4.1.3375.2.4.0.59
bigipGtmVsAvail
Virtual server changed its status   to up
None. Recuperaión de bigipGtmVsNotAvail
None
.1.3.6.1.4.1.3375.2.4.0.60
bigipGtmVsNotAvail
Virtual server changed its status   to down
tmsh show /gtm server
Check the status of the virtual server, as well as the relevant detailed log message.
.1.3.6.1.4.1.3375.2.4.0.61
bigipGtmVsDisabled
Virtual server has been disabled
None
None
.1.3.6.1.4.1.3375.2.4.0.62
bigipGtmVsEnabled
Virtual server has been enabled
None. Recuperaión de bigipGtmVsDisabled
None
.1.3.6.1.4.1.3375.2.4.0.63
bigipGtmDcAvail
Data Center changed its status to up
None. Recuperaión de bigipGtmDcNotAvail
None
.1.3.6.1.4.1.3375.2.4.0.64
bigipGtmDcNotAvail
Data Center changed its status to down
tmsh show /gtm datacenter
Check the status of the data center, as well as the relevant detailed log message.
.1.3.6.1.4.1.3375.2.4.0.65
bigipGtmDcDisabled
Data Center has been disabled
None
None
.1.3.6.1.4.1.3375.2.4.0.66
bigipGtmDcEnabled
Data Center has been enabled
None. Recuperaión de bigipGtmDcDisabled
None
.1.3.6.1.4.1.3375.2.4.0.67
bigipExternalLinkChange
"An external interface link status changes.
  For a fixed port, this is an occurrence when network cables
  are connected  or removed, and the network is reconfigured;
  for a pluggable port (such as a SFP or XFP port), this happens
  when the pluggable unit is plugged in or unplugged,
  or when a cable is connected or removed from a plugged port.
  The possible values are UP, DOWN, DISABLED, or UNPOPULATED."
tmsh show /net interface
Determine whether the link should be down or up, and then take the appropriate action.
.1.3.6.1.4.1.3375.2.4.0.37
bigipGtmLeftGroup
GTM left sync group
None
None
.1.3.6.1.4.1.3375.2.4.0.74
bigipARPConflict
The BIG-IP system has detected an ARP advertisement for any of its own ARP-enabled addresses. This can occur for a virtual server address or a self IP address.
tmsh show /net arp all
Check IP addresses and routes
.1.3.6.1.4.1.3375.2.4.0.23


Algunos OIDs de la versión TMOS 11.2.1:


Nombre
OID
Descripción según especificación MIB
Syntax

Información General del Sistema

sysAttrFailoverIsRedundant.0
.1.3.6.1.4.1.3375.2.1.1.1.1.13.0
System is in a redundant pair? false(0), true(1)
Integer

sysAttrFailoverUnitId.0
.1.3.6.1.4.1.3375.2.1.1.1.1.20.0
Failover UnitID, 1 or 2
Integer

sysGeneralHwNumber.0
.1.3.6.1.4.1.3375.2.1.3.3.2.0
BIG-IP model number
String

sysProductVersion.0
.1.3.6.1.4.1.3375.2.1.4.2.0
BIG-IP software version
String

sysSystemNodeName.0
.1.3.6.1.4.1.3375.2.1.6.2.0
Hostname
String

sysSystemUptime.0
.1.3.6.1.4.1.3375.2.1.6.6.0
Uptime in hundredths of a second
Timeticks

CPU

sysGlobalHostCpuSystem5s
.1.3.6.1.4.1.3375.2.1.1.2.20.16
The percentage of CPU utilization as measured over the last five second interval.
Counter

sysGlobalHostCpuSystem1m
.1.3.6.1.4.1.3375.2.1.1.2.20.24
The percentage of CPU utilization as measured over the last 1 minute interval.
Counter

sysGlobalHostCpuSystem5m
.1.3.6.1.4.1.3375.2.1.1.2.20.32
The percentage of CPU utilization as measured over the last 5 minutes interval.
Counter

cpuUsageRatio5s
.1.3.6.1.4.1.3375.2.1.7.5.2.1.19.1.48.<index_CPU>.
The percentage of CPU utilization as measured over the last 5 seconds interval. <index_CPU>: CPU[1-4]
Counter

cpuUsageRatio1ms
.1.3.6.1.4.1.3375.2.1.7.5.2.1.27.1.48.<index_CPU>.
The percentage of CPU utilization as measured over the last 1 minute interval. <index_CPU>: CPU[1-4]
Counter

cpuUsageRatio5m
.1.3.6.1.4.1.3375.2.1.7.5.2.1.35.1.48.<index_CPU>.
The percentage of CPU utilization as measured over the last 5 minutes interval. <index_CPU>: CPU[1-4]
Counter

Sincronía HA

sysAttrConfigsyncState.0
.1.3.6.1.4.1.3375.2.1.1.1.1.6.0

System State
1 - uninitialized or disabled config state
0 - Synchronized
1 - Local config modified, recommend configsync to peer
2 - Peer config modified, recommend configsync from peer
3 - Config modified on both systems, manual intervention required
String

sysAttrFailoverUnitMask.0
.1.3.6.1.4.1.3375.2.1.1.1.1.19.0

The values of 1 and 2 are only defined for an active-active installation.  If two boxes are both active, value for unit 1 will be 1 and value for unit 2 will be 2.  Otherwise, for active unit, this value is 3; for stand-by unit, this value is 0.

Integer

Utilización de memoria

sysStatMemoryTotal.0
.1.3.6.1.4.1.3375.2.1.1.2.1.44.0
Total memory
Counter64

sysStatMemoryUsed.0
.1.3.6.1.4.1.3375.2.1.1.2.1.45.0
Total memory used. To calculate memory utilization percent: (sysStatMemoryUsed/sysStatMemoryTotal) * 100
Counter64

Estado de HW

sysCpuNumber.0
.1.3.6.1.4.1.3375.2.1.3.1.1.0
Number of CPUs
Integer

sysCpuTemperature.1
.1.3.6.1.4.1.3375.2.1.3.1.2.1.2.1
CPU Temperature (degrees Celsius)
Integer

sysCpuFanSpeed.1
.1.3.6.1.4.1.3375.2.1.3.1.2.1.3.1
CPU Fan Speed (RPM)
Integer

sysChassisFanNumber.0
.1.3.6.1.4.1.3375.2.1.3.2.1.1.0
Number of Chassis Fans
Integer

sysChassisFanStatus.101
.1.3.6.1.4.1.3375.2.1.3.2.1.2.1.2.101
Fan status: bad(0), good(1), not present(2)
Integer

sysChassisFanStatus.102
.1.3.6.1.4.1.3375.2.1.3.2.1.2.1.2.102
Fan status: bad(0), good(1), not present(2)
Integer

sysChassisFanStatus.103
.1.3.6.1.4.1.3375.2.1.3.2.1.2.1.2.103
Fan status: bad(0), good(1), not present(2)
Integer

sysChassisFanStatus.104
.1.3.6.1.4.1.3375.2.1.3.2.1.2.1.2.104
Fan status: bad(0), good(1), not present(2)
Integer

sysChassisFanStatus.105
.1.3.6.1.4.1.3375.2.1.3.2.1.2.1.2.105
Fan status: bad(0), good(1), not present(2)
Integer

sysChassisFanStatus.106
.1.3.6.1.4.1.3375.2.1.3.2.1.2.1.2.106
Fan status: bad(0), good(1), not present(2)
Integer

sysChassisPowerSupplyNumber.0
.1.3.6.1.4.1.3375.2.1.3.2.2.1.0
Number of power supplies
Integer

sysChassisPowerSupplyStatus.101
.1.3.6.1.4.1.3375.2.1.3.2.2.2.1.2.101
Power supply state: bad(0), good(1), not present(2)
Integer

sysChassisTempNumber.0
.1.3.6.1.4.1.3375.2.1.3.2.3.1.0
Number of temperature sensors
Integer

sysChassisTempTemperature.1
.1.3.6.1.4.1.3375.2.1.3.2.3.2.1.2.1
Chassis Temperature
Integer

sysChassisTempTemperature.101
.1.3.6.1.4.1.3375.2.1.3.2.3.2.1.2.101
Chassis Temperature
Integer

Estado de Red

sysInterfaceNumber.0
.1.3.6.1.4.1.3375.2.1.2.4.1.1.0
Number of network interfaces
Integer

sysInterfaceName."1.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.3.49.46.49
Interface name
String

sysInterfaceName."1.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.3.49.46.50
Interface name
String

sysInterfaceName."1.3"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.3.49.46.51
Interface name
String

sysInterfaceName."1.4"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.3.49.46.52
Interface name
String

sysInterfaceName."2.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.3.50.46.49
Interface name
String

sysInterfaceName."2.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.3.50.46.50
Interface name
String

sysInterfaceName."mgmt"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.1.4.109.103.109.116
Interface name
String

sysInterfaceMediaActiveSpeed."1.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.3.49.46.49
Current media speed
Integer

sysInterfaceMediaActiveSpeed."1.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.3.49.46.50
Current media speed
Integer

sysInterfaceMediaActiveSpeed."1.3"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.3.49.46.51
Current media speed
Integer

sysInterfaceMediaActiveSpeed."1.4"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.3.49.46.52
Current media speed
Integer

sysInterfaceMediaActiveSpeed."2.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.3.50.46.49
Current media speed
Integer

sysInterfaceMediaActiveSpeed."2.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.3.50.46.50
Current media speed
Integer

sysInterfaceMediaActiveSpeed."mgmt"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.4.4.109.103.109.116
Current media speed
Integer

sysInterfaceMediaActiveDuplex."1.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.3.49.46.49
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceMediaActiveDuplex."1.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.3.49.46.50
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceMediaActiveDuplex."1.3"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.3.49.46.51
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceMediaActiveDuplex."1.4"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.3.49.46.52
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceMediaActiveDuplex."2.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.3.50.46.49
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceMediaActiveDuplex."2.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.3.50.46.50
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceMediaActiveDuplex."mgmt"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.5.4.109.103.109.116
Interface mode status: none(0), half(1), full(2)
Integer

sysInterfaceStatus."1.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.3.49.46.49
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

sysInterfaceStatus."1.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.3.49.46.50
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

sysInterfaceStatus."1.3"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.3.49.46.51
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

sysInterfaceStatus."1.4"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.3.49.46.52
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

sysInterfaceStatus."2.1"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.3.50.46.49
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

sysInterfaceStatus."2.2"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.3.50.46.50
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

sysInterfaceStatus."mgmt"
.1.3.6.1.4.1.3375.2.1.2.4.1.2.1.17.4.109.103.109.116
Interface status: up(0), down(1), disabled(2), uninitialized(3), loopback(4), unpopulated(5)
Integer

Estadísticas de tráfico

sysStatClientPktsIn.0
.1.3.6.1.4.1.3375.2.1.1.2.1.2.0
Total client side packets in
Counter64

sysStatClientBytesIn.0
.1.3.6.1.4.1.3375.2.1.1.2.1.3.0
Total client side bytes in
Counter64

sysStatClientPktsOut.0
.1.3.6.1.4.1.3375.2.1.1.2.1.4.0
Total client side paquets out
Counter64

sysStatClientBytesOut.0
.1.3.6.1.4.1.3375.2.1.1.2.1.5.0
Total client side bytes out
Counter64

sysStatClientMaxConns.0
.1.3.6.1.4.1.3375.2.1.1.2.1.6.0
Maximum client side connections
Counter64

sysStatClientTotConns.0
.1.3.6.1.4.1.3375.2.1.1.2.1.7.0
Total client side connections
Counter64

sysStatClientCurConns.0
.1.3.6.1.4.1.3375.2.1.1.2.1.8.0
Current client side connections
Counter64

sysStatServerPktsIn.0
.1.3.6.1.4.1.3375.2.1.1.2.1.9.0
Total server side packets in
Counter64

sysStatServerBytesIn.0
.1.3.6.1.4.1.3375.2.1.1.2.1.10.0
Total server side bytes in
Counter64

sysStatServerPktsOut.0
.1.3.6.1.4.1.3375.2.1.1.2.1.11.0
Total server side paquets out
Counter64

sysStatServerBytesOut.0
.1.3.6.1.4.1.3375.2.1.1.2.1.12.0
Total server side bytes out
Counter64

sysStatServerMaxConns.0
.1.3.6.1.4.1.3375.2.1.1.2.1.13.0
Maximum server side connections
Counter64

sysStatServerTotConns.0
.1.3.6.1.4.1.3375.2.1.1.2.1.14.0
Total server side connections
Counter64

sysStatServerCurConns.0
.1.3.6.1.4.1.3375.2.1.1.2.1.15.0
Current server side connections
Counter64

sysInterfaceStatBytesIn
1.3.6.1.4.1.3375.2.1.2.4.4.3.1.3
The number of bytes received on the specified interface.
Counter64

sysInterfaceStatBytesOut
1.3.6.1.4.1.3375.2.1.2.4.4.3.1.5
The number of bytes transmitted out of the specified interface.
Counter64

Detección de errores

sysStatDroppedPackets.0
.1.3.6.1.4.1.3375.2.1.1.2.1.46.0
Total dropped packets
Counter64

sysStatIncomingPacketErrors.0
.1.3.6.1.4.1.3375.2.1.1.2.1.47.0
Total incoming packet errors
Counter64

sysStatOutgoingPacketErrors.0
.1.3.6.1.4.1.3375.2.1.1.2.1.48.0
Total outgoing packet errors
Counter64

Estado de los Virtual Server
ltmVsStatusNumber.0
.1.3.6.1.4.1.3375.2.2.10.13.1.0
Number of virtual servers defined
Integer
ltmVsStatusName."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.13.2.1.1.7.68.101.109.111.86.83.49
Name of the virtual server
String
ltmVsStatusName."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.13.2.1.1.7.68.101.109.111.86.83.50
Name of the virtual server
String
ltmVsStatusAvailState."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.13.2.1.2.7.68.101.109.111.86.83.49
none(0): error, green(1): available in some capacity, yellow(2): not currently available, red(3): not available, blue(4): availability is unknown, gray(5): unlicensed
Integer
ltmVsStatusAvailState."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.13.2.1.2.7.68.101.109.111.86.83.50
none(0): error, green(1): available in some capacity, yellow(2): not currently available, red(3): not available, blue(4): availability is unknown, gray(5): unlicensed
Integer
ltmVsStatusEnabledState."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.13.2.1.3.7.68.101.109.111.86.83.49
none(0), enabled(1), disabled(2), disabledbyparent(3)
Integer
ltmVsStatusEnabledState."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.13.2.1.3.7.68.101.109.111.86.83.50
none(0), enabled(1), disabled(2), disabledbyparent(3)
Integer
NOTE: For these virtual-server-specific OIDs, the decimal values of each character in the virtual server name is used.  So in this example "68.101.109.111.86.83.49" are the decimal ASCII values of "DemoVS1".

Estadísticas de los Virtual Servers
ltmVirtualServStatClientPktsIn."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.6.7.68.101.109.111.86.83.49
Virtual Server 1 total client side packets in
Counter64
ltmVirtualServStatClientPktsIn."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.6.7.68.101.109.111.86.83.50
Virtual Server 2 total client side packets in
Counter64
ltmVirtualServStatClientBytesIn."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.7.7.68.101.109.111.86.83.49
Virtual Server 1 total client side bytes in
Counter64
ltmVirtualServStatClientBytesIn."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.7.7.68.101.109.111.86.83.50
Virtual Server 2 total client side bytes in
Counter64
ltmVirtualServStatClientPktsOut."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.8.7.68.101.109.111.86.83.49
Virtual Server 1 total client side packets out
Counter64
ltmVirtualServStatClientPktsOut."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.8.7.68.101.109.111.86.83.50
Virtual Server 2 total client side packets out
Counter64
ltmVirtualServStatClientBytesOut."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.9.7.68.101.109.111.86.83.49
Virtual Server 1 total client side bytes out
Counter64
ltmVirtualServStatClientBytesOut."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.9.7.68.101.109.111.86.83.50
Virtual Server 2 total client side bytes out
Counter64
ltmVirtualServStatClientMaxConns."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.10.7.68.101.109.111.86.83.49
Virtual Server 1 maximum client side connections
Counter64
ltmVirtualServStatClientMaxConns."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.10.7.68.101.109.111.86.83.50
Virtual Server 2 maximum client side connections
Counter64
ltmVirtualServStatClientTotConns."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.11.7.68.101.109.111.86.83.49
Virtual Server 1 total client side connections
Counter64
ltmVirtualServStatClientTotConns."DemoVS2"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.11.7.68.101.109.111.86.83.50
Virtual Server 2 maximum client side connections
Counter64
ltmVirtualServStatClientCurConns."DemoVS1"
.1.3.6.1.4.1.3375.2.2.10.2.3.1.12.7.68.101.109.111.86.83.49
Virtual Server 1 current client side connections
Counter64
ltmVirtualServStatClientCurConns."DemoVS2"

.1.3.6.1.4.1.3375.2.2.10.2.3.1.12.7.68.101.109.111.86.83.50

Virtual Server 2 current client side connections
Counter64
Estado de los Pool y miembros del pool
ltmPoolStatusAvailState
1.3.6.1.4.1.3375.2.2.5.5.2.1.2
The availability of the specified pool indicated in color.
none - error;
green - available in some capacity;
yellow - not currently available;
red - not available;
blue - availability is unknown;
gray - unlicensed
Integer
 ltmPoolStatusDetailReason
1.3.6.1.4.1.3375.2.2.5.5.2.1.5
The detail description of the specified pool's status
LongDisplayString
ltmPoolMbrStatusAvailState
1.3.6.1.4.1.3375.2.2.5.6.2.1.5
The availability of the specified pool member indicated in color.
none - error;
green - available in some capacity;
yellow - not currently available;
red - not available;
blue - availability is unknown;
gray - unlicensed
Integer
 ltmPoolMbrStatusDetailReason
1.3.6.1.4.1.3375.2.2.5.6.2.1.8
The detail description of the specified pool member's status
LongDisplayString
ltmPoolName
1.3.6.1.4.1.3375.2.2.5.1.2.1.1
The name of a pool
LongDisplayString
ltmPoolMinActiveMembers
1.3.6.1.4.1.3375.2.2.5.1.2.1.7
The minimum number of active members required for traffic to be sent to the specified pool. This feature is used for priority pools. The minimum active members take into account both the status of the pool member (up/down) as well as the number of connections present on the pool member. If the number of active members falls below this given threshold, traffic is sent to the next priority pool
Integer
ltmPoolMemberStatServerPktsIn
1.3.6.1.4.1.3375.2.2.5.4.3.1.5
The number of packets received by the specified pool member from server-side
Counter64
 ltmPoolMemberStatServerPktsOut
1.3.6.1.4.1.3375.2.2.5.4.3.1.7
The number of packets sent to server-side from the specified pool member."
Counter64
ltmPoolStatServerPktsIn
1.3.6.1.4.1.3375.2.2.5.2.3.1.2
The number of packets received by the specified pool from server-side
Counter64
 ltmPoolStatServerPktsOut
1.3.6.1.4.1.3375.2.2.5.2.3.1.4
The number of packets sent to server-side from the specified pool
Counter64
ltmPoolStatServerBytesIn
1.3.6.1.4.1.3375.2.2.5.2.3.1.3
The number of bytes received by the specified pool from server-side
Counter64
ltmPoolStatServerBytesOut
1.3.6.1.4.1.3375.2.2.5.2.3.1.5
The number of bytes sent to server-side from the specified pool
Counter64