En 2022, las organizaciones buscarán simplificar, optimizar y consolidar la observabilidad a través de una combinación de nuevas herramientas y prácticas.
por Dotan Horovits – InfoWorld

La importancia de la observabilidad ha sido bien establecida, con organizaciones que confían en métricas, registros y seguimientos para ayudar a detectar, diagnosticar y aislar problemas en sus entornos. Pero, como la mayoría de las cosas en TI, la observabilidad continúa evolucionando rápidamente, tanto en términos de cómo la gente la define como de cómo trabajan para mejorar la observabilidad en la práctica.
He argumentado en el pasado que la observabilidad es, en esencia, un problema de análisis de datos . La definición formal de observabilidad tiende a centrarse en las salidas externas de los sistemas de TI. Utilizo una definición un poco más amplia de observabilidad: “La capacidad de permitir que un humano haga y responda preguntas sobre el sistema”. Me gusta esta definición porque sugiere que la observabilidad debe incorporarse como parte del diseño del sistema (en lugar de agregarse como una ocurrencia tardía) y porque subraya la necesidad de que los ingenieros y administradores de sistemas aporten una mentalidad analítica al desafío de habilitar la observabilidad.
En 2022, busque organizaciones que profundicen y diversifiquen su uso de datos de telemetría, mientras consolidan sus herramientas, en un intento de mejorar su observabilidad. Tecnologías como eBPF y OpenTelemetry reducirán la barrera de acceso a la instrumentación, y las prácticas de análisis de datos maduros permitirán que los equipos de TI y DevOps identifiquen y respondan a los problemas de manera más rápida y efectiva.
Adopción más amplia del rastreo distribuido
Muchos líderes empresariales y de TI aún no se dan cuenta de cuánto potencial tiene el rastreo distribuido, y esto representa una gran oportunidad perdida en la búsqueda de optimizar la observabilidad. Sin embargo, es probable que el próximo año vea un aumento significativo en la adopción. A medida que más organizaciones migren sus cargas de trabajo a arquitecturas de microservicios y nativas de la nube, el seguimiento distribuido se volverá más frecuente como un medio para identificar dónde ocurren las fallas y qué causa el bajo rendimiento. Nuestra reciente encuesta DevOps Pulse muestra un aumento interanual del 38 % en el uso de rastreo por parte de las organizaciones, y el 64 % de los encuestados que aún no usan el rastreo dijeron que planeaban implementarlo en los próximos dos años.
El rastreo distribuido puede abrir un mundo completamente nuevo de observabilidad en numerosos procesos más allá del monitoreo de TI, en áreas tan diversas como la experiencia del desarrollador, el negocio y FinOps . El seguimiento distribuido se basa en instrumentar la aplicación con la mecánica de propagar el contexto al ejecutar solicitudes. Puede usar fácilmente el mecanismo de propagación de contexto para muchos otros procesos, como el seguimiento de la atribución de recursos o la información de planificación de capacidad por línea de producto o por cuenta de cliente.
El cumplimiento de la privacidad de datos es otra aplicación extremadamente útil del rastreo distribuido. A la luz de las regulaciones de cumplimiento emergentes, como GDPR y CCPA, la privacidad de los datos es una gran prioridad, y este desafío se ve agravado por el hecho de que el almacenamiento de bajo nivel a menudo desconoce el contexto del usuario. Al propagar las identificaciones de usuario de los niveles descendentes a los niveles de almacenamiento de datos, el rastreo distribuido puede ayudar a las organizaciones a aplicar mejor sus políticas de privacidad de datos.
Movimiento más allá de los ‘tres pilares’ de la observabilidad
Las discusiones sobre la observabilidad a menudo comienzan y terminan con lo que se ha dado en llamar los “tres pilares de la observabilidad”. Estos son métricas, registros y seguimientos. Las métricas ayudan a detectar problemas y permiten que DevOps o los ingenieros de confiabilidad del sitio entiendan lo que sucedió. Los registros, entonces, ayudan a diagnosticar problemas, proporcionando el “por qué” detrás del “qué”. Finalmente, los seguimientos ayudan a los ingenieros a identificar y aislar problemas al indicar dónde ocurrieron dentro de las solicitudes distribuidas y elaborar gráficos de microservicios.
Estos tres pilares siguen siendo de importancia crítica. Pero es importante no limitarse al paradigma de los “tres pilares” y elegir los datos de telemetría adecuados para sus necesidades. En el próximo año, espero que veamos más organizaciones adoptar tipos adicionales de señales de observabilidad, incluidos eventos y perfiles continuos.
También es importante recordar que los “tres pilares”, o cualquier otra señal de telemetría, son solo los datos sin procesar. Como escribí anteriormente, creo firmemente que la observabilidad es un problema de análisis de datos y, como tal, se trata de extraer información de manera proactiva de esos datos sin procesar, de manera similar a los analistas de BI. En diciembre, entrevisté a Frederic Branczyk, el fundador de Polar Signals y un apasionado defensor de la observabilidad. Compartió la brecha que ve en las empresas hoy en día:
Pretendemos en nuestra burbuja de observabilidad que todos tengan aplicaciones bien instrumentadas con seguimiento distribuido y registro estructurado. Pero la realidad es que, cuando miro una startup típica, es posible que ni siquiera estén monitoreando en absoluto. Están esperando que sus clientes les digan que algo anda mal antes de comenzar a investigar.
Más impulso detrás de eBPF
Extended Berkeley Packet Filter, o eBPF, es una tecnología que permite que los programas se ejecuten en el espacio del kernel del sistema operativo sin tener que cambiar el código fuente del kernel o agregar módulos adicionales. Actualmente, la práctica de la observabilidad se basa en gran medida en la instrumentación manual, lo que requiere la adición de código en puntos relevantes para generar datos de telemetría, lo que a menudo presenta una barrera importante e incluso puede impedir que algunas organizaciones implementen la observabilidad. Si bien existen agentes de autoinstrumentación, tienden a adaptarse a marcos y lenguajes de programación específicos. Sin embargo, eBPF permite a las organizaciones adoptar la instrumentación sin código en toda su pila de software, directamente desde el nivel del kernel del sistema operativo, lo que proporciona una observación más fácil en sus entornos de Kubernetes y ofrece beneficios en torno a las redes y la seguridad.
Debido a que eBPF funciona en diferentes tipos de tráfico, ayuda a las organizaciones a cumplir su objetivo de observabilidad unificada. Por ejemplo, los ingenieros de DevOps pueden usar eBPF para recopilar solicitudes de seguimiento de cuerpo completo, consultas de bases de datos, solicitudes HTTP o flujos de gRPC. También pueden usar eBPF para recopilar métricas de uso de recursos, incluido el uso de CPU o los bytes enviados, lo que permite a la organización calcular estadísticas relevantes y perfilar sus datos para comprender el consumo de recursos de varias funciones. Además, eBPF puede manejar tráfico encriptado.
Netflix publicó recientemente un blog sobre cómo la empresa está utilizando eBPF para capturar información de la red. Según la empresa, el uso de eBPF ha sido muy eficiente, consumiendo menos del uno por ciento de la CPU y la memoria en cualquier caso.
Unificación de herramientas en silos
A medida que la observabilidad madure, las organizaciones buscarán cada vez más plataformas de observabilidad holística, favoreciendo estas soluciones integradas sobre las herramientas más aisladas que han utilizado en el pasado. En comparación con las herramientas de observabilidad independientes, estas plataformas más holísticas pueden posicionar mejor a los desarrolladores, DevOps y SRE para abordar las consultas, la visualización y la correlación en todos sus diferentes tipos y fuentes de señales de telemetría.
Vimos esta tendencia de unificación el año pasado, con proveedores importantes como Grafana Labs, Datadog, AppDynamics y mi empresa Logz.io saliendo de sus respectivos dominios especializados en análisis de registros, monitoreo de infraestructura, APM u otros, y expandiéndose a una oferta de observabilidad más completa. Veremos esta tendencia acelerándose en 2022, adaptándose a las cambiantes necesidades de observabilidad y cambiando el panorama competitivo.
Adopción continua de herramientas y estándares de código abierto
La comunidad de código abierto creó Kubernetes (y, esencialmente, todo el concepto de “nube nativa”). Esta misma comunidad ahora ofrece herramientas y estándares de código abierto para monitorear estos entornos. Los nuevos estándares abiertos como OpenMetrics y OpenTelemetry madurarán y se convertirán de facto en estándares de la industria en el proceso. De hecho, OpenMetrics puede ser adoptado el próximo año como un estándar formal por IETF, la principal organización de estándares de Internet.
El auge de las herramientas de código abierto no solo brinda a las empresas opciones adicionales para permitir la observación, sino que también evita el bloqueo de proveedores que históricamente ha afectado a algunos rincones de la industria de TI.
En este momento, el panorama de código abierto para la observabilidad es bastante dinámico, con una serie de proyectos importantes que surgieron en los últimos dos años. A veces puede ser difícil para los administradores de sistemas y DevOps mantener estas soluciones en orden (especialmente porque muchos han adoptado la convención de nomenclatura de “OpenSomething”), pero están comenzando a converger. Cada día en 2022, nos acercaremos más a algo parecido a la estandarización de código abierto, y más cerca del ideal de observabilidad unificada.
El autor
Dotan Horovits es el evangelista principal de tecnología en Logz.io. Con más de 20 años en la industria de alta tecnología como desarrollador de software, arquitecto de soluciones y gerente de producto, aporta una gran cantidad de conocimientos en computación en la nube, soluciones de big data, prácticas de DevOps y más. Dotan es un ferviente defensor del software de código abierto, los estándares abiertos y las comunidades abiertas. Organiza el capítulo local de Cloud Native Computing Foundation (CNCF) en Tel-Aviv y dirige el podcast OpenObservability Talks, entre otros.
Fuente: https://www.infoworld.com/article/3648053/5-key-observability-trends-for-2022.html