Se acabó la fiesta cloud, 2023 es el año de la eficiencia
Bajo el mantra de la transformación digital, las empresas han destinado inversiones ingentes a tecnología en los últimos tres años. Buena parte de ellas se han dirigido al denominado viaje a la nube al considerarse una prioridad estratégica en muchas organizaciones, pero bastantes casos solo ha sido un “experimento”.
Los cantos de sirena de la nube, entonada al unísono por los denominados hiperescalares, es decir, los proveedores que facilitan servicios de infraestructura, plataforma y nube privada, tales como Amazon, Microsoft o Google, pero también, y concretamente en Europa, Deutsche Telekom y OVHcloud, entre otros, han llevado a muchas grandes empresas a cambiar sus infraestructuras on-premise por el uso de infraestructuras en la nube. Pero ¿han cumplido sus objetivos?
Lo cierto es que no o, al menos, no en la medida de lo esperado. Aunque, naturalmente, muchos CIOs y CEOs tienen reparo en reconocerlo, ha habido proyectos millonarios que no han obtenido un resultado claro y los hay incluso que directamente no conocen los resultados. El boom de la transformación digital y el encanto del viaje a la nube se han desinflado porque su reflejo en las cuentas no ha sido el esperado.
De las muchas iniciativas de digitalización en desarrollo, todavía son pocas las que están procurando los dividendos digitales que esperan los equipos directivos. De acuerdo con los datos que maneja la consultora Gartner, más de la mitad de los proyectos de digitalización no cumplen las expectativas del CEO / equipo directivo ni en tiempo (59%) ni en generación de valor (52%).
En un ejercicio de reconocimiento de los errores y de propósito de enmienda y, por supuesto, en la intimidad, hay ejecutivos que confiesan que el viaje a la nube ha sido una sorpresa envenenada. Dicen esto porque, si bien el coste de los servicios de los hiperescalares puede ser menor en el papel, lo cierto es que el coste total de propiedad (TCO), que al final es el que se refleja en la cuenta de resultados, es más elevado.
“IBM sabe muy bien que todo lo que acaba en el mainframe tiene un coste que no es banal, pero lo que acaba en la nube también”
IBM sabe muy bien que todo lo que acaba en el mainframe tiene un coste que no es banal, pero lo que acaba en la nube también lo tiene, como bien saben Amazon, Microsoft y Google. Ello es debido, de acuerdo con nuestra experiencia, a dos motivos fundamentales. Primero, la existencia de costes ocultos en el uso de los servicios, incluyendo el procesamiento de picos inesperados. Y, segundo, unos costes de operación más elevados debido a la necesidad de contar con perfiles profesionales especializados, con alta demanda en el mercado, escasos y, por tanto, más caros. Y, ¿por qué no decirlo?: también más improductivos debido a su escasa experiencia.
Menos inversión y más presión para el CIO
Además de los anuncios de despidos masivos de proveedores tan reconocidos como Amazon, Google y Microsoft, no resulta extraño en este entorno un ajuste de las previsiones de inversión en TI. De hecho, Gartner ya ha reducido a la mitad sus previsiones de gasto mundial en TI para 2023. Frente a su previsión de crecimiento del 5,1% del trimestre pasado, la consultora estima ahora el porcentaje de crecimiento de la inversión en TI para 2023 respecto a 2022 en un 2,4%, con un montante de 4,5 billones de dólares y llama la atención sobre el hecho de que el gasto en servicios TI crece más rápido que el de los servicios internos.
Existe, por tanto, una nueva presión en el CIO por parte del CEO, el CFO y las comisiones de tecnología de los Consejos de Administración, que demandan un modelo de eficiencia y servicio para reducir los costes sin poder en riesgo la operativa. Los objetivos de rendimiento financiero son la prioridad y su cumplimiento exige eficiencia.
2023, el año de la eficiencia
Constatado entonces que las promesas no se han cumplido, es necesario tomar decisiones y hay que hacerlo, además, en un escenario de contención de costes. Hay empresas que contemplan dar un giro radical y volver al modelo on-premise y en muchas otras se generaliza la tendencia de un modelo de nube híbrida, con los servicios críticos on-premise y ciertas aplicaciones en cloud.
Sea cual sea el modelo, lo que ha ocurrido reafirma nuestro convencimiento de que el control del rendimiento en los entornos cloud, ya sea público, privado o híbrido, es capital. Por otra parte, vuelve a ponerse de manifiesto otra debilidad importante y es que, aunque muchas empresas disponen de herramientas de monitorización, control y gestión, aún no han conseguido tener una visión real, completa y detallada de lo que está pasando.
Sobre este particular, disponen de visiones parciales de múltiples entornos y muchas dificultades para actuar, y cuando lo hacen, como en la mayoría de los casos es a través de un proveedor de servicios tercero, el coste de resolución del problema no solo se demora en el tiempo con el consiguiente impacto en los niveles de calidad del servicio y satisfacción de los usuarios, sino que también dispara los costes de mantenimiento.
La consecuencia es lógica: la monitorización y gestión proactiva de la tecnología -sea cual sea el modelo elegido- se consolida como prioridad. Efectivamente, desde nuestro punto de vista, la denominada “Applied Observability”, en la segunda posición del ranking de las “10 tendencias tecnológicas estratégicas para 2023” de Gartner -solo por detrás de “Digital Immune System”, es fundamental, pero es necesario ir más allá.
Visión, detección, resolución y optimización continuas
A la visión global, única y detallada, hay que sumar la capacidad de bucear, correlacionar, detectar y resolver problemas, y optimizar de forma continua. No basta con saber lo que está pasando y poder identificar los problemas, tanto durante el desarrollo de nuevo software como de las aplicaciones en funcionamiento; también hay que tener la capacidad para actuar teniendo en cuenta todas las dependencias y hacerlo, además, de forma cada vez más automática.
Esta capacidad de detección automatizada es capital porque, cuando se trata de errores en el software, se cumple la ley de Pareto, es decir, pocas tipologías de errores generan la mayor parte de los problemas.
Claramente asistimos a una vuelta a las necesidades básicas. Los gestores de las empresas quieren saber a ciencia cierta si las infraestructuras tecnológicas que dan soporte a la operativa de la empresa funcionan adecuadamente y a pleno rendimiento, no solo desde un punto de vista técnico, sino también funcional en cuanto que responden a las prioridades del negocio.
El rendimiento, entendido como la mejor combinación de eficiencia/costes, no es una moda, es un básico y la mejora continua de esta doble variable un imperativo para el tándem CIO / CEO. Necesitan poder vigilar de forma ininterrumpida el funcionamiento de infraestructuras y aplicaciones, ver cómo las decisiones que implican cambios tecnológicos se reflejan en la cuenta de explotación y en los niveles de servicio al cliente, y también poder medir los resultados de sus políticas de contratación de servicios tecnológicos para controlar las actuaciones de sus proveedores.
En suma, más eficiencia y modelos de gestión que aporten valor y mejoren la eficiencia operativa basada en KPIs sustanciales para el negocio, es decir, relevantes desde un punto de vista financiero.