TI: ¿hacia un mundo bajo vigilancia?
La informática está en constante evolución. Rápidamente. Las principales tendencias actuales traen consigo nuevos desafíos para la gestión de TI. Aclamada por ofrecer una seguridad óptima a las empresas, la supervisión también debe adaptarse constantemente. Visión general de los problemas.
La vigilancia en el corazón de la seguridad
Más allá de las apuestas económicas o geopolíticas, la invasión de Ucrania por parte de Rusia ha puesto de relieve la importancia de la seguridad. Todos los jugadores ven -y les preocupa- un marcado aumento de la ciberdelincuencia y el ciberacoso, insistiendo en la necesidad de estar más atentos que nunca a la más mínima anomalía.
Detrás de SolarWinds a fines de 2020 o del ataque de ransomware Kaseya el verano pasado, Rusia todavía está en el punto de mira. No hace falta una bola de cristal para predecir que el tema de la seguridad seguirá ocupando un lugar central en los próximos meses, más que cualquier otro tema.
Si el modelo Zero Trust es muy popular actualmente –unos años de experiencia y un poco de sentido común me dicen que no solucionará el problema de la seguridad: Sistemas complejos, costes elevados y, por último, pero no menos importante, el factor humano impide– y seguirá previniendo, haciendo que los sistemas sean absolutamente seguros.
Pero cualquier medida que haga que una red sea un poco más segura es definitivamente bienvenida. Estrictamente hablando, una herramienta de monitoreo no puede ser considerada como un software de seguridad. Sin embargo, es un elemento constitutivo de un concepto de seguridad general: al monitorear el correcto funcionamiento y las actualizaciones de los firewalls y el software antivirus, puede detectar actividades inusuales dentro de la red y, por lo tanto, posiblemente descubrir malware. El monitoreo también juega un papel importante en el concepto de confianza cero, por ejemplo, cuando se trata de monitorear el estado de los dispositivos.
La nube: ¡híbrida ante todo!
Con la crisis sanitaria y la explosión del teletrabajo, la Nube ha tomado un lugar destacado. Este no es un cambio de paradigma fundamental, sino más bien una aceleración. Hace apenas unos años, la tendencia general era que tarde o temprano todo se trasladaría a la nube pública.
Sin embargo, la migración de servicios y sistemas a la Nube no siempre ha demostrado ser la solución ideal para las empresas, ya sea por cuestiones de seguridad, dudas sobre el acceso a datos sensibles cuando estos se encuentran almacenados en otros países, pero también por el rendimiento de la red, sobre la cual el departamento de TI no puede intervenir. Por lo tanto, los hechos nos han llevado a poner estos pronósticos en perspectiva: la nube híbrida se ha convertido en la norma.
Las soluciones monitorean TI tanto en las instalaciones como en la nube. El desafío es adaptar constantemente el monitoreo para integrar constantemente nuevas aplicaciones o nuevos proveedores de nube. Al asegurarse de tener siempre una visión general y una vista centralizada, los departamentos de TI garantizan la disponibilidad y el rendimiento general de su TI.
IA al servicio de la vigilancia
Sin embargo, la IA «real» cada vez más presente en forma de aprendizaje automático todavía se confunde a menudo con algoritmos más o menos complejos. Las oportunidades y posibilidades que se ven en torno a la IA son infinitas. No cabe duda de que representa un reto diario en la informática del mañana.
Por supuesto, la IA puede desempeñar un papel importante en la vigilancia. La monitorización reúne cantidades gigantescas de datos y la combinación de la nube y la IA o Machine Learning está predestinada para el análisis de estos datos y el reconocimiento de patrones. Esto puede implicar identificar anomalías, mejorar el análisis de causas, estudiar tendencias y mejorar el mantenimiento predictivo.
Hasta la fecha, solo unas pocas soluciones de vigilancia confían en la IA, principalmente para garantizar la seguridad o el rendimiento de las aplicaciones basadas en análisis de tráfico avanzado. En el futuro, las soluciones de vigilancia a gran escala sin duda serán más inteligentes de una forma u otra. No obstante, habrá que matizar, caso por caso, si se trata realmente de aprendizaje automático o simplemente de algoritmos inteligentes. Porque más allá de la terminología y los eslóganes, solo cuentan los resultados. El monitoreo es una herramienta práctica a largo plazo cuya tarea principal es monitorear el desempeño y la disponibilidad de las tecnologías actuales.
Todo definido por software
Al pasar de SDN (Software-Defined Networking) a SDx – Software-Defined Everything, la inteligencia se ha trasladado cada vez más a una capa de software y las ventajas son obvias: los dispositivos «más tontos» y, por lo tanto, más baratos se configuran y controlan de tal manera centralizado, reduciendo así los costos de adquisición y operación.
¿Qué consecuencias para la vigilancia informática? Accediendo a la capa de software del equipo se pueden obtener muchos valores. Al mismo tiempo, se pueden monitorear a escala factores adicionales, como el hardware subyacente, el tráfico y la infraestructura circundante, lo que brinda una imagen completa de todo el entorno SDx. Al final, el SDx no cambió mucho y, en última instancia, es solo un componente nuevo que debe integrarse en una estrategia de vigilancia general.
IoT, IoMT e Industria 4.0
A menudo marginales y separados de TI, los equipos de producción, los dispositivos médicos o las herramientas de gestión de edificios generan cada vez más datos y la competencia en el transporte, almacenamiento y procesamiento de datos ahora es responsabilidad de la «ciencia informática». Esta convergencia, aún poco asociada a las TI tradicionales, con excepción de la seguridad, es sin embargo un gran desafío y afecta el campo de acción de los equipos de TI.
Tomemos el ejemplo de un hospital: el médico que accede a las radiografías y los datos del paciente en su computadora portátil depende de la computadora que administra la red y los datos. Pero los equipos de TI necesitan acceso a equipos médicos, por ejemplo, a la máquina de rayos X, pero también al PACS (Picture Archiving and Communication System), el sistema de archivo y procesamiento de imágenes. Luego está la cuestión del acceso y los permisos. Una vez resuelto este punto, la monitorización global de entornos convergentes permite a los departamentos de TI identificar de forma inmediata dónde radica el problema en caso de avería o mal funcionamiento (cuello de botella).
Por supuesto, esto solo funciona si la solución de monitoreo puede monitorear tanto las infraestructuras médicas como las de TI, porque en el campo médico no existe un sistema de monitoreo global. De ahí los desafíos, para una solución de supervisión transversal, para integrar infraestructuras médicas soportando los protocolos correspondientes como DICOM (gestión de datos de imágenes) o HL7 (gestión de datos de pacientes).
En la misma lógica, los métodos OPC UA o los protocolos MQTT o Modbus permiten supervisar instalaciones de producción industrial y sistemas OT.
Es así como podrá ofrecer la gestión de TI, dentro de un tablero central, una visión completa de los equipos y un rápido análisis de errores.
Conclusión
Las nuevas tecnologías no se adoptan ampliamente en un tiempo récord. Lo que los analistas y la prensa hablan hoy, generalmente no se pone en práctica hasta el día siguiente en unas pocas empresas… y días después en la mayoría de ellas. Por lo tanto, me parece una prioridad clara garantizar un apoyo amplio y fiable para las tecnologías establecidas. Por lo tanto, antes de pasar al mañana, una solución de monitoreo debe enfrentar los desafíos de hoy y cumplir con los requisitos actuales de los usuarios, tal como se han descrito en el post de News Informatique.