Guía de hardware de servidor
Las plataformas de servidores actuales ofrecen una gran cantidad de opciones para las pymes y los compradores de TI empresariales; es importante aprender lo esencial antes de tomar cualquier decisión de compra.
Las Plataformas de Computación en la Nube y la Virtualización
El crecimiento explosivo de las plataformas de computación en la nube y la ola anterior de virtualización han alterado significativamente el papel del servidor entre las PYMES y las empresas.
La virtualización permitió a las organizaciones cargar varias máquinas virtuales (VM) en una sola caja física, lo que aumentó la utilización del hardware y ofreció la capacidad de consolidar los recursos de TI. La virtualización allanó el camino hacia la nube, ya que los administradores de TI pudieron transferir máquinas virtuales fuera del sitio para ejecutarlas en proveedores de hiperescala, como AWS, Google y Microsoft. Las aplicaciones críticas para el negocio, como CRM, HR y ERP, que anteriormente operaban en servidores internos , también viajaron a la nube en forma de software como servicio.
Dicho esto, las empresas de todos los tamaños seguirán siendo propietarias y operarán servidores. Algunas organizaciones prefieren mantener servidores internos y nubes privadas para cargas de trabajo particularmente sensibles o aplicaciones demasiado costosas o difíciles de migrar a una plataforma de nube pública.
Siga leyendo para obtener más información sobre los diferentes tipos de servidores, sus arquitecturas en evolución y lo que los compradores de TI deben buscar con respecto a los requisitos clave.
Tipos de hardware de servidor
Los mainframes de las décadas de 1950 y 1960 pueden considerarse los servidores originales, pero la historia de los servidores en el sentido moderno comenzó en la década de 1990 con la invención de los servidores web y montados en rack. Hoy en día, los servidores vienen en una variedad de factores de forma y ofrecen diferentes capacidades, encontrando un hogar en entornos que van desde pequeñas empresas hasta grandes empresas.
Aquí hay un resumen de algunos de los tipos predominantes de hardware de servidor:
Servidores de torre. Un servidor de torre reside en un gabinete vertical e independiente, que se asemeja a una PC estilo torre. Estos servidores brindan el beneficio de un enfriamiento más fácil porque ofrecen una densidad de componentes relativamente baja. También son relativamente económicos, lo que los convierte en una opción para empresas más pequeñas con un presupuesto limitado. Los servidores de torre, sin embargo, ocupan más espacio que otros tipos de servidores.
Servidores en rack. Un servidor en rack, como su nombre indica, está diseñado para montarse en un rack de servidores en un centro de datos. Los servidores en rack a menudo desempeñan una función informática integral en el centro de datos, ya que admiten una multitud de cargas de trabajo.
Estos servidores ocupan menos espacio que un servidor de torre. Los servidores en rack y los racks de servidores están construidos con estándares de tamaño consistentes para que los servidores de múltiples proveedores puedan apilarse juntos. La estandarización también hace que agregar nuevos servidores o reemplazar los antiguos sea una tarea sencilla para los ingenieros . Sin embargo, la gestión de cables puede resultar un desafío al mantener servidores en rack, que están conectados a fuentes de alimentación, equipos de red y dispositivos de almacenamiento.
Servidores Blade. Un servidor blade es un dispositivo compacto que aloja varias placas de circuitos modulares delgadas denominadas servidores blade. Cada blade contiene un solo servidor, que a menudo se asigna a una aplicación. Dado que los servidores blade tienden a ser dedicados, los administradores tienen un mayor control sobre cómo se accede a ellos y cómo se transfieren los datos entre dispositivos.
Los servidores blade ofrecen una mayor densidad de procesamiento que otros tipos de servidores, lo que proporciona una ventaja potencial en precio y rendimiento. Otros beneficios del servidor blade incluyen refrigeración (cada blade se enfría individualmente mediante ventiladores), cableado mínimo, bajo consumo de energía y consolidación del almacenamiento. Los sistemas de servidor blade también son más fáciles de reparar que los servidores en rack debido a sus componentes modulares intercambiables en caliente. En el lado negativo, históricamente los servidores blade se han construido sobre arquitecturas propietarias, lo que hace que el bloqueo del proveedor sea una posible trampa para los compradores.
Infraestructura hiperconvergente (HCI). Los sistemas HCI tienen como objetivo proporcionar una alternativa más simple a la infraestructura de TI tradicional, reuniendo potencia informática, almacenamiento y tecnología de hipervisor en un sistema integrado. Con una oferta típica de hiperconvergencia , un ingeniero de centro de datos de nivel medio debería poder completar las tareas de configuración inicial de hardware, implementación de hipervisor e implementación de almacenamiento definido por software en aproximadamente una hora. Los productos de los proveedores ofrecen asistentes de configuración para recopilar la información adecuada. Los procesos de implementación son en su mayoría automatizados.
Computadoras centrales. Se pronosticó que el auge de las arquitecturas cliente-servidor en la década de 1990 eliminaría los mainframes, pero esos servidores de alta gama continúan existiendo. Los mainframes de hoy en día ofrecen la capacidad de admitir grandes volúmenes de transacciones simultáneas y grandes cargas de E/S sin afectar el rendimiento. Las empresas de servicios financieros que realizan transacciones simultáneas en tiempo real se encuentran entre los clientes típicos de mainframe. Los principales inconvenientes de los mainframes son su tamaño y precio.
Arquitectura de hardware del servidor
Los componentes clave de la arquitectura del hardware del servidor incluyen la placa base, el procesador, la memoria de acceso aleatorio (RAM) y el almacenamiento.
La Placa Base
La placa base reside en el corazón del servidor y proporciona el nexo central a través del cual se interconectan los componentes del sistema y se conectan los dispositivos externos. Advanced Technology Extended y Low Profile Extension son los principales tipos de placas base, con las placas base Balance Technology Extended, Pico BTX y Mini Information Technology Extended que abordan las necesidades de los factores de forma más pequeños.
El Procesador
El procesador, o unidad central de procesamiento (CPU), reside en la placa base. Los componentes de la CPU incluyen la unidad lógica aritmética, la unidad de coma flotante, los registros y la memoria caché. Un servidor también puede contener una unidad de procesamiento de gráficos (GPU), que puede admitir aplicaciones como el aprendizaje automático y las simulaciones. Y la llegada de unidades de procesamiento de tensor y unidades de procesamiento neuronal ofrece niveles adicionales de especialización del procesador.
RAM y Administración
Los microchips RAM también se conectan a la placa base y sirven como memoria principal del sistema. La RAM contiene el sistema operativo, las aplicaciones y los datos en uso para que el procesador pueda acceder rápidamente a ellos. En cuanto al almacenamiento, un servidor puede usar una unidad de disco duro, una unidad de estado sólido (SSD) o una combinación de ambas.
Mientras tanto, el factor de forma de un servidor influye en el papel que desempeñará. Un centro de datos empresarial, por ejemplo, podría considerar las diferencias entre los factores de forma del servidor en rack y blade.
Una organización que busque ejecutar un centro de datos heterogéneo podría elegir servidores en rack porque varias marcas y modelos pueden coexistir en un enfoque de implementación física común. Los servidores en rack también ofrecen una gama de conexiones de alimentación y opciones de cableado de red. Los servidores de racks grandes también ofrecen extensibilidad, acomodando procesadores adicionales, memoria y discos de almacenamiento local.
Mientras tanto, los servidores blade están orientados a configuraciones de TI de un solo proveedor que buscan unir computación, almacenamiento y redes dentro de un solo sistema. El enfoque del servidor blade ofrece los beneficios de una implementación más rápida y una administración simplificada.
La Infraestructura
Otras tendencias en la arquitectura de servidores incluyen la desagregación y la infraestructura componible, que puede verse como una continuación de la infraestructura convergente. La infraestructura componible utiliza métodos definidos por software para agrupar lógicamente los recursos informáticos, de almacenamiento y de estructura de red en un centro de datos. Esos recursos se convierten en la base de los servicios compartidos, a los que los administradores pueden recurrir para crear instancias informáticas sobre la marcha.
Requisitos
Los compradores de TI en el mercado de servidores deben considerar una serie de factores al evaluar las ofertas de los proveedores de hardware, teniendo en cuenta sus necesidades de carga de trabajo actuales y futuras. Los requisitos de una organización variarán naturalmente, pero girarán en torno a las siguientes funciones de hardware del servidor .
UPC. La CPU es un componente fundamental a revisar, dada su función en la ejecución de programas y la manipulación de datos. Algunos servidores ejecutan múltiples procesadores, normalmente con un procesador por socket. Otros usan un solo procesador que consta de varios núcleos para admitir el multiprocesamiento. Dadas esas posibilidades, los compradores deben considerar la cantidad de núcleos disponibles en un procesador, la velocidad del reloj de la CPU, el caché disponible y la cantidad de zócalos.
Los proveedores ofrecen una variedad de opciones de productos, por lo que el trabajo del comprador de TI consiste en encontrar la configuración de hardware del servidor que mejor se adapte a un entorno en particular. Las organizaciones que ejecutan infraestructura en la nube en un centro de datos, por ejemplo, pueden realizar una variedad de tareas informáticas de uso general en un servidor de CPU única de 0,5U o un servidor de CPU dual de 1U. La unidad relativamente pequeña de 1U podría resultar una buena opción, ya que puede acomodar fácilmente 16 núcleos con enfoques normales de enfriamiento del centro de datos. Esta categoría de servidor también proporciona cierta flexibilidad cuando se trata de unidades de almacenamiento y conexiones.
Memoria. La memoria del servidor es fundamental para obtener el máximo rendimiento de un sistema. Cuanto mayor sea la cantidad de memoria disponible, mejor será el rendimiento de las cargas de trabajo de una organización. Otros factores que contribuyen al rendimiento incluyen la velocidad y la calidad de la memoria. Los compradores de TI también deben considerar las características del servidor que refuerzan la confiabilidad. Estos incluyen capacidades tolerantes a fallas y código de corrección de errores.
Almacenamiento. Los requisitos de almacenamiento de un servidor dependerán de las aplicaciones y cargas de trabajo previstas: un servidor de base de datos tendrá diferentes necesidades que uno que ejecuta una aplicación web. Un comprador de TI debe examinar la tecnología del servidor para asegurarse de que cumpla con los requisitos de almacenamiento de la organización.
La mayoría de los proveedores de servidores admiten almacenamiento flash en forma de SSD y tecnología de disco duro tradicional. Dicho esto, los compradores deben consultar con los proveedores para confirmar los tipos de unidades que admiten, así como sus tecnologías de unidades compatibles, que pueden incluir SCSI conectado en serie, accesorio de tecnología avanzada en serie y memoria no volátil express ( NVMe ). La carga de trabajo prevista del servidor determinará qué tecnología es un elemento imprescindible. Por ejemplo, una organización que maneja grandes bases de datos y datos no estructurados generalmente requerirá unidades de instancia local, como unidades NVMe PCI Express.
Otros factores en la lista de verificación de almacenamiento del servidor deben incluir la velocidad de la unidad y el espacio en disco.
Conectividad. La conectividad de la red y las interconexiones, como los adaptadores de bus de host, que conectan los servidores con el almacenamiento, también son consideraciones importantes sobre el servidor. Los compradores deben determinar sus requisitos de conectividad y luego examinar las especificaciones de un servidor para asegurarse de que se cumplan esas necesidades. Las variables a evaluar incluyen el número y la velocidad de los conectores Ethernet, el número y tipo de puertos USB y la compatibilidad con sistemas de almacenamiento, como redes de área de almacenamiento.
Otras características. Los atributos adicionales para investigar incluyen capacidades de intercambio en caliente y el nivel de redundancia disponible para componentes como discos duros, unidades de fuente de alimentación y ventiladores. Las capacidades de administración del servidor y las funciones de seguridad también son importantes.
También se debe pensar en el entorno operativo general en el que residirán los nuevos servidores. Mantener la temperatura y la humedad del servidor dentro de los rangos recomendados contribuye a una alta disponibilidad. La Sociedad Estadounidense de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado (ASHRAE) en 2015 actualizó sus rangos de temperatura y humedad recomendados para el hardware del centro de datos. El extremo superior del rango de temperatura ASHRAE, por ejemplo, ahora se establece en 80,6 grados Fahrenheit. Las pautas pueden potencialmente ayudar a las empresas a ahorrar en costos de electricidad y energía del centro de datos.
Gestión y mantenimiento
Administrar servidores y mantenerlos en funcionamiento abarca una variedad de actividades y herramientas.
Los sistemas de monitoreo de servidores, por ejemplo, brindan datos críticos que los administradores pueden usar para detectar problemas antes de que se conviertan en problemas que podrían provocar interrupciones. Algunos de los componentes y herramientas esenciales del monitoreo de servidores incluyen herramientas de administración de capacidad que rastrean el uso de recursos, como CPU, memoria y almacenamiento.
Mientras tanto, las herramientas especializadas de consumo de energía permiten a los administradores medir la eficiencia de un servidor. Las herramientas de esta categoría incluyen medidores integrados en fuentes de alimentación ininterrumpida, que informan el consumo de energía de los dispositivos conectados. Otras opciones incluyen medidores de potencia externos, calculadoras de consumo de energía en línea y herramientas de configuración de proveedores de hardware.
Aunque el mantenimiento adecuado debería ayudar a prolongar la vida útil del servidor, la degradación del hardware es inevitable. Los componentes físicos de un servidor eventualmente se estropearán, y la energía, la temperatura, la administración y la memoria se encuentran entre las áreas problemáticas. En algún momento, será necesario desmantelar y reemplazar los servidores.
En el extremo superior del espectro de servidores, el desmantelamiento adecuado del mainframe requiere varios pasos. Inicialmente, los administradores de TI deben hacer un inventario de las aplicaciones que se ejecutan en el servidor de mainframe. El siguiente paso es subcontratar las aplicaciones a un proveedor de servicios especializado en mainframes o cambiar la plataforma de las aplicaciones de mainframe para operar en servidores x86. Los administradores también deben crear un plan de seguridad, que podría incluir la eliminación de los datos del mainframe o la destrucción de los discos duros.
Solución de problemas
El hardware al final de su vida deberá reemplazarse en algún momento, pero hasta entonces, los administradores deben solucionar los problemas de un servidor para mantenerlo en funcionamiento. Un primer paso importante es determinar el alcance del problema: ¿quiénes son los usuarios afectados y están informando algún mensaje de error consistente? Una vez que el problema está aislado en un servidor en particular, los administradores pueden consultar las herramientas de monitoreo para alertas, verificar las conexiones de red y revisar la topología del entorno del servidor.
La resolución de problemas y el uso de herramientas de monitoreo pueden ayudar a las organizaciones a mantener la disponibilidad del sistema. Pero hay otros pasos que las organizaciones pueden tomar a medida que desarrollan enfoques para prevenir y recuperarse de fallas en el servidor . Estos incluyen mantener una ventilación adecuada del servidor y control de temperatura y seguir un régimen de mantenimiento de rutina.
La falta de actualización de las máquinas también se encuentra entre los principales problemas comunes de hardware del servidor que pueden resultar en un rendimiento deficiente. Las organizaciones deben desarrollar un proceso para actualizar periódicamente las aplicaciones, el firmware y los sistemas operativos. También se debe prestar especial atención a la seguridad y la potencia del servidor. Este último contempla la instalación de fuentes de alimentación ininterrumpida y la compra y prueba de generadores in situ.
El futuro del hardware de servidor
El futuro del hardware de servidor debe verse en el contexto de la computación en la nube y su creciente influencia. La firma de investigación de mercado Techaisle, una empresa de investigación de mercado de TI para pymes con sede en San José, California, informó que el 85 % de las pequeñas empresas de EE. UU. ya usan la nube y el 10 % planea hacerlo en los próximos 6 a 12 meses. El mercado de TI empresarial también ha experimentado un cambio significativo hacia la nube, con eventos como la pandemia de COVID-19 que han provocado que las empresas trasladen más cargas de trabajo a plataformas en la nube como medida de resiliencia empresarial.
Sin embargo, los centros de datos corporativos y de pequeñas empresas seguirán siendo propietarios y operadores de servidores, a menudo como parte de entornos de nube híbrida. Fuera de esas organizaciones, los proveedores de servicios probablemente tendrán influencia como compradores clave de servidores. Omdia, una firma de investigación de tecnología con sede en Londres, estimó que aproximadamente dos de cada tres servidores se enviarán a proveedores de servicios en la nube o proveedores de redes de telecomunicaciones en 2020. El pronóstico de la compañía prevé que ese patrón se intensifique: en 2024, los proveedores de servicios operarán tres de cada cuatro servidores, según Omdia .
Los servidores seguirán siendo importantes, pero la forma en que se consume la tecnología seguirá cambiando.
Fuente: TechTarget