Las exi­ge­n­cias de las empresas de TI crecen co­n­s­ta­n­te­me­n­te, y es que los se­r­vi­do­res se enfrentan cada vez a una mayor cantidad de datos sin que por ello se in­cre­me­n­te ne­ce­sa­ria­me­n­te el pre­su­pue­s­to di­s­po­ni­ble. Esto ha generado una enorme demanda de sistemas hi­pe­r­co­n­ve­r­ge­n­tes en el ámbito de las in­frae­s­tru­c­tu­ras de TI. En la ac­tua­li­dad, los centros de datos suelen trabajar con sistemas centrales de al­ma­ce­na­mie­n­to. Por el contrario, una in­frae­s­tru­c­tu­ra hi­pe­r­co­n­ve­r­ge­n­te (hyper-converged in­fra­s­tru­c­tu­re, HCI) utiliza un hardware tan habitual como equipos con discos duros o SSD (unidades de estado sólido) in­te­gra­dos. La gran ventaja de estas es­tru­c­tu­ras radica en que ce­n­tra­li­zan la gestión de todas las tareas (vi­r­tua­li­za­ción, red, al­ma­ce­na­mie­n­to) propias de los centros de datos.

¿Qué es la hi­pe­r­co­n­ve­r­ge­n­cia?

Partiendo de la propia te­r­mi­no­lo­gía podemos entender mejor cómo funcionan las in­frae­s­tru­c­tu­ras co­n­ve­r­ge­n­tes. «Hi­pe­r­co­n­ve­r­ge­n­cia» incluye a «co­n­ve­r­ge­n­cia», que no es otra cosa que la co­n­ce­n­tra­ción de varias cosas en un punto: en una ar­qui­te­c­tu­ra co­n­ve­r­ge­n­te se agrupan diversos co­m­po­ne­n­tes de TI en un paquete. En los últimos años, para ponerse a la altura de los retos que presenta la vi­r­tua­li­za­ción, la co­n­ve­r­ge­n­cia ha devenido en hi­pe­r­co­n­ve­r­ge­n­cia. El camino que lleva de una in­frae­s­tru­c­tu­ra tra­di­cio­nal a un sistema de HCI sigue un esquema claro: más efi­cie­n­cia a través de la si­m­pli­fi­ca­ción.

La in­frae­s­tru­c­tu­ra TI tra­di­cio­nal

El centro de datos de una empresa suele co­m­pre­n­der varios aspectos o tareas, como son la red, el al­ma­ce­na­mie­n­to, el cómputo, en el mejor de los casos, un sistema de copia de seguridad y re­cu­pe­ra­ción ante desastres. Cada uno de ellos funciona de forma in­de­pe­n­die­n­te en su propio hardware con so­lu­cio­nes de software di­fe­re­n­tes y se gestiona por separado. La co­m­ple­ji­dad y la in­di­vi­dua­li­dad de cada uno de estos sistemas hacen necesario el empleo de es­pe­cia­li­s­tas. Un ad­mi­ni­s­tra­dor de red, por ejemplo, no puede en­ca­r­gar­se al mismo tiempo de la gestión del al­ma­ce­na­mie­n­to.

Un de­pa­r­ta­me­n­to in­fo­r­má­ti­co de esta índole co­n­s­ti­tu­ye un sistema sólido y eficiente si se gestiona y mantiene ade­cua­da­me­n­te, pero también es muy rígido y difícil de modificar. Los co­m­po­ne­n­tes nuevos implican un gasto elevado, lo que hace que solo se renueven o adquieran en ciclos muy largos, y si resultara que los medios de que se dispone ya no sa­ti­s­fa­cen las exi­ge­n­cias, los nuevos aparatos deberían uti­li­zar­se igua­l­me­n­te por lo menos durante los años si­guie­n­tes. Esto significa que las ca­pa­ci­da­des ne­ce­sa­rias no se proveen en función de la demanda, sino en base a un plan an­ti­ci­pa­do.

Además, como estos sistemas son tan sensibles a los cambios, los ad­mi­ni­s­tra­do­res deben invertir una gran dosis de energía y buenos nervios en la in­s­ta­la­ción de la in­frae­s­tru­c­tu­ra de TI para que todos los elementos se ajusten entre sí de tal forma que funcionen sa­ti­s­fa­c­to­ria­me­n­te. Los co­m­po­ne­n­tes nuevos deben in­s­ta­lar­se con sumo cuidado para que no de­s­ba­ra­ten el equi­li­brio técnico.

Hacia una in­frae­s­tru­c­tu­ra co­n­ve­r­ge­n­te

En co­n­tra­po­si­ción, en un sistema co­n­ve­r­ge­n­te todos sus co­m­po­ne­n­tes se unifican en el marco común de un solo di­s­po­si­ti­vo, un appliance en el cual trabajan juntos pero mantienen su autonomía. En este caso es el proveedor quien los configura y ajusta pre­via­me­n­te para ga­ra­n­ti­zar su buen fu­n­cio­na­mie­n­to en conjunto, lo que significa que el de­pa­r­ta­me­n­to de TI de la empresa ya no tiene que hacerlo.

Desde el punto de vista de la or­ga­ni­za­ción, la ar­qui­te­c­tu­ra co­n­ve­r­ge­n­te también tiene otras ventajas, entre ellas, que este tipo de sistemas procura un mayor orden en la sala de los se­r­vi­do­res, porque los diversos co­m­po­ne­n­tes físicos se guardan in­te­r­co­ne­c­ta­dos en armarios para se­r­vi­do­res. Con todo, siguen siendo di­s­po­si­ti­vos in­de­pe­n­die­n­tes que se mantienen de la misma forma por personal es­pe­cia­li­za­do. Cuando debe ac­tua­li­zar­se el hardware, las ex­te­n­sio­nes no pueden si­m­ple­me­n­te añadirse, sino que se ha de readaptar el sistema por completo. En este aspecto, los sistemas co­n­ve­r­ge­n­tes no se di­fe­re­n­cian de sus pre­de­ce­so­res.

Los cambios in­tro­du­ci­dos por la vi­r­tua­li­za­ción

En la ac­tua­li­dad el estado de la cuestión se sitúa en la vi­r­tua­li­za­ción: en lugar de crear diversos entornos físicos, los ad­mi­ni­s­tra­do­res crean capas virtuales en las que ofrecen los servicios de servidor, memoria y red. Esto permite que varios se­r­vi­do­res se ejecuten en una misma pla­ta­fo­r­ma, por ejemplo, y garantiza la re­n­ta­bi­li­za­ción de los recursos porque estos están di­s­po­ni­bles para todo el sistema y no para los di­fe­re­n­tes co­m­po­ne­n­tes físicos, que en realidad no se usan en todo su potencial. En este entorno virtual, el hi­pe­r­vi­sor, una capa de ab­s­tra­c­ción que se interpone entre el hardware y el software, se encarga de di­s­tri­buir los recursos entre los co­m­po­ne­n­tes de modo equi­ta­ti­vo.

Para que la vi­r­tua­li­za­ción funcione bien es muy im­po­r­ta­n­te que los co­m­po­ne­n­tes puedan co­mu­ni­car­se rá­pi­da­me­n­te, por lo que las máquinas virtuales también necesitan redes de al­ma­ce­na­mie­n­to. Los llamados LUN (Logical Unit Numbers) pueden estar co­n­s­ti­tui­dos tanto por simples discos duros como por co­m­po­ne­n­tes de la red de al­ma­ce­na­mie­n­to general, pero en ambos casos ha de ser un es­pe­cia­li­s­ta en al­ma­ce­na­mie­n­to el re­s­po­n­sa­ble de su in­s­ta­la­ción, y no el ad­mi­ni­s­tra­dor de la vi­r­tua­li­za­ción. Esto hace que los procesos de trabajo se ra­le­n­ti­cen.

El efecto I/O Blender también es un problema bien conocido por los ad­mi­ni­s­tra­do­res. Todas las máquinas virtuales (Virtual Desktop In­fra­s­tru­c­tu­re, p. ej.) dirigen sus pe­ti­cio­nes de entrada y salida (Input/Output) al hi­pe­r­vi­sor, donde se mezclan como en una licuadora (blender), de ahí el nombre de I/O Blender Effect. Como co­n­se­cue­n­cia, los medios de al­ma­ce­na­mie­n­to necesitan mucho tiempo para encontrar los datos so­li­ci­ta­dos, lo que conduce a pérdidas de velocidad en el envío de datos.

¿Cómo funcionan los sistemas hi­pe­r­co­n­ve­n­ge­n­tes?

La hyper-converged in­fra­s­tru­c­tu­re nace como respuesta a las nuevas exi­ge­n­cias a las que se enfrenta el de­pa­r­ta­me­n­to de TI em­pre­sa­rial, sobre todo a la creciente vi­r­tua­li­za­ción. Basado en el concepto co­la­bo­ra­ti­vo de co­n­ve­r­ge­n­cia, el principio va un paso más allá.

Una ar­qui­te­c­tu­ra hi­pe­r­co­n­ve­r­ge­n­te llega al cliente como paquete compacto que ya incluye todos sus co­m­po­ne­n­tes en un sistema pre­co­n­fi­gu­ra­do. La in­frae­s­tru­c­tu­ra se ejecuta en una máquina virtual en la capa del hi­pe­r­vi­sor, bajo la cual se ubica el hardware actuando como un banco común de recursos. En este sentido, los sistemas hi­pe­r­co­n­ve­r­ge­n­tes funcionan casi como servicios cloud porque los servicios que se ofrecen en la capa de ab­s­tra­c­ción corren en se­r­vi­do­res virtuales, mientras que la solución de hardware, en un segundo plano, ni es visible ni relevante para el usuario. Con todo, una hyper-converged in­fra­s­tru­c­tu­re tiene la ventaja de que los datos se guardan y gestionan lo­ca­l­me­n­te, al contrario de lo que ocurre en los servicios en la nube.

Lo más in­te­re­sa­n­te quizá sea que estos sistemas se ejecutan en un hardware x86 común de tal modo que no es necesario ningún equi­pa­mie­n­to especial, lo que facilita el ma­n­te­ni­mie­n­to. Esto es posible porque la hi­pe­r­co­n­ve­r­ge­n­cia se basa en la idea de un centro de datos definido por software o SDDC, (Software-defined data center), lo que quiere decir que el hardware cede su pro­ta­go­ni­s­mo a los programas, que son los que facilitan y ad­mi­ni­s­tran todos los co­m­po­ne­n­tes ne­ce­sa­rios. Esto permite di­s­tri­buir mejor los recursos, porque el software de ad­mi­ni­s­tra­ción autoriza a los ad­mi­ni­s­tra­do­res a disponer de las ca­pa­ci­da­des de cómputo y memoria dentro del entorno virtual tal como se requieren en cada momento. Desde el punto de vista del hardware, la mayoría de sistemas hi­pe­r­co­n­ve­r­ge­n­tes disponen tanto de memorias flash como de clásicas unidades de disco duro, pro­po­r­cio­na­n­do así una buena relación entre el coste y el re­n­di­mie­n­to.

Ventajas de la ar­qui­te­c­tu­ra hi­pe­r­co­n­ve­r­ge­n­te

Los sistemas de HCI di­s­mi­nu­yen la co­m­ple­ji­dad de los centros de datos, lo que al mismo tiempo aumenta su efi­cie­n­cia y pro­du­c­ti­vi­dad a distintos niveles:

  • Ad­mi­ni­s­tra­ción: la co­m­po­si­ción de un equipo in­fo­r­má­ti­co se ve pro­fu­n­da­me­n­te mo­di­fi­ca­da por la in­s­ta­la­ción de una in­frae­s­tru­c­tu­ra hi­pe­r­co­n­ve­r­ge­n­te. Un centro de datos tra­di­cio­nal se ca­ra­c­te­ri­za por sus numerosas so­lu­cio­nes in­de­pe­n­die­n­tes. La red, la memoria y la actividad de cálculo se tratan de forma separada, y no solo en lo que atañe a la provisión del hardware co­rre­s­po­n­die­n­te, sino que también la gestión de estos sistemas implica a di­fe­re­n­tes expertos, ya que cada tarea tiene su propio personal cua­li­fi­ca­do. En un sistema hi­pe­r­co­n­ve­r­ge­n­te, en cambio, todo se ejecuta en la misma capa y todos los procesos de su­pe­r­vi­sión pueden rea­li­zar­se en un solo lugar. Esto explica la necesidad de técnicos ge­ne­ra­li­s­tas en lugar de es­pe­cia­li­s­tas que deberían ser capaces de en­ca­r­gar­se de la in­frae­s­tru­c­tu­ra en su glo­ba­li­dad y no de aspectos parciales. Esto significa, en última instancia, que la demanda de personal de in­fo­r­má­ti­ca se minimiza.
  • In­s­ta­la­ción: las ar­qui­te­c­tu­ras hi­pe­r­co­n­ve­r­ge­n­tes co­n­s­ti­tu­yen so­lu­cio­nes todo en uno basadas en el llamado principio de Plug-and-play (PnP, «enchufar y usar»), es decir, que el sistema llega al cliente listo para funcionar. Aunque aún son ne­ce­sa­rios algunos ajustes, la co­n­fi­gu­ra­ción central ya la ha realizado el fa­bri­ca­n­te. Esto también facilita la eventual mudanza de un sistema tra­di­cio­nal hacia una solución hi­pe­r­co­n­ve­r­ge­n­te.
  • Ajuste: los sistemas hi­pe­r­co­n­ve­r­ge­n­tes son algo más fáciles de co­n­fi­gu­rar que una in­frae­s­tru­c­tu­ra tra­di­cio­nal, ya que en estas últimas el tamaño de los sistemas se escala, lo que significa que los co­m­po­ne­n­tes se adquieren con la intención de re­n­ta­bi­li­zar su re­n­di­mie­n­to en el futuro. La realidad es que en el mismo momento de la compra a menudo no se dan las ci­r­cu­n­s­ta­n­cias para un apro­ve­cha­mie­n­to efectivo, de tal modo que los recursos pueden pe­r­ma­ne­cer mucho tiempo sin utilizar. Ac­tua­li­zar o renovar el equi­pa­mie­n­to en estos casos ocasiona un aumento de costes. Una ar­qui­te­c­tu­ra hi­pe­r­co­n­ve­r­ge­n­te, en cambio, se puede escalar mucho más fá­ci­l­me­n­te porque las ex­te­n­sio­nes se pueden comprar de una forma re­la­ti­va­me­n­te asequible e integrar en la in­frae­s­tru­c­tu­ra de TI sin in­te­rru­m­pir el servicio. Para hacerlo solo habría que integrar en el sistema otro nodo adicional, lo que, en lugar de dilatarse varias semanas, podría rea­li­zar­se en unas horas.
  • Costes: si, como se ha dicho, el personal necesario se reduce, los sistemas de HCI se instalan más rá­pi­da­me­n­te y son más fáciles de escalar. El gasto, en co­n­tra­po­si­ción con un sistema tra­di­cio­nal, disminuye. Su precio de compra también suele ser mucho menor, a lo que se suma el ahorro en gastos ope­ra­ti­vos porque su consumo ene­r­gé­ti­co es más reducido. No obstante, los precios de cada solución pueden variar y si bien el hardware en sí mismo no supone un gasto relevante, los pro­vee­do­res sí esperan que su servicio se vea re­co­m­pe­n­sa­do, como también tiene su precio el software, muy potente para poder im­ple­me­n­tar la vi­r­tua­li­za­ción. Con todo, es razonable esperar que estos gastos se re­n­ta­bi­li­cen en el futuro.
  • Seguridad: se ha de­mo­s­tra­do que los sistemas hi­pe­r­co­n­ve­r­ge­n­tes sufren menos caídas que los tra­di­cio­na­les y no­r­ma­l­me­n­te ya contienen las he­rra­mie­n­tas ne­ce­sa­rias in­s­ta­la­das y au­to­ma­ti­za­das para realizar copias de seguridad y para re­s­ta­ble­cer el sistema. La re­du­n­da­n­cia tiene lugar mediante el aco­pla­mie­n­to de dos nodos. Dado que dentro de la in­frae­s­tru­c­tu­ra todos los co­m­po­ne­n­tes están re­pre­se­n­ta­dos de forma virtual, es posible re­em­pla­zar ap­plia­n­ces completos sin que se pierdan datos o se in­te­rru­m­pa el servicio.
  • Velocidad: una hyper-converged in­fra­s­tru­c­tu­re ofrece también la ventaja de aumentar la velocidad en de­te­r­mi­na­dos aspectos y, en especial, los procesos de du­pli­ca­ción pueden operarse de una forma más eficiente. Y como todas las máquinas virtuales utilizan el mismo código es muy fácil eliminar du­pli­ci­da­des. El problema del efecto I/O Blender también se reduce porque los sistemas están pe­r­fe­c­ta­me­n­te acoplados y co­n­fi­gu­ra­dos para la vi­r­tua­li­za­ción.

Los equipos en­ca­r­ga­dos de la TI en empresas con es­tru­c­tu­ras clásicas suelen poner de relieve que, en caso de problemas, los fa­bri­ca­n­tes tienden a hacerse mu­tua­me­n­te re­s­po­n­sa­bles del error en lugar de ofrecer una solución. No obstante, a la empresa le importa menos quién es el re­s­po­n­sa­ble que cuándo se so­l­ve­n­ta­rá el problema. Esta situación es in­e­xi­s­te­n­te en el caso de las so­lu­cio­nes hi­pe­r­co­n­ve­r­ge­n­tes todo en uno, porque solo hay un proveedor re­s­po­n­sa­ble del fu­n­cio­na­mie­n­to del sistema. Incluso si utilizara co­m­po­ne­n­tes de otro fa­bri­ca­n­te, el proveedor es el único in­te­r­lo­cu­tor y, como tal, el re­s­po­n­sa­ble de resolver el problema.

No es menos im­po­r­ta­n­te, sobre todo para las empresas pequeñas, el hecho de que las ne­ce­si­da­des de espacio y de energía se reducen. Los se­r­vi­do­res hi­pe­r­co­n­ve­r­ge­n­tes son más pequeños y se alejan así de los grandes armarios tra­di­cio­na­les que conocemos de los centros de datos al uso. Como la huella ene­r­gé­ti­ca es también menor, estos sistemas se co­n­si­de­ran más re­s­pe­tuo­sos con el medio ambiente. Palabra clave: Green IT.

Hi­pe­r­co­n­ve­r­ge­n­cia vs. co­n­ve­r­ge­n­cia: de­s­ve­n­ta­jas de los sistemas HCI

De­ca­n­tar­se por una hyper-converged in­fra­s­tru­c­tu­re significa hacerlo por una solución todo en uno y con ello depender de un solo proveedor (vendor lock). Si el fa­bri­ca­n­te resultara poco fiable o si dejara de operar, los efectos para la TI de la empresa serían fatales, porque tampoco sería posible recurrir a las ex­te­n­sio­nes de otro fa­bri­ca­n­te. El caos en la sala de se­r­vi­do­res estaría asegurado.

Esto también pasaría si una empresa intentara integrar un sistema hi­pe­r­co­n­ve­r­ge­n­te en una in­frae­s­tru­c­tu­ra existente porque no es para eso para lo que se ha diseñado. Los sistemas HCI su­b­s­ti­tu­yen al hardware, no lo amplían. Pasar de una solución a otra no es algo tan difícil, pero para una empresa que durante años ha trabajado con una in­frae­s­tru­c­tu­ra tra­di­cio­nal significa una ruptura radical. El hardware, que se adquirió e instaló en su momento con mucho esfuerzo y altos costes, quedaría obsoleto con la migración de un sistema a otro. Esto es algo que no se puede perder de vista de cara a tomar una decisión.

Uno de los supuestos be­ne­fi­cios de los sistemas HCI frente a los tra­di­cio­na­les, su fle­xi­bi­li­dad para escalarse, también puede co­n­s­ti­tuir una de­s­ve­n­ta­ja. Para adecuar un centro de datos a unas exi­ge­n­cias mayores, se añade a la in­frae­s­tru­c­tu­ra un appliance completo. Este paquete, no obstante, comprende el set completo compuesto por al­ma­ce­na­mie­n­to, cómputo y red y, si solo se ne­ce­si­ta­ra memoria, igua­l­me­n­te debería pedirse el paquete en su totalidad sin poder pe­r­so­na­li­zar­lo. Sí es verdad que los fa­bri­ca­n­tes ofrecen sus productos en di­fe­re­n­tes tamaños, pero este tipo de centros de datos evita los ajustes a medida.

Hi­pe­r­co­n­ve­r­ge­n­cia y cloud: ¿cuál es la di­fe­re­n­cia?

Los sistemas HCI y la te­c­no­lo­gía de la nube se asemejan a primera vista y es que, en de­fi­ni­ti­va, comparten el mismo principio de la vi­r­tua­li­za­ción que promueve un uso más racional de los recursos, facilita el trabajo a los usuarios y funciona con máquinas virtuales que proveen servicios. Sin embargo, se di­fe­re­n­cian sobre todo en su geo­lo­ca­li­za­ción y en los pros y contras de los productos re­la­cio­na­dos con ella: mientras que un servicio en la nube ge­ne­ra­l­me­n­te se encuentra lejos del cliente (incluso en otro co­n­ti­ne­n­te), un sistema hi­pe­r­co­n­ve­r­ge­n­te se localiza en la misma empresa, quedando así bajo su control.

HCI Cloud
Geo­lo­ca­li­za­ción Local Global
Seguridad de datos Estándar propio Estándar externo
Fu­n­cio­na­mie­n­to Continuo Se contrata en función de las ne­ce­si­da­des
Acceso LAN/WAN Internet
Equipo de TI Necesario No tan necesario
Costes Ad­qui­si­ción y operación Su­s­cri­p­ción

La decisión entonces depende de las ne­ce­si­da­des de cada empresa: si es pequeña y no tiene un de­pa­r­ta­me­n­to in­fo­r­má­ti­co propio, puede tener sus ne­ce­si­da­des bien cubiertas con un servicio en la nube, pero para aquellos que piensan en di­me­n­sio­nes de mayor en­ve­r­ga­du­ra y que no desean dejar el control de sus datos en manos ajenas, la hi­pe­r­co­n­ve­r­ge­n­cia podría ser la mejor opción.

¿Cuándo es adecuada una hyper-converged in­fra­s­tru­c­tu­re?

La gran ventaja de una in­frae­s­tru­c­tu­ra hi­pe­r­co­n­ve­r­ge­n­te radica en la si­m­pli­fi­ca­ción de la TI: más espacio, menos caos de pro­vee­do­res, menos gastos de gestión. Estos novedosos sistemas, que no obstante se basan en una técnica bien conocida, siguen las metas de la co­n­ve­r­ge­n­cia y las amplían con la vi­r­tua­li­za­ción de todos los co­m­po­ne­n­tes. Al alejarse del centro de datos tra­di­cio­nal, asi­mi­lar­lo puede conllevar el reemplazo completo de la es­tru­c­tu­ra del sistema y de personal.

Las ventajas de los sistemas HCI son muy se­du­c­to­ras tanto para pequeñas como para grandes empresas. Su buena es­ca­la­bi­li­dad, junto con un mo­ni­to­ri­ng y una ad­mi­ni­s­tra­ción mucho más sencillos, la hacen atractiva para todo tipo de usuarios. Así, para los em­pre­n­de­do­res y para aquellas empresas que comienzan a levantar su es­tru­c­tu­ra in­fo­r­má­ti­ca, HCI podría ser la elección adecuada. No tanto, sin embargo, si la empresa ya cuenta con un centro de datos en fu­n­cio­na­mie­n­to y con un equipo de personal bien formado, porque estas so­lu­cio­nes out of the box no están co­n­ce­bi­das para in­te­grar­se en otro sistema y requieren otros co­no­ci­mie­n­tos. Si hay que re­em­pla­zar el hardware de al­ma­ce­na­mie­n­to, de servidor y de red y re­s­tru­c­tu­rar el equipo, el cambio ya no resulta tan atrayente.

Es difícil predecir los cambios en el mercado de las te­c­no­lo­gías de la in­fo­r­ma­ción. Si no fuera así no se habrían cometido tantos errores en el pasado a la hora de estimar la demanda y la velocidad de su de­sa­rro­llo. Pero es más que probable que los procesos de vi­r­tua­li­za­ción no pierdan en re­le­va­n­cia en el futuro, por lo que no se deberían su­b­e­s­ti­mar los sistemas de HCI como moda pasajera. Quizás a largo plazo es in­e­vi­ta­ble para las empresas dar el paso en esta dirección, que no ha de pasar ne­ce­sa­ria­me­n­te por la hi­pe­r­co­n­ve­r­ge­n­cia. Hoy por hoy, el momento adecuado para una tra­n­s­fo­r­ma­ción de estas ca­ra­c­te­rí­s­ti­cas debería escogerse con suma prudencia por parte de las empresas y los expertos de TI.

Ir al menú principal