miércoles, 7 de octubre de 2009

Consolidación y virtualización

Otras tendencias que existen en torno a los centros de datos son la consolidación y la virtualización, estrategias con las que las empresas buscan optimizar sus recursos y aprovechar de mejor manera su infraestructura, ya que se dice que en promedio los servidores están siendo utilizados entre 15% y 20% de su capacidad total.

El bajo aprovechamiento de la capacidad de almacenamiento se debe a que cada que las empresas implementaban una nueva aplicación, por lo general, luego de que los encargados de TI evaluaban las diferentes opciones de software y seleccionaban uno, compraban un servidor para esa aplicación y en algunos casos hasta un acceso dedicado y un switch si ya no había puertos disponibles. A dichos servidores no se les montaba otra aplicación porque existía la complicación de saber cuáles softwares pueden convivir entre sí.

“La virtualización consiste en poder particionar las cajas físicas en cajas virtuales”, señaló el vocero de EDS, una compañía de HP; de tal suerte que cada equipo puede servir a más de una aplicación sin que choquen entre sí.

“Actualmente, ya estamos hablando de consolidación y se está dando la virtualización de los centros de datos, es decir yo tengo 15 centros de datos por toda la república o por todo el continente, los consolido en dos o tres lugares físicos, siendo uno espejo del otro o siendo uno respaldo del otro; y ya que los tengo consolidados, los puedo virtualizar. En la parte de virtualización, lo que hacemos es optimizar los recursos dentro del centro de datos. De esta manera las compañías obtienen ahorros de espacio y de dinero”, detalló Jorge de la Fuente, de Panduit.

“La virtualización en parte también ayuda en el enfriamiento, porque permite tener menos equipos físicos para ofrecer los mismos servicios”, agregó el Director de Ingeniería de Sun Microsystems.
La virtualización al principio era utilizada para ambientes de prueba y desarrollo, actualmente las empresas ya la emplean en producción, debido a que se ha probado y demostrado que es confiable, robusta y que no hay riesgos. A eso atribuyó Mauricio Zajbert que la adopción de esta tecnología sea acelerada en todos los sectores del mercado.

Aunque con la consolidación y virtualización, y con la transición de las grandes torres de almacenamiento a los blades, el espacio requerido para los equipos ha disminuido, los directivos de Sun Microsystems y EDS, una compañía de HP, coincidieron en que actualmente el espacio de los centros de datos se mantiene estable debido a que las compañías están siempre implementando nuevos servicios y requieren de nueva infraestructura.

La importancia de la planeación del data center
“Planear el data center de una forma modular permite ir creciendo dependiendo de la demanda que se tenga del servicio y del propio centro de datos. Por ejemplo, no se tiene que enfriar toda un área o un cuarto completo, sino se va enfriándolo y adecuándolo de manera modular”, puntualizó Roberto Treviño.

De esta forma, es posible crear zonas de alta densidad de calor donde sean implantadas estrategias y elementos particulares eficientes de enfriamiento.

Asimismo, es importante la planeación desde el día cero en los casos de consolidación y virtualización, dijo Jorge de la Fuente, de Panduit.

“Para virtualizar y consolidar tiene que haber una planeación desde el día cero, tomando en cuenta que la infraestructura es la parte medular del centro de datos porque es lo más complicado de migrar. Si la infraestructura no está considerada desde el día cero, lo más probable es que tengamos un data center más pequeño pero con más problemas de los que teníamos antes. Entonces, la gente de sistemas en lugar de estasr haciendo cosas importantes estaría haciendo cosas urgentes”.

Para evitar problemas, Panduit recomienda instalar tecnología en la parte de infraestructura que al menos soporte dos migraciones de equipo activo o dos migraciones tecnológicas.
“En otras palabras, si ahora estamos con trasmisiones de un gigabyte que ya es normal en la parte de servidores e incluso en equipos de escritorio y laptops, que soporte ese giga, que soporte 10 gigas que será la siguiente generación y que pueda llegar a soportar la siguiente generación que no está definida. Esto da una vida útil del centro de datos de unos 10 ó 15 años en la parte de infraestructura”, destacó Jorge de la Fuente.

Fuente: CIO México
Aportación: Karina Elisea Gómez / Marketing Staff

No hay comentarios:

Publicar un comentario