Printer Friendly

La red como computadora se convierte en el gran tema TI de las corporaciones. Sin embargo, aun hay temores.

El grupo de sistemas de Pemex Perforacion, filial de la gigante Pemex, tenia una tarea titanica: cinco profesionales de TI debian atender a 70 especialistas distribuidos en 14 centros de operacion desparramados por toda la geografia mexicana... Incluso en plataformas en medio del mar. Cada centro tenia su propio servidor donde funcionaban 16 softwares especializados como sistemas de perforacion, logistica y evaluaciones geologicas.

Pero el equipo perdia mucho tiempo viajando entre estos centros para actualizar cada solucion en sus servidores. Ademas, para enfrentar tal demanda los tecnicos se habian especializado en una u otra aplicacion, lo que representaba un alto costo operativo y una lenta respuesta. ?Agregar recursos humanos hubiera sido una solucion? Quiza, pero seguramente no la mas eficiente. Despues de comparar opciones, Pemex acepto adoptar el sistema centralizado propuesto por la estadounidense Citrix, empresa especializada en gerenciamiento de aplicaciones, permitiendo la actualizacion y administracion de los programas de manera centralizada. La mejora en el bienestar del equipo de TI de Pemex Perforacion fue casi inmediata: en cinco meses, el uso de servidores fue reducido 86%, consolidando en dos equipos lo que previamente hacian en 14; los viajes se hicieron innecesarios y la respuesta a los requerimientos, inmediata. Ademas si un centro perdia su infraestructura, instantaneamente puede ser suplantado a distancia por los servidores centrales evitando, tiempos muertos. "La tendencia es ir a arquitecturas donde los recursos se comparten y se aprovechan en escala. Es algo que ya hacen los particulares cada vez que usan una aplicacion en internet, pero es un camino que las corporaciones recien comienzan a experimentar para su propia operacion", dice Hugo Espinoza, gerente general de Citrix para Sudamerica.

Este cambio no solo promete reduccion de costos sino tambien agilidad para hacer cosas que hasta ahora no pueden. Asi lo comprobo la chilena Indura, lider en soldaduras y gases para usos industriales, con 3.500 empleados. Implementando la logica de recursos tecnologicos compartidos, redujo en mucho el tiempo necesario para abrir una nueva oficina. Eso atestiguaron cuando adquirieron una firma colombiana con 22 oficinas y 350 usuarios en el pais. Si hubiesen necesitado instalar sus programas en cada una de las computadoras de la empresa adquirida, habrian tardado mucho mas de los dos meses necesitados para entregar las aplicaciones SAP, Microsoft Office y Microsoft Outlook.

Incluso si Indura no hubiera querido invertir en unos pocos servidores, podria haber apelado directamente a grandes proveedores como Microsoft, que ya ofrecen el software as a service (SaaS), o software como servicio, bajo la marca Microsoft Online Services. Algunas corporaciones como Bancolombia ya hicieron la prueba, llevando su servicio de correo electronico corporativo, Exchange, a los servidores del gigante de Redmond. Y se han ganado un ahorro. "Se calcula que el costo de administrar Exchange es de US$ 30 por cuenta al ano. En linea, el costo es de US$ 10", observa Luis Daniel Soto, director ejecutivo de nuevas tecnologias para Latinoamerica de Microsoft. Y sumar nuevos usuarios solo seria cuestion de un clic. La segunda ventaja del SaaS es que los programas pueden ser ejecutados por cualquier dispositivo con acceso a la red. Y si el procesamiento de la aplicacion es remoto, los dispositivos pueden tener menos poder de computo y, por ello, menos costos. El boom de netbooks, gracias a Intel, BlackBerry o Iphone, es otra cara del mismo fenomeno.

La infra como servicio

La nueva arquitectura tampoco es nueva en la tecnologia de virtualizacion: el viejo truco de simular multiples computadoras aprovechando la capacidad de computo excedente del equipamiento disponible. "Lo usabamos hace 40 anos para solucionar la falta de equipo, pero ahora lo aplicamos para poner orden en la abundancia", dice Jose Carlos Duarte jefe de tecnologia de IBM Brasil. "Desde los 80 los servidores comenzaron a multiplicarse. Se utilizaba uno para cada aplicacion de la empresa, lo que termino siendo imposible de administrar, y totalmente ineficiente. Algunos operaban una vez al mes y desperdiciaban un 85% de su capacidad de computo". Ahora, virtualizacion mediante, el conjunto de servidores se convierte en una sola maquina virtual aprovechando y administrando el total de la capacidad. Incluso las PC de escritorio, o equipos individuales podrian participar. Los proyectos de computo distribuido, como World Community Grid, permiten que, sumando un pequeno programita, los particulares puedan aportar su capacidad de computo para investigaciones sobre el cancer y el sida, entre otros.

No solo se puede disminuir la cantidad de equipos requeridos, sino utilizar equipos mas economicos, o definitivamente transformarlos en un costo variable. Firmas con grandes data centers, como la minorista online Amazon, hoy ofrecen su infraestructura como un servicio (infrastructure as a service, o IaaS). El esquema es muy apreciado por empresas como la farmaceutica Ely Lilly cuya necesidad de computo se incrementa notoriamente cada vez que alguien solicita hacer una simulacion de sus investigaciones. Cuando eso sucede, Dave Powers, director de tecnologia de la firma, se jacta que con solo pasar el dedo por su Iphone puede activar un cluster de 100 nodos de servidores Linux provisto por un tercero a solo US$10, y desactivarlos una vez que el trabajo esta hecho, nuevamente, con solo mover un dedo. Menos de un ano atras cada experimento le implicaba un trabajo de siete a ocho semanas instalando servidores.

Lo valido para procesamiento, tambien lo es para almacenamiento, o para todo, Xaas le llaman los analistas. "Todo va camino a la nube", dice Tony Hey, vicepresidente de investigaciones externas de Microsoft Research. "No solo trabajamos con datos distribuidos en data centers propios cada vez mas grandes, sino con informacion de otras fuentes que pueden estar en cualquier lado", asegura mientras muestra el proyecto World Wide Telescope, un observatorio virtual que permite al usuario viajar virtualmente por el espacio conocido, y a la razon, un verdadero ejemplo de Cloud: no solo procesa su informacion desde dos inmensos data centers sino que tambien la recibe de fuentes distintas.

Como manipular sencillamente informacion de fuentes tan heterogeneas es un desafio y un campo de batalla para las companias tecnologicas, para competir contra las soluciones open source Microsoft desarrollo Azure, presentado como el sistema operativo para la nube, o una plataforma como servicio, PaaS por sus sigla en ingles."En un primer momento se subian aplicaciones como venian, pero ahora se aprovecha la naturaleza distribuida de la red", acota desde Miami Luis Daniel Soto, de Microsoft.

En la vereda de enfrente, Dell y el Open Cloud Manifesto, una alianza conformada por AMD, Adobe; IBM, Sun, entre otros, militan por el uso de plataformas open source y la fijacion de estandares abiertos antes que sistemas propietarios. "Es necesario para garantizar la interoperatividad de plataformas. El usuario debe sentirse seguro de poder cambiar de proveedor o recuperar la informacion cuando le plazca", sostienen en el manifiesto.

El tema no es menor. Si bien el mercado mundial de servicios en sus distintos sabores fue estimado en US$ 56.300 millones para este ano por la firma de investigacion de mercado TI Gartner, desde las empresas coinciden en que aun hay mucho por hacer para tentar al mercado corporativo para una solucion cloud de punta a punta. Ninguna empresa pondria lo central de su negocio en un espacio publico, su data warehouse o su estructura de Business Intelligence. La seguridad de datos sigue siendo un tema que ademas incluye una dimension legal. "Muchos paises como Brasil prohiben que datos como los financieros o las historias clinicas residan en el extranjero", dice Leandro Farraiuolo, analista de Accenture. "Pero si sera posible ver tendencias mixtas. Nubes privadas para algunos procesos y publicas para otros". Lo importante es que sea una cuestion de servicio.

85% es la capacidad de computo desperdiciada por un servidor que no opera de manera distribuida.
COPYRIGHT 2009 WP Company LLC dba The Washington Post, through its Writers Group
No portion of this article can be reproduced without the express written permission from the copyright holder.
Copyright 2009 Gale, Cengage Learning. All rights reserved.

 
Article Details
Printer friendly Cite/link Email Feedback
Title Annotation:Bienvenido a la nube
Author:Dalmasso, Juan Pablo
Publication:America Economia News Service (Spanish)
Date:Jul 24, 2009
Words:1394
Previous Article:Los proximos pasos de Barack Obama continuaran en la misma direccion.
Next Article:El Instituto Costarricense de Electricidad se toma su tiempo para enfrentar un mercado abierto.

Terms of use | Privacy policy | Copyright © 2018 Farlex, Inc. | Feedback | For webmasters