Como evitar a sobrecarga dos servidores com a virtualização

30 views
Skip to first unread message

Publicitária Michele Botan

unread,
Oct 5, 2009, 4:49:23 PM10/5/09
to PublicitáriosVersusPublicidade&Propaganda
Tecnologia

Como evitar a sobrecarga dos servidores com a virtualização

Os líderes de TI e os especialistas apontam que colocar até 100
máquinas virtuais em um único equipamento físico pode gerar riscos ao
ambiente de produção

Computerworld/EUA

Há uma tendência das empresas adotarem o conceito de virtualização de
forma cada vez mais abrangente, incluindo serviços de missões críticas
e o uso intensivo de aplicações. Com isso, os executivos de TI estão
aprendendo que a divisão de servidores em poucas máquinas virtuais é
coisa do passado.

Hoje, fornecedores de virtualização já tentam mostrar aos clientes o
potencial que a tecnologia tem ao colocar 20, 50 ou até 100 máquinas
virtuais em apenas uma máquina física. Mas os líderes de TI e os
especialistas da indústria dizem que tais números oferecem riscos ao
ambiente de produção, causando problemas de desempenho ou, pior ainda,
indisponibilidade.

“Em ambientes de teste e desenvolvimento, as companhias já conseguiram
atingir 50 máquinas virtuais em um host. Mas em se tratando de missões
críticas e aplicações que utilizam recursos intensivos, o número tende
a se limitar a 15”, afirma o vice-presidente de pesquisa da
consultoria americana Enterprise Management Associates (EMA), Andi
Mann.

Na média, o número é ainda menor. Segundo estudo conduzido pela EMA em
janeiro de 2009 com 153 organizações com mais de 500 usuários, a média
de máquinas virtuais por servidor é de 6, consolidando aplicações como
ERP, CRM, e-mail e banco de dados.

A grande variação entre a realidade e as expectativas, seja por conta
da publicidade do fornecedor ou por questões de retorno sobre
investimento (ROI), pode se traduzir em problemas para a equipe de
tecnologia. Isso porque quanto maior o número de serviços consolidados
em um servidor, maiores serão as supostas vantagens da tecnologia. “Se
a equipe entra em um projeto de virtualização com falsas expectativas,
a estrutura da empresa fica ameaçada", diz Mann.

Assim, o efeito pode ser contrário: a confiança exagerada na
possibilidade de usar uma alta taxa de virtualização (número de
máquinas virtuais por dispositivo físico), afeta consumo de energia,
sistema de refrigeração, entre outros. “Se uma empresa pensa que
precisa de apenas 10 servidores para implantar projeto de
virtualização, mas na realidade necessita de 15, pode ter um custo
final de consolidação maior ainda. Não é uma boa idéia, principalmente
na economia de hoje", diz o presidente e analista da consultoria norte-
americana Pund-IT, Charles King. Confira as dicas para evitar
problemas:

Leve em conta que aplicativos chave lutarão por seu espaço

Por que existe essa falta de conexão entre a realidade da
virtualização e as expectativas? King diz que, até agora, companhias
focaram em virtualização nas camadas mais baixas: aplicações com pouca
demanda de desempenho, como ambientes de desenvolvimento,
armazenamento de arquivos e serviços de impressão. “Aplicações não-
críticas e atividades dos extremos da rede não necessitam alta
disponibilidade, a equipe pode amontoar dezenas deles em uma única
máquina", afirma.

A opinião é corroborada pelo diretor da pesquisas sobre servidores da
consultoria norte-americana TheInfoPro, Bob Gill. "No começo, as
pessoas estavam virtualizando sistemas que usavam menos de 5% da
capacidade que tinham disponível. Além disso, eram os serviços que não
causariam grande impacto se ficassem indisponíveis por uma hora ou
duas", diz Gill.

Uma vez que existe a necessidade de instalar aplicações de missão
crítica, com utilização mais intensa dos sistemas, o risco de
segurança aumenta e a demanda por desempenho e disponibilidade cai
consideravelmente. “Essas aplicações vão competir por largura de
banda, memória, armazenamento e processamento", diz King. Mesmo
máquinas com processadores topo de linha vão apresentar gargalos se
tantos recursos recorrerem ao mesmo servidor.

Comece com uma análise de capacidade

O começo de qualquer projeto é a educação dos usuários. As equipes de
TI devem mudar o pensamento de quem acha que tudo será possível com
poucos servidores. Para começar, uma análise de capacidade pode ser
uma boa idéia, segundo o especialista em sistemas de segurança da
informação Dris Jmaeff, que trabalha em uma das maiores empresas
canadenses de saúde, a Interior Health.

Quatro anos atrás, o data center da Interior Health estava crescendo
rapidamente. Havia muita demanda para virtualizar o ambiente de
produção, com 500 servidores, para dar conta de uma gama de serviços
hospedados, incluindo DNS, ActiveDirectory, servidores web, FTP e
muitas outras aplicações e servidores de dados.

Antes de começar, Jmaeff usou uma ferramenta da Vmware para conduzir
uma análise intradepartamental de capacidade que monitorou a
utilização de hardware dos servidores. A ferramenta, que também é
fornecida por empresas como HP e Microsoft, permitiu fazer um estudo
mais aprofundado sobre os recursos exigidos dos servidores”

Com isso, sua equipe conseguiu consolidar 250 servidores, ou 50% do
parque, em apenas 12 hóspedes físicos. E, embora o data center de
Jmaeff tenha uma média de 20 máquinas virtuais por hóspede, as
máquinas físicas que demandam mais aplicações trabalham a taxas de
virtualização mais baixa. As que trabalham com aplicações de menor
desempenho têm mais máquinas virtuais e compensam para compor a boa
média.

O profissional combina Vmware vCenter e IBM Director para monitorar as
máquinas virtuais e identificar eventuais sinais de desbalanço nas
taxas de virtualização, como picos no uso de memória ou de
processamento e degradação do desempenho. “Se necessário, é fácil
clonar servidores e rapidamente fazer um balanceamento das cargas de
aplicativos”, diz Jmaeff.

Acompanhamento contínuo é fundamental

Na empresa Network Data Center Host, um provedor de serviços Web da
California (EUA), a equipe de TI aprendeu rapidamente que, em se
tratando de virtualização de aplicações de missão crítica, é
necessário muito mais do que RAM para garantir o desempenho.
“Originalmente, imaginávamos que poderíamos manter 40 consumidores de
menor porte em um servidor baseado somente na memória RAM disponível.
Mas percebemos que, com aplicações mais pesadas, náo é a RAM que
importa, mas sim as operações de entrada e saída de dados (I/O)", diz
o CTO da companhia, Shaun Retain.

Levando isso em conta, a taxa de virtualização teve de ser reduzida
para uma razão de 20/1. Para ajudar no controle, a empresa escreveu um
painel de controle que permite aos consumidores verificarem como a
máquina virtual lida com leituras, escritas, uso de espaço em disco e
outros dados que afetam desempenho. Além disso, as máquinas
hospedeiras da empresa contam com ferramentas de monitoramento para
garantir que o desempenho de todas as máquinas virtuais não sejam
prejudicadas por conta de tráfego de uma única máquina.

O consultor da Pund-IT, Charles King, diz que as companhias também
deveriam conduzir testes rigorosos nas suas aplicações de missão
crítica virtualizadas antes e depois da implementação. “A equipe deve
ter certeza que cada aplicação se mantenha estável em termos de
largura de banda na rede e memória. Se a equipe tem o conhecimento de
que determinada aplicação exige mais em algum período específico do
ano, deve levar esse dado em consideração no planejamento", diz.

Os testes também ajudam a determinar qual carga virtual de trabalho
deve coexistir em um servidor físico de forma que a distribuição não
comprometa a disponibilidade. É um estudo exaustivo por um período,
mas que vai economizar muitas horas de trabalho corretivo no futuro.

Fonte: CIO Uol
Reply all
Reply to author
Forward
0 new messages