quinta-feira, 4 de setembro de 2008

Virtualização exige uma reavaliação dos planos de Recuperação de Desastre

A Symantec anunciou nesta quarta-feira, 28/08, os resultados globais da pesquisa de Recuperação de Desastre, que mostra uma queda significativa do envolvimento executivo no planejamento de recuperação de desastre e um aumento significativo no número de organizações reavaliando seus planos de recuperação de desastre (DR) devido à virtualização.

À medida que mais aplicativos e dados são gerenciados em um ambiente virtual, as organizações estão reavaliando os modos mais eficientes de gerenciar aplicativos e dados em ambientes físicos e virtuais. Aproximadamente um terço das organizações ouvidas no estudo afirmaram a implementação de parte de seu plano de Recuperação de Desastre. Entretanto, no ano passado, houve uma diminuição significativa no número de executivos envolvidos em DR.

E, embora pareça existir um aprimoramento nos testes bem-sucedidos de recuperação de desastre, um terço dos entrevistados indicou que os testes afetarão seus clientes, e um quinto admitiu que esses testes poderiam afetar negativamente as vendas e receitas de sua organização.

Com um rápido aumento dos aplicativos missão-críticos combinado com o crescimento contínuo dos dados armazenados – de modo físico e virtual – é crucial que as organizações de TI incorporem um plano abrangente e comprovado de recuperação de desastre na estratégia geral da empresa.

Isso ajudará a garantir a recuperação bem-sucedida de dados e aplicativos com o mínimo de impacto nas operações de negócios caso ocorra um desastre – seja natural, por erro humano ou falha de sistema.

Aumento significativo de aplicativos considerados críticos

Embora 56 % dos aplicativos sejam considerados críticos pelos entrevistados – um número significativamente superior aos 36% de 2007 – somente 54% de todos os aplicativos são cobertos por planos de DR.

Com o aumento no número de aplicativos críticos, fica difícil para as organizações com orçamentos constantes de TI manter a disponibilidade de um número maior desses aplicativos. Como resultado, as empresas devem procurar formas mais econômicas de proteger aplicativos, incluindo reduzir os servidores excedentes, aumentar a capacidade do servidor e estudar configurações físicas e virtuais, entre outros.

O levantamento apurou ainda que os planos de recuperação de desastre não são documentados. No ano passado, um terço das organizações entrevistadas teve que executar seus planos de recuperação de desastre devido a diversos fatores, incluindo: 

- Falha de hardware e software (36% das organizações);

- Ameaças externas à segurança (28%);

- Problemas/falhas/interrupções de energia (26%);

- Desastres naturais (23%);

- Gestão de problemas de TI (23%);

- Vazamento ou perda de dados (22%); e

- Comportamento nocivo ou acidental de funcionário (21%)

Virtualização: desafio a ser enfrentado

Os resultados da pesquisa indicaram também que o envolvimento de executivos de nível C no planejamento de DR está diminuindo. Na pesquisa de 2007, 55% dos entrevistados disseram que seus comitês de DR envolviam o CIO, CTO ou diretor de TI. Entretanto, em 2008 esse número caiu para 33% mundialmente.

No estudo, a Symantec diz  que essa seja uma tendência problemática, particularmente, no que diz respeito a aplicativos missão-críticos que não são atualmente cobertos em planos de DR e a reavaliação de planos devido à virtualização. O maior envolvimento de executivos é uma forma comprovada de aumentar o sucesso dos planos de DR.  

A virtualização é o principal fator que está levando mais da metade (55%) dos entrevistados globais – 64% na América do Norte – a reavaliar seus planos de DR. Em alguns casos, a virtualização está sendo implantada para atender DR, e os aplicativos e dados em ambientes virtuais mostram-se um difícil desafio já que os processos em ambientes físicos podem não funcionar nos ambientes virtuais.

Além disso, as ferramentas de DR nativas em ambientes virtuais não são maduras e não oferecem a proteção de classe corporativa que as empresas precisam. Os entrevistados disseram que 35% de seus servidores virtuais não são atualmente cobertos pelos planos de DR das organizações, e somente 27% dos entrevistados disseram que fazem o backup de todo os seus sistemas virtuais. 

Globalmente, 35% dos entrevistados citaram a existência de muitas ferramentas diferentes como o maior desafio na proteção de dados e aplicativos missão-críticos nos ambientes físicos e virtuais. As complicações resultantes de ter diferentes ferramentas para ambientes físicos e virtuais incluem custos maiores de treinamento, ineficiências operacionais, custos maiores de software e forças de trabalho que trabalham em silos. A falta de recuperação automática e ferramentas ineficientes de backup vêm em segundo, cada uma com 33%  

Falhas na recuperação de desastre

De acordo com os dados da pesquisa, ao mesmo tempo em que ter um plano de recuperação de desastre é essencial na maioria das organizações de hoje, saber que esse plano funciona é igualmente importante. Em 2007, 88% dos profissionais de TI entrevistados realizaram uma avaliação de probabilidade e impacto de pelo menos uma ameaça.Este ano, o número subiu para 98% dos entrevistados, indicando que eles realizaram uma avaliação de pelo menos uma ameaça. Entretanto, os entrevistados relataram que 30% dos testes falharam em seus objetivos de tempo de recuperação e o RTO global médio foi de 9,54 horas.  

Os entrevistados também relataram as principais razões da falha de seus testes, incluindo:  Erro humano (35 por cento); falha de tecnologia (29 por cento); infra-estrutura insuficiente de TI (25 por cento); planos desatualizados (24 por cento) e processos inadequados (23 por cento). Como o erro humano é o maior problema prejudicando o sucesso das recuperações, as organizações devem adotar a automação, o que acelerará a recuperação e reduzirá erros e a dependência de pessoal.

Além disso, 93 por cento das organizações de TI relataram que testaram seus planos de recuperação de desastre depois de criá-los, embora 30 por cento dos testes não tenham sido totalmente bem-sucedidos – uma melhora em relação aos 50 por cento de testes com falhas em 2007 – e somente 16 por cento disseram que os testes nunca falharam.  

Testes de recuperação de desastre afetam as vendas e a receita

O estudo mostrou que aproximadamente 47 por cento das organizações testam seus planos de DR somente uma vez por ano ou menos, devido à interrupção dos negócios e falta de recursos.  As razões citadas incluem: Falta de pessoal disponível (39 por cento), interrupção da atividade do funcionário (39 por cento), problemas de orçamento (37 por cento) e interrupção de atividades do cliente (32 por cento).

Além disso, 21 por cento admitiram que testar DR poderia afetar as vendas e a receita.   Na verdade, os entrevistados na Ásia e EMEA têm menor probabilidade de testar seus planos de DR, com 12 por cento dos entrevistados na EMEA e 8 por cento na Ásia-Pacífico dizendo que nunca testaram seus planos de DR.

Embora os resultados da pesquisa indiquem que a indústria de TI demonstrou algumas melhorias ao longo dos anos nos testes bem-sucedidos de DR, somente 31 por cento dos entrevistados disseram que eles poderiam acessar operações de linha básica em um dia se ocorresse um desastre significativo que destruísse seus principais centros de processamento de dados. 

E, somente três por cento dos entrevistados disseram que teriam as operações de linha básica funcionando dentro de 12 horas e aproximadamente metade (47 por cento) disse que levaria uma semana inteira para restabelecer 100 por cento do funcionamento normal das operações.

"Embora a pesquisa identifique um aprimoramento significativo nos testes de DR na indústria, estamos preocupados que as organizações não estejam fazendo testes com maior freqüência para aprimorar seus planos, e não estejam usando as ferramentas adequadas para reduzir o impacto geral na linha básica", ressaltou Mark Lohmeyer, vice-presidente do Grupo de Servidor de Cluster Veritas da Symantec.

Em seu quarto ano, o relatório de Pesquisa de Recuperação de Desastre da Symantec de 2008 é um estudo global anual encomendado pela Symantec para destacar tendências de negócios no contexto de preparo e de planos de recuperação de desastre.

Conduzido pela empresa independente de pesquisa de mercado Applied Research West durante junho e julho de 2008, o estudo entrevistou mais de 1000 gerentes de TI de grandes organizações em 15 países, incluindo Estados Unidos e Canadá, países da Europa, Oriente Médio, Ásia-PAcífico e América do Sul, para obter conhecimento e entendimento sobre alguns dos mais complicados fatores associados à recuperação de desastre.

Operação brasileira da MSC quer se tornar referência de virtualização

SANTOS - Em março de 2007 a operação brasileira da empresa de logística européia MSC decidiu investir mais pesado em virtualização e, 18 meses depois, hoje pode se tornar um caso de referência em toda a organização. Com a adoção de um sistema que concentra as operações eletrônicas de aplicativos no data center da companhia, ela ao mesmo tempo reduziu o tempo de resposta entre os funcionários de campo e o escritório central, aumentou a segurança das operações e ainda levou as economias indiretas com equipamentos.

Hoje enviamos informações atualizadas de entradas e saídas de contêineres para o escritório central em Santos a cada dez minutos. Antes, a atualização era feita apenas uma vez por dia, no fechamento da operação, afirma o coordenador de manutenção e reparo de contêineres da MSC no Brasil, André Florippi.

Essa velocidade na troca de informações se mostrou fundamental para acelerar as operações da companhia que, no Brasil, tem cerca de 10 mil contêineres. Apenas em Santos, a empresa movimenta, entre entrada e saída, cerca de 400 contêineres.

Até mesmo o tempo necessário para abertura de novas bases foi reduzido com a implementação do sistema virtualizado, explica o gerente de Tecnologia da MSC Brasil, André Alcântara.

Em todo o ano de 2005, abrimos apenas uma agência no país. Hoje, em tempo igual, consigo implantar até três agências, afirma ele, explicando que isso é possível por não ser mais necessário configurar toda uma estrutura de tecnologia nas novas bases, apenas ligar máquinas a uma conexão de internet.

Hoje estamos despreocupados em relação à tecnologia para conduzir o plano de expansão que temos no Brasil. Isso deixou de ser uma dificuldade para tomarmos a decisão de implantar novas bases, afirma o gerente de Marketing da MSC Brasil, Thiago Lopes.

Essa facilidade na implantação do sistema também permitiu reduzir o tipo de infraestrutura necessária nos pátios de movimentação de contêineres. Hoje todos os processos podem ser realizados via tecnologia sem fio, através de notebooks conectados a redes Edge ou de terceira geração (3G). A partir desses equipamentos, saem os relatórios de movimentação dos contêineres, a programação de uso e manutenção, assim como os status alfandegários e as informações fiscais e aduaneiras necessárias para sua liberação.

Mesmo operando com equipamentos vulneráveis como notebooks, muito fáceis de serem perdidos ou roubados, a preocupação da MSC com segurança de informação é nula.

Não fica nada no computador. Tudo é feito dentro dos servidores em nossa sede, lá ficam todos os documentos, afirma Alcântara. Segundo ele, o notebook serve apenas como um terminal remoto de consulta e operação, sem armazenar nenhum dado. Caso seja perdido ou roubado, sem uma senha de usuário, não há como acessar a rede da MSC e, assim, dados protegidos.

Como o aplicativo é rodado no data center, e não no PC ou notebook, o tráfego de dados além de não ser muito grande, pois está todo no mesmo lugar, não é necessário uma segurança tão grande na ponta do usuário, afirma Erika Ferrara, diretora de vendas e canais da Citrix, que fornece o sistema de virtualização para a MSC.

Embora a intenção da empresa européia ao adotar o sistema tenha sido ganhar agilidade em seus processos, ela obteve também um benefício paralelo muito relevante. Com o sistema virtualizado e se utilizando de um mecanismo de compactação de dados mais avançado, foi possível reduzir o tamanho do parque de servidores instalado no país.

Antes tínhamos 25 servidores, todos mal utilizados. Quando adotamos o atual sistema, reduzimos esse número para 12 máquinas - embora hoje tenhamos 15 para suportar o crescimento natural da operação, explica Alcântara. Além disso, com 25 servidores, tínhamos 200 usuários, hoje com 15, servimos mais de 400 usuários de PCs e outros 150 notebooks, e ainda com uma folga de capacidade de cerca de 20%, acrescenta.

Segundo o diretor, ainda não é possível estimar qual a economia com equipamentos obtida com a implantação do novo sistema da Citrix. Ele acredita que realmente houve uma redução nos gastos, já que os PCs agora necessários para a operação são do tipo thin client, que não têm recursos embarcados, apenas capacidade para acessar as informações do data center. Apenas daqui uns dois ou três anos é que vamos poder avaliar o nível de economia em compras de equipamentos, quando chegar o momento que seria o novo ciclo de troca e não tivermos que substituir máquinas - já que os servidores têm vida útil mais longa que computadores, afirma Alcântara.

Browser do Google já está disponível!!!!!!!!!!!!!

SÃO PAULO - O Google liberou o download de seu navegador Google Chrome para usuários em 100 países.

Ainda sob a etiqueta “beta”, o Google Chrome promete ser mais eficaz ao rodar aplicativos online, como as ferramentas de produtividade Google Docs, Gmail e o editor de imagens Picasa.

O browser também integra o Google Gears, sistema que permite ao usuário continuar trabalhando em aplicações online mesmo quando a conexão com a web é perdida.

O Gears sincroniza os dados do PC do usuário com suas contas no Google e atualiza as informações assim que o computador volta a ter uma conexão ativa.

De acordo com Darin Fisher, engenheiro de software do projeto Chrome, o Google decidiu investir num browser próprio a fim de garantir um aplicativo estável o suficiente para que seus usuários possam trabalhar com e-mails e textos de forma confiável.

“Buscamos um navegador que fosse mais rápido, estável e seguro que os já existentes no mercado. E, ao mesmo tempo, que esta ferramenta fosse clara, limpa e eficiente”, anotou Fisher no blog do Google.

Embalado pela força do Google, o Chrome deve se consolidar como um forte rival para o Internet Explorer, da Microsoft e o Firefox, da Mozilla.

Desenvolvido em código-aberto, o Chrome poderá receber melhorias da comunidade de software, como já acontece com o Firefox.

Atualmente, o IE detém 72% do mercado global de navegadores e a Microsoft trabalha na oitava versão de seu navegador. O IE 8 teve recentemente seu segundo beta liberado pela Microsoft. A versão final do IE8 está prevista para dezembro.

Já a Mozilla estreou, este ano, a versão 3.0 do Firefox. O programa tornou-se o mais baixado do mundo num prazo de 24 horas. Em seu dia de estréia, o Firefox 3.0 foi baixado 8,2 milhões de vezes.

Competidores

O CEO da Mozilla anotou, em blog, que a estréia do Google no segmento de browsers era algo natural e previsível. Já o diretor de desenvolvimento do Internet Explorer, da Microsoft, disse que este setor sempre foi muito competitivo e o surgimento de mais um player é algo que não afeta os planos da Microsoft.

http://info.abril.com.br/aberto/infonews/092008/02092008-21.shl

quarta-feira, 3 de setembro de 2008

Virtualização

O que é Virtualização ?
Virtualização é o modo de apresentação ou agrupamento de um subconjunto lógico de recursos computacionais de modo que possam ser alcançados resultados e benefícios como se o sistema estivesse sobre a configuração nativa. Deste modo, a virtualização dos recursos não é restrita somente à execução, posição geográfica ou pela configuração física de recursos. Virtualização de recursos geralmente incluem o armazenamento de dados e poder de processamento.
Uma tendência nova na virtualização é o conceito de um "motor de virtualização" que dê uma prisma holístico total de toda a infraestrutura de rede usando a técnica de agregação, como por exemplo XXX. Um outro tipo popular de virtualização e atualmente muito utilizado é a virtualização de harware para rodar mais de um sistema operacional ao mesmo tempo, através de microkernels ou de camadas de abstração de harware, como por exemplo o Xen.


Principais tipos de Virtualização .

Virtualização é um termo muito amplo que leva à abstração de recursos em diferentes aspectos da computação. O conceito virtualização foi concebida pela área de TI para se referir a tudo que quisessem dizer sobre máquinas virtuais e a softwares da gerência de sistemas, o que acaba tornando o termo quase sem sentido. Algumas aplicações comuns de virtualização são listadas abaixo. Esta lista reflete a diversidade extrema do termo.
Virtualização Total
A virtualização total consiste em prover uma réplica (virtual) do hadware subjacente de tal forma que o sistema operacional e as aplicações podem executar como se tivessem executando diretamente sobre o hardware original. A grande vantagem dessa abordagem é que o sistema operacional hóspede não precisa ser modificado para executar sobre a VMM. No entanto, essa abordagem tem alguns inconvenientes.
Para-Virtualização

A para-virtualização é uma abordagem alternativa que surge como forma de contornar as desvantagens da virtualização total. Nessa abordagem, o sistema hóspede é modificado para chamar2 a VMM sempre que for executada uma instrução ou ação considerada sensível. Dessa forma, o teste por instrução não é mais necessário. Além disso, na para-virtualização os dispositivos de hardware são acessados por drivers da própria VMM.
Emulador
Emulação, também segundo o Houaiss, em um de seus sentidos, é o esforço para imitar ou tentar seguir o exemplo de alguém. Em termos computacionais, entendese a capacidade de um programa de computador, ou de um dispositivo eletrônico, imitar outro programa ou dispositivo. Em si, um emulador é um programa que cria uma camada de software entre uma plataforma3 hóspede e a plataforma hospedeira a ser imitada.
Software de Virtualização
Primeira Implementação Virtualizada foi o Virtual Iron disponivel em http://www.virtualiron.com. Depois tiverem outros como VMware, Parallels Desktop, Adeos, Mac-on-Linux, XEN.
A nível de SO temos o Linux-VServer, Virtuozzo e OpenVZ, Solaris Containers, User Mode Linux e FreeBSD Jails.