Cálculo da Universidade da Califórnia leva em conta 27 milhões de servidores corporativos, dos quais 1 milhão estariam nos data centers da Google.
Há três anos, os 27 milhões de servidores corporativos do mundo todo processaram 9,57 zetabytes de informação, medida equivalente a aproximadamente 10 bilhões de terabytes.
Pesquisadores da Escola de Relações Internacionais e de Estudos do Pacífico e do Centro de Supercomputação da Universidade da Califórnia em San Diego (UCSD) estimam que o total equivale a uma pilha de livros de 9 bilhões de quilômetros, capaz de se estender da Terra a Netuno, ida e volta, cerca de 20 vezes.
Em 2024, os servidores corporativos de todo o mundo deverão processar anualmente o equivalente digital de uma pilha de livros que se estenderia a mais de 4,37 anos-luz até Alfa-Centauro, a estrela mais próxima da Terra depois do Sol, de acordo com relatório divulgado pelos cientistas.
O relatório, intitulado “How Much Information? 2010 Report on Enterprise Server Information”, foi lançado em uma conferência no mês passado, nos Estados Unidos.
Iceberg
Roger Bohn, um dos coautores do relatório, comparou os servidores corporativos do mundo à porção submersa de um iceberg “que faz o mundo funcionar como o percebemos”.
“A maioria dessas informações é incrivelmente transiente: é criada, usada e descartada em poucos segundos, sem que tenha sido vista por qualquer pessoa”, disse Bohn, professor de gestão de tecnologia na UCSD.
O estudo inclui estimativas da quantidade de dados processados como entrada e entregue pelos servidores como saída. Por exemplo, uma mensagem de e-mail pode fluir por múltiplos servidores; como resultado, ela seria contada múltiplas vezes, explicou.
A carga dos cerca de 27 milhões de servidores corporativos em uso no mundo em 2008 foi estimada por meio de benchmarks de custo e desempenho para processamento de transações online, serviços web e tarefas de processamento de máquina virtual.
Os cientistas estimam que, à época, havia no mundo 3,18 bilhões de trabalhadores. Cada um teria recebido, no ano, uma média de 3 terabytes de informação.
A análise baseou-se principalmente em dados e estimativas de pesquisadores de empresas como IDC e Gartner, que divulgam regularmente dados sobre vendas de servidores.
Por baixo
Os números podem parecer exagerados. Mas os três cientistas que trabalharam no relatório garantem que as estimativas podem até ser baixas, já que os números de vendas não refletem os milhões de servidores construídos internamente por empresas como Microsoft, Google, Yahoo e outras.
O relatório estima que é da Google a maior base instalada de servidores no mundo – mais de 1 milhão. Ele também estima que a Microsoft tenha entre 500 mil e 750 mil servidores em todo o mundo.
“O crescimento explosivo do armazenamento de números, imagens e outros dados não é novidade, mas esses dados tornam-se mais importantes quando são processados ativamente por servidores e representam informação útil entregue a um número cada vez maior de pessoas”, disse James Short, diretor de pesquisas do projeto.
Short, que trabalha como cientista na UCSD, afirmou que, à medida que a capacidade dos servidores utilizados para processar esta explosão de dados aumenta, há “desafios e oportunidades sem precedentes para profissionais ligados à Tecnologia da Informação”.
Por exemplo, o estudo apontou para um rápido aumento no uso de tecnologias de virtualização de servidores a partir de 2006, bem como para o uso mais recente de sistemas de computação em nuvem, onde o poder de processamento dos servidores é fornecido como um serviço de administração centralizada e pago conforme o uso.
Desempenho por dólar
Os cientistas concentraram sua análise no desempenho dos servidores por dólar em vez do desempenho puro. Eles afirmaram que o cálculo utilizado ofereceu “um parâmetro mais consistente” quando se considera a ampla variedade de servidores utilizados pelas empresas.
Por exemplo, durante os cinco anos anteriores a 2008, o desempenho dos servidores novos aumentou de cinco a oito vezes.
“Os servidores médios tiveram sua capacidade de processamento de negócios e web dobrada a cada dois anos, mas seu desempenho por dólar dobrou a cada 1,5 ano”, disse Bohn.
Em 2008, os servidores básicos (entry-level) – que custam menos de 25 mil dólares – processaram cerca de 65% da informação do mundo. Já os de porte médio (midrange) processaram 30% e os de grande porte (high end), que custam 500 mil dólares ou mais, processaram apenas 5%, segundo o relatório.
O documento também revela que as vendas globais anuais de todos os tipos de servidores permaneceram estáveis nos cinco anos anteriores a 2008, ficando entre 50 bilhõe e 55 bilhões de dólares.
Site: IDG Now!
Data: 09/05/2011
Hora: 15h15
Seção: Computação Corporativa
Autor: Lucas Mearian
Link: http://idgnow.uol.com.br/computacao_corporativa/2011/05/09/pesquisa-servidores-globais-processam-10-bilhoes-de-terabytes-por-ano/