[GTER] RES: Aumento de Energia para DataCenter
Carlos Ribeiro
cribeiro at telbrax.com.br
Wed Mar 4 11:38:39 -03 2015
José Luiz,
Muito bom você mencionar sua experiência, a questão da temperatura e do
acesso diferenciado à sala de elétrica é um ponto importante e que muita
gente nem considera no projeto.
Sobre o uso do ar condicionado com inverter, também reforço a recomendação.
Pesquisei um bocado sobre ar condicionado há uns dois ou três anos atrás, e
acabei aprendendo na marra sobre a diferença do ar de conforto e do ar de
precisão. O que muita gente não fala porém é que existem aparelhos que eu
chamo de "industriais", que não são de precisão mas tem algumas
características importantes que os tornam apropriados para datacenters:
- construção robusta, sacrificando a estética em nome da confiabilidade
(alguns são em chapa de metal pura, sem nem uma carcaça de plástico).
- capacidade de operar 24x7x365 (aparelhos comuns são desenhados para serem
desligados de noite).
- grande fluxo de ar, e elevada pressão estática.
- possibilidade de montar dutos para levar o ar condicionado 'por cima' em
vez de ser pelo piso.
Outro ponto importante do seu email é o uso do ar condicionado "por cima",
possivelmente usando dutos, em vez de usar o ar insuflado por baixo do
rack. Eu sou 100% a favor dessa opção e já fui criticado algumas vezes por
isso. Muita gente acha que tem que usar piso elevado, comenta que "todo
mundo usa" então deve estar certo, mas nunca parou para pensar porquê.
Eu não vejo sentido em usar piso elevado em datacenters pequenos, acredito
que o cabeamento aéreo (pelo esteiramento) é uma opção melhor. Vejam que em
datacenters pequenos estamos falando de salas comerciais com pé direito de
2,80, e que não tem espaço suficiente para ter um entrepiso adequado e uma
circulação boa de ar.
Já em datacenters grandes, com pé direito amplo (de preferência da ordem de
4m ou mais, ou seja, construído por encomenda) sobra espaço para um
entrepiso razoável (acima de 40cm, com múltiplos níveis) e também sobra
espaço para a convecção atuar e fazer o ar quente subir sozinho,
facilitando a retirada do mesmo.
*Carlos Ribeiro*
*Sócio*
Cel: +55 (31) 9303-3366
Tel: +55 (31) 3305-5620
Geral: +55 (31) 3305-5600
cribeiro at telbrax.com.br
www.telbrax.com.br
Em 3 de março de 2015 18:22, José Luiz Vieira <jvieira at eliteacs.com.br>
escreveu:
> Por fornecermos soluções para monitoramento de datacenters, temos
> adquirido várias experiências que funcionaram bem, e outras que nem tanto.
>
> Quanto ao nobreak na sala de TI, não é recomendável por vários motivos,
> entre eles que a temperatura ideal para as baterias funcionarem bem é maior
> que a temperatura que é comum ser mantida no datacenter, além da segurança
> e controle de acesso.
>
> Uma solução que tem dado excelente resultado para datacenters que não usam
> equipamentos de precisão para a refrigeração é o uso de equipamentos com a
> tecnologia inverter, pois com essa tecnologia o ar condicionado se adapta a
> carga térmica do ambiente reduzindo assim o consumo.
>
> O uso de separação em corredores quente e frio também são interessantes,
> mas tem que tomar cuidado com a questão de isolamento, nessa configuração
> todo espaço vazio precisa ser fechado para que o ar condicionado atravesse
> os equipamentos de TI sem fugir por outros caminhos.
>
> E pasmem o erro mais frequente que existe é a porta do próprio rack.
> Antigamente quando o insulflamento do ar condicionado ocorria por baixo
> (não recomendo também). Os racks tinham portas fechadas em policarbonato
> para permitir a visualização dos ativos, sem permitir a saída do ar. Hoje
> em muitos datacenters de variados portes, ainda se usam porta de
> policarbonato, mas com ar condicionado refrigerando o ambiente, assim o ar
> frio tem dificuldade para entrar no rack e refrigerar os ativos, como
> resultado temos um alto custo de energia com baixíssima eficiência.
>
> Aumentar a temperatura é também um recurso muito útil, haja visto que a
> relação de risco de pane versus consumo desnecessário de energia tem
> apontado para o aumento do setpoint da temperatura ambiente.
>
> É claro que para manter seguro é preciso de ter um sistema de
> monitoramento eficaz para permitir que qualquer problema seja rapidamente
> reportado.
>
> José Luiz Vieira.
> 4201 8800
> www.eliteacs.com.br
>
> -----Mensagem original-----
> De: Carlos Ribeiro [mailto:cribeiro at telbrax.com.br]
> Enviada em: terça-feira, 3 de março de 2015 11:59
> Para: Grupo de Trabalho de Engenharia e Operacao de Redes
> Assunto: Re: [GTER] Aumento de Energia para DataCenter
>
> Há controvérsias... A maioria dos no breaks usa baterias que precisam
> ficar com temperatura controlada para garantir seu funcionamento,
> capacidade e vida útil.
>
> Porém, antigamente isso não era comum, porque as baterias (especialmente
> as mais antigas) vazavam um gás corrosivo. Hoje com baterias seladas isso
> (em tese, pelo que já ouvi a respeito) não é um problema.
>
> Uma solução possível e já indicada por outras pessoas na lista é deixar as
> baterias em uma sala anexa, onde o controle de temperatura não precisa ser
> tão rigoroso, e com a opção de fazer um pouco de troca de ar para eliminar
> eventuais gases. Pode ser excesso de preocupação, mas eu pessoalmente acho
> que é a melhor solução, por diversas outras vantagens. Entre elas, porque o
> acesso e a manutenção da sala de elétrica pode ser feito por outra equipe
> que nem entra na sala de servidores. Esse pra mim já é um motivo
> suficiente, mesmo em um datacenter ou POP de pequeno porte.
>
> Carlos Ribeiro
> Sobre nobeak, devo manter eles dentro do data center, junto no ar
> condicionado, ou posso manter em uma sala sem ar condicionado.
>
> Em 3 de março de 2015 09:25, Carlos Ribeiro <cribeiro at telbrax.com.br>
> escreveu:
> > +1!
> >
> > É importante também eliminar outras e ineficiência na infraestrutura.
> > Quanto maior o consumo, maior é o impacto potencial do desperdício. 1%
> > em
> > 10.000 kWh (consumo mensal de um DC pequeno, com um ou dois racks + ar
> > condicionado) é uma coisa; 1% em 100.000 kWh, apesar de ser a mesma
> > proporção relativa, já passa a ser um volume significativo em tempos
> > absolutos
> >
> > Outro ponto é que com correntes maiores, e distâncias também maiores,
> > o cabeamento elétrico passa a ser um ponto de preocupação, tanto pelo
> > custo (proporcional ao cubo do aumento do diâmetro), como pelo peso,
> > falta de maleabilidade a dificuldade de instalação.
> >
> > Finalmente, o maior ladrão de energia em um datacenter 'caseiro' é a
> > ar condicionado. Um sistema ruim custa mais caro e compromete todo
> > restante
> do
> > projeto.
> >
> > Aqui no Brasil, que é um país quente, é impressionante a quantidade de
> > pequenos datacenters que ainda usam ar condicionado comum, de janela
> > ou split. Esses aparelhos até podem ser usados, com os devidos
> > cuidados, mas somente em instalações de pequeno porte. A partir de um
> > certo tamanho o tiro sai pela culatra. A capacidade precisa ser
> > superdimensionada, porque
> o
> > ar condicionado de conforto resfria ambientes habitados por seres
> > humanos em parte por evaporação da pele, que simplesmente não tem
> > efeito nenhum sobre servidores. E o fluxo de ar do split não tem
> > pressão estática suficiente para atravessar as distâncias de uma sala
> > de médio porte, repleta de obstáculos e interferências. Sobram zonas
> > quentes que acabam
> por
> > aumentar o consumo e diminuir a vida útil dos equipamentos.
> >
> > Falei isso tudo aqui, não por duvidar ou subestimar ninguém, mas até
> > mesmo porque acredito que a maioria dos participantes dessa lista já
> > tenham experiência e conhecimento suficientes para tomar as decisões
> > corretas a esse respeito. Porém, como 'formadores de opinião', acho
> > importante disseminarmos as melhores práticas tanto para quem está
> > chegando, como também para clientes menos especializados mas que
> > também tem demandas bem significativas de infraestrutura.
> >
> > Carlos Ribeiro
> > Em 02/03/2015 12:12, "Fernando Frediani" <fhfrediani at gmail.com>
> escreveu:
> >
> >> Pera ai pessoal,
> >> Não sei se ainda estamos falando de economia de energia para
> >> Datacenter, mas acho que substituir um ou outro servidor por
> >> RaspberryPi ou
> Cubieboard
> >> nao faz nem cócegas no consumo. Talvez em um pequeno CPD, mas ainda
> >> acho que pouca coisa.
> >> Sobre utilizar esses equipamentos para servidor NTP também tenho
> >> dúvidas da efetividade.
> >> E mesmo que funcione legal são poucas as aplicações que podem ser
> >> substituídas por um RaspbeeryPi/Cubieboard. O grosso mesmo vem dos
> >> servidores grandes, dos Storages principalmente aqueles com dezenas
> >> de discos magnéticos.
> >>
> >> Se for pra cortar consumo ou diminuir a conta de energia ainda acho
> >> as duas soluções efetivas são ou Virtualizar ou fazer um investimento
> >> a
> longo
> >> prazo e gerar a própria energia através de painéis solares, aero
> geradores
> >> ou quaisquer outras fontes de energia renováveis ou limpas.
> >>
> >> Fernando
> >>
> >> On 01/03/2015 22:38, Ricardo Landim wrote:
> >>
> >>> Também estou pesquisando sobre placas com processador ARM para fazer
> >>> pequenos servidores.
> >>>
> >>> Fiquei muito interessado no ODROID-C1...ele é um ARM®
> >>> Cortex®-A5(ARMv7) 1.5Ghz quad core CPUs!
> >>>
> >>> Consome menos de 10W!
> >>>
> >>> Em 1 de março de 2015 22:05, Carlos Ribeiro
> >>> <cribeiro at telbrax.com.br>
> >>> escreveu:
> >>>
> >>> Comprei um Raspberry Pi semana passada, para mexer um pouco. Me
> >>> parece
> >>>> que
> >>>> para isso com servidor NTP ele não seria a melhor opção porque não
> >>>> tem relógio interno... Mas ainda vou pesquisar mais.
> >>>>
> >>>> Também estou pesquisando o uso de painéis solares. Já usamos em
> >>>> POPs pequenos, não é nenhum bicho de sete cabeças. Mas para
> >>>> ambientes
> maiores,
> >>>> há outras questões que precisa ser considerados.
> >>>>
> >>>> Porém, acho que a primeira coisa para fazer experimentos sérios é
> >>>> ter capacidade de medir a energia consumida por cada ativo de rede
> >>>> é cada servidor. Sem isso já parâmetro para comparação...
> >>>>
> >>>> Carlos Ribeiro
> >>>> Em 01/03/2015 16:36, "casfre at gmail.com" <casfre at gmail.com> escreveu:
> >>>>
> >>>> 2015-03-01 13:31 GMT-03:00 Felipe Trevisan <fetrevisan at gmail.com>:
> >>>>>
> >>>>> Ou fazer como a Microsoft e Apple com energia solar e fuell-cells.
> :-)
> >>>>>>
> >>>>>> http://research.microsoft.com/pubs/210641/FCDC-TechReport.pdf
> >>>>>>
> >>>>>> http://www.redoxpowersystems.com/ - a Startup que cria as
> fuel-cells.
> >>>>>>
> >>>>>>
> >>>>>>
> >>>>>> https://gigaom.com/2013/11/18/apple-solar-farm-fuel-cell-
> >>>> farms-exclusive-photos-investigative-report/
> >>>>
> >>>>> - a experiencia da Apple.
> >>>>>>
> >>>>>> É. Interessante. Mas acho que vai sair um pouquinho mais caro
> >>>>>> que os
> >>>>> RaspberryPI, nesse momento. :-)
> >>>>>
> >>>>> Obrigado.
> >>>>>
> >>>>> Càssio
> >>>>> --
> >>>>> gter list https://eng.registro.br/mailman/listinfo/gter
> >>>>>
> >>>> --
> >>>> gter list https://eng.registro.br/mailman/listinfo/gter
> >>>>
> >>> --
> >>> gter list https://eng.registro.br/mailman/listinfo/gter
> >>>
> >>
> >> --
> >> gter list https://eng.registro.br/mailman/listinfo/gter
> > --
> > gter list https://eng.registro.br/mailman/listinfo/gter
> --
> gter list https://eng.registro.br/mailman/listinfo/gter
>
>
>
> ---
> Este email foi escaneado pelo Avast antivírus.
> http://www.avast.com
>
> --
> gter list https://eng.registro.br/mailman/listinfo/gter
>
More information about the gter
mailing list