[GTER] Upgrade CPD

willian pires willian_pires at hotmail.com
Tue Oct 15 00:10:05 -03 2013


Boa noite,
Aqui estamos usamos soluções mistas:
São 4 enclouser Engenio 16 Discos Sas 64Gb, num total de 64 Discos em um arranjo com zfs zraid2 em um Freebsd 9.1 exportando os volumes via NFS em 4 portas gigabit a performance  é excepcional ! 
Os dados são gravados em disco a  400MB/s e cada porta consegue gerar aproximadamente 100MB/s.
São 2 placas HBA Fiber Channel conectadas em uma topologia de anel para redundancia de placa/porta/enclouser.
Backup fazemos snapshot do volume e exportamos para outra maquina visto que a maquina atual mantem um nivel de disponibilidade muito alto, conseguimos cópias com uma garantia aceitável, muito longe de um VCB ou um uma solução BareMetal.
Temos no total 7  maquinas todas com configurações entre 8 e 32  cores, e entre 32 e 128Gb de memória ram.Nosso ambiente conta com um total de 85 maquinas virtuais o que da quase 12 por maquina tendo como guest'sfreebsd,linux,openindiana,windows 200x, windows 7.
As maquinas rodam muito bem os clientes não reclamam de lag nem atrasos nas gravações de disco, interessante observar que as maquinas hosts virtualizadoras mantem um Load de 6,7 durante a produção.
Usamos o ubuntu 12.04 com kvm e qemu, ainda tivemos alguns problemas com apparmor do ubuntu e batemos um pouco de cabeça para ajustar as migrações em tempo real.
Toda rede é dividida as conexões ip estão em um switch L3 que é o default gw das maquinas, nossa rede administrativa em outro switch que é onde os hosts são migrados a quente e nossa rede de dados, montagem dos volumes nfs num terceiro switch network não é um problema.
O primeiro switch é um 3com 5500G O segundo e o terceiro são 3com v1910
Acreditamos que o ponto de sucesso são as placas de rede intel dualport, pois as broadcom abriram o bico diversas vezes me parece que os últimos updates não estão nada bons.
Estamos sempre muito cientes das limitações impostas pelo NFS porem estamos usando ele com sucesso a mais de 2 anos e efetivamente não temos intenção de migrar para qualquer outra solução de bloco de rede  "iscsi" no tocante flexibilidade/efetividade não vemos vantagem em usar outra solução.


Abraço.


> Date: Tue, 15 Oct 2013 02:39:30 +0000
> From: jniltinho at gmail.com
> To: gter at eng.registro.br
> Subject: Re: [GTER] Upgrade CPD
> 
> XenServer 6.2
> 
> 
> Em 15 de outubro de 2013 01:09, Danton Nunes
> <danton.nunes at inexo.com.br>escreveu:
> 
> > On Mon, 14 Oct 2013, casfre at gmail.com wrote:
> >
> >  2013/10/14 Lucio de Aquino <lucio.aquino at ecosistemas.com.**br<lucio.aquino at ecosistemas.com.br>
> >> >:
> >>
> >>> Boa tarde Danton
> >>>
> >>>
> >>> --> colocamos um servidor de volumes no R410 com 6Tera,
> >>>
> >>>
> >>> Uma duvida sobre que software "rodou" neste servidor de volumes , era
> >>> algum FREENAS , NFS , etc ?
> >>>
> >>
> >> Eu estou ajudando a analisar uma mudança quase igual, mas o target é
> >> um HP 3par 7400. Alguém conhece?
> >>
> >> E também fiquei curioso com a solução indicada pelo Danton,
> >> principalmente no quesito desempenho para uso com VMWare.
> >>
> >
> > nunca usei vmware, a instalação que descrevi roda com qemu/kvm+libvirt.
> > --
> > gter list    https://eng.registro.br/**mailman/listinfo/gter<https://eng.registro.br/mailman/listinfo/gter>
> >
> 
> 
> 
> -- 
> ..............................................................................
>  *Nilton OS* | *DNA Linux a 15 anos* |
> linuxpro.com.br<http://www.linuxpro.com.br>
> 
> *"Não são os grandes homens que transformam o mundo, mas sim os fracos nas
> mãos de um grande Deus."*
> --
> gter list    https://eng.registro.br/mailman/listinfo/gter
 		 	   		  


More information about the gter mailing list