[GTER] Brocade vRouter - ServerU L800

Leonardo Amaral - Listas listas at leonardoamaral.com.br
Mon Dec 11 11:35:33 -02 2017


>
> Sim aí o jeito é partir pra um Juniper mesmo. Aqui nós colocamos um
> Juniper de borda.
> Ou tentar um Dell porreta com interfaces já de 40GbE da Mellanox rodando
> um FreeBSD.
>

O FreeBSD já tem stack pra roteamento + ipfw direto com netmap? Ando por
fora disso.



[image: --]

Leonardo Amaral
[image: https://]about.me/leonardo.amaral
<https://about.me/leonardo.amaral?promo=email_sig&utm_source=email_sig&utm_medium=email_sig&utm_campaign=external_links>

Em 11 de dezembro de 2017 10:27, Marcelo Gondim <gondim at bsdinfo.com.br>
escreveu:

> Em 06/12/2017 09:24, Marcos Vinícius escreveu:
>
>> Então Gondim, ele ainda aguenta mais um tempo, mas vamos aumentar muito
>> aqui o consumo, e vai chegar no limite do limite rsrs
>>
>> Ai no caso eu já estava procurando outra solução sabe. No caso pensei no
>> vRouter, mas pelo que vi ele não é mais comercializado. Você conhece
>> alguma
>> solução semelhante? Se não houver, o jeito é ir para um Juniper ou algo do
>> tipo né...
>>
> Sim aí o jeito é partir pra um Juniper mesmo. Aqui nós colocamos um
> Juniper de borda.
> Ou tentar um Dell porreta com interfaces já de 40GbE da Mellanox rodando
> um FreeBSD.
>
>
>
>> Em 5 de dezembro de 2017 18:33, Marcelo Gondim <gondim at bsdinfo.com.br>
>> escreveu:
>>
>> Em 05/12/2017 15:13, Marcos Vinícius escreveu:
>>>
>>> Ae Gondim, já estive contigo num curso na FreeBSD Brasil hehehe
>>>>
>>>> kkkkk isso aí  :)
>>>
>>>
>>> Aqui ta dando quase 6.0 Gbit de trafego agregado
>>>> O que fizemos aqui foi só cpu affinity mesmo.
>>>>
>>>> O load aqui tá:
>>>>
>>>> last pid: 21390;  load averages:  3.58,  3.34,
>>>> 3.27
>>>> up 296+22:19:08 15:12:24
>>>> 329 processes: 14 running, 260 sleeping, 55 waiting
>>>> CPU 0:  0.0% user,  0.0% nice,  0.0% system, 42.1% interrupt, 57.9% idle
>>>> CPU 1:  0.0% user,  0.0% nice,  0.0% system, 47.4% interrupt, 52.6% idle
>>>> CPU 2:  0.0% user,  0.0% nice,  0.0% system, 36.8% interrupt, 63.2% idle
>>>> CPU 3:  0.0% user,  0.0% nice,  0.0% system, 52.6% interrupt, 47.4% idle
>>>> CPU 4:  0.0% user,  0.0% nice,  0.0% system, 36.8% interrupt, 63.2% idle
>>>> CPU 5:  0.0% user,  0.0% nice,  0.0% system, 52.6% interrupt, 47.4% idle
>>>> CPU 6:  0.0% user,  0.0% nice,  0.0% system, 36.8% interrupt, 63.2% idle
>>>> CPU 7:  0.0% user,  0.0% nice,  5.3% system, 47.4% interrupt, 47.4% idle
>>>> Mem: 55M Active, 196M Inact, 3588M Wired, 140K Cache, 70M Free
>>>> ARC: 2839M Total, 309M MFU, 2104M MRU, 16K Anon, 18M Header, 408M Other
>>>> Swap: 2048M Total, 2048M Free
>>>>
>>>> Então a L800 foi trabalhada pra 5Gbps pelo que soube mas estou olhando
>>> seu
>>> load e tá tranquilo. Esse load que você colocou aí em cima é no horário
>>> de
>>> pico?
>>> Se for tá bem pacas. O meu aqui é um Dell R720 e estou com tráfego com
>>> quase 6Gbps e o load tá um pouco maior que o seu mas eu ainda coloco umas
>>> regras de ipfw. Só não pode colocar o pf que senão o load dobra
>>> praticamente.
>>> Aqui o pf tá disable: pfctl -d
>>> Mas pelo que to vendo o L800 ainda tem um chão ainda.  :)
>>>
>>> O meu nesse horário tá assim:
>>>
>>> last pid:   858;  load averages:  3.81,  3.85, 3.89 up 53+03:32:37
>>> 18:26:27
>>> 28 processes:  1 running, 27 sleeping
>>> CPU 0:   0.0% user,  0.0% nice,  3.4% system, 32.3% interrupt, 64.3% idle
>>> CPU 1:   0.0% user,  0.0% nice,  0.8% system, 36.5% interrupt, 62.7% idle
>>> CPU 2:   0.0% user,  0.0% nice,  0.4% system, 23.2% interrupt, 76.4% idle
>>> CPU 3:   0.0% user,  0.0% nice,  0.8% system, 30.0% interrupt, 69.2% idle
>>> CPU 4:   0.0% user,  0.0% nice,  0.0% system, 28.1% interrupt, 71.9% idle
>>> CPU 5:   0.0% user,  0.0% nice,  0.0% system, 34.6% interrupt, 65.4% idle
>>> CPU 6:   0.0% user,  0.0% nice,  0.4% system, 30.4% interrupt, 69.2% idle
>>> CPU 7:   0.0% user,  0.0% nice,  0.0% system, 30.4% interrupt, 69.6% idle
>>> CPU 8:   0.0% user,  0.0% nice,  1.1% system, 37.3% interrupt, 61.6% idle
>>> CPU 9:   0.0% user,  0.0% nice,  0.0% system, 40.7% interrupt, 59.3% idle
>>> CPU 10:  0.0% user,  0.0% nice,  0.8% system, 43.7% interrupt, 55.5% idle
>>> CPU 11:  0.0% user,  0.0% nice,  0.0% system, 46.4% interrupt, 53.6% idle
>>> Mem: 6336K Active, 8820M Inact, 2508M Wired, 1533M Buf, 4560M Free
>>> Swap: 7807M Total, 7807M Free
>>>
>>> E tipo as minhas interfaces são Intel X520-SR2 que não trabalham bem com
>>> pps. Estou esperando chegar as minhas chelsios pra trocar. Aí deve ficar
>>> melhor.
>>>
>>> PPS nesse momento com tráfego de 4.2Gbps de down.
>>>
>>> # netstat -ihw 1
>>>              input        (Total)           output
>>>     packets  errs idrops      bytes    packets  errs      bytes colls
>>>        705k     0     0       584M       705k     0       583M     0
>>>        713k     0     0       592M       713k     0       592M     0
>>>        723k     0     0       600M       722k     0       600M     0
>>>        712k     0     0       587M       712k     0       586M     0
>>>        714k     0     0       585M       714k     0       585M     0
>>>        702k     0     0       571M       702k     0       571M     0
>>>        705k     0     0       577M       705k     0       577M     0
>>>
>>>
>>>
>>>
>>> Em 5 de dezembro de 2017 10:38, Marcelo Gondim <gondim at bsdinfo.com.br>
>>>
>>>> escreveu:
>>>>
>>>> Em 04/12/2017 15:43, Marcos Vinícius escreveu:
>>>>
>>>>> Bom dia!
>>>>>
>>>>>> Alguém tem experiencia, ou utiliza o vRouter no SeverU L800 ?
>>>>>>
>>>>>> Qual a licença está sendo utilizada, para quantos cores? E qual a
>>>>>> performance de rede tem sido alcançada?
>>>>>>
>>>>>> Estou com um L800 aqui rodando FreeBSD (Bird - OSPF e BGP) mas já está
>>>>>> chegando no limite, mesmo com cpu affinity.
>>>>>>
>>>>>> Agradeço pela atenção!
>>>>>>
>>>>>>
>>>>>> *Att,*
>>>>>> *Marcos Vinicius*
>>>>>> --
>>>>>> gter list    https://eng.registro.br/mailman/listinfo/gter
>>>>>>
>>>>>> Bom dia Marcos,
>>>>>>
>>>>> Qual o tráfego que você tem hoje no pico e pps?
>>>>>
>>>>> Como que tá o load do equipamento? Tem uns tunings que as vezes melhora
>>>>> bastante.
>>>>>
>>>>> []´s
>>>>>
>>>>> Gondim
>>>>>
>>>>>
>>>>>
>>>>> --
>>> gter list    https://eng.registro.br/mailman/listinfo/gter
>>>
>>> --
>> gter list    https://eng.registro.br/mailman/listinfo/gter
>>
>
>
> --
> --
> gter list    https://eng.registro.br/mailman/listinfo/gter
>



More information about the gter mailing list