[GTER] Brocade vRouter - ServerU L800
Leonardo Amaral - Listas
listas at leonardoamaral.com.br
Mon Dec 11 11:35:33 -02 2017
>
> Sim aí o jeito é partir pra um Juniper mesmo. Aqui nós colocamos um
> Juniper de borda.
> Ou tentar um Dell porreta com interfaces já de 40GbE da Mellanox rodando
> um FreeBSD.
>
O FreeBSD já tem stack pra roteamento + ipfw direto com netmap? Ando por
fora disso.
[image: --]
Leonardo Amaral
[image: https://]about.me/leonardo.amaral
<https://about.me/leonardo.amaral?promo=email_sig&utm_source=email_sig&utm_medium=email_sig&utm_campaign=external_links>
Em 11 de dezembro de 2017 10:27, Marcelo Gondim <gondim at bsdinfo.com.br>
escreveu:
> Em 06/12/2017 09:24, Marcos Vinícius escreveu:
>
>> Então Gondim, ele ainda aguenta mais um tempo, mas vamos aumentar muito
>> aqui o consumo, e vai chegar no limite do limite rsrs
>>
>> Ai no caso eu já estava procurando outra solução sabe. No caso pensei no
>> vRouter, mas pelo que vi ele não é mais comercializado. Você conhece
>> alguma
>> solução semelhante? Se não houver, o jeito é ir para um Juniper ou algo do
>> tipo né...
>>
> Sim aí o jeito é partir pra um Juniper mesmo. Aqui nós colocamos um
> Juniper de borda.
> Ou tentar um Dell porreta com interfaces já de 40GbE da Mellanox rodando
> um FreeBSD.
>
>
>
>> Em 5 de dezembro de 2017 18:33, Marcelo Gondim <gondim at bsdinfo.com.br>
>> escreveu:
>>
>> Em 05/12/2017 15:13, Marcos Vinícius escreveu:
>>>
>>> Ae Gondim, já estive contigo num curso na FreeBSD Brasil hehehe
>>>>
>>>> kkkkk isso aí :)
>>>
>>>
>>> Aqui ta dando quase 6.0 Gbit de trafego agregado
>>>> O que fizemos aqui foi só cpu affinity mesmo.
>>>>
>>>> O load aqui tá:
>>>>
>>>> last pid: 21390; load averages: 3.58, 3.34,
>>>> 3.27
>>>> up 296+22:19:08 15:12:24
>>>> 329 processes: 14 running, 260 sleeping, 55 waiting
>>>> CPU 0: 0.0% user, 0.0% nice, 0.0% system, 42.1% interrupt, 57.9% idle
>>>> CPU 1: 0.0% user, 0.0% nice, 0.0% system, 47.4% interrupt, 52.6% idle
>>>> CPU 2: 0.0% user, 0.0% nice, 0.0% system, 36.8% interrupt, 63.2% idle
>>>> CPU 3: 0.0% user, 0.0% nice, 0.0% system, 52.6% interrupt, 47.4% idle
>>>> CPU 4: 0.0% user, 0.0% nice, 0.0% system, 36.8% interrupt, 63.2% idle
>>>> CPU 5: 0.0% user, 0.0% nice, 0.0% system, 52.6% interrupt, 47.4% idle
>>>> CPU 6: 0.0% user, 0.0% nice, 0.0% system, 36.8% interrupt, 63.2% idle
>>>> CPU 7: 0.0% user, 0.0% nice, 5.3% system, 47.4% interrupt, 47.4% idle
>>>> Mem: 55M Active, 196M Inact, 3588M Wired, 140K Cache, 70M Free
>>>> ARC: 2839M Total, 309M MFU, 2104M MRU, 16K Anon, 18M Header, 408M Other
>>>> Swap: 2048M Total, 2048M Free
>>>>
>>>> Então a L800 foi trabalhada pra 5Gbps pelo que soube mas estou olhando
>>> seu
>>> load e tá tranquilo. Esse load que você colocou aí em cima é no horário
>>> de
>>> pico?
>>> Se for tá bem pacas. O meu aqui é um Dell R720 e estou com tráfego com
>>> quase 6Gbps e o load tá um pouco maior que o seu mas eu ainda coloco umas
>>> regras de ipfw. Só não pode colocar o pf que senão o load dobra
>>> praticamente.
>>> Aqui o pf tá disable: pfctl -d
>>> Mas pelo que to vendo o L800 ainda tem um chão ainda. :)
>>>
>>> O meu nesse horário tá assim:
>>>
>>> last pid: 858; load averages: 3.81, 3.85, 3.89 up 53+03:32:37
>>> 18:26:27
>>> 28 processes: 1 running, 27 sleeping
>>> CPU 0: 0.0% user, 0.0% nice, 3.4% system, 32.3% interrupt, 64.3% idle
>>> CPU 1: 0.0% user, 0.0% nice, 0.8% system, 36.5% interrupt, 62.7% idle
>>> CPU 2: 0.0% user, 0.0% nice, 0.4% system, 23.2% interrupt, 76.4% idle
>>> CPU 3: 0.0% user, 0.0% nice, 0.8% system, 30.0% interrupt, 69.2% idle
>>> CPU 4: 0.0% user, 0.0% nice, 0.0% system, 28.1% interrupt, 71.9% idle
>>> CPU 5: 0.0% user, 0.0% nice, 0.0% system, 34.6% interrupt, 65.4% idle
>>> CPU 6: 0.0% user, 0.0% nice, 0.4% system, 30.4% interrupt, 69.2% idle
>>> CPU 7: 0.0% user, 0.0% nice, 0.0% system, 30.4% interrupt, 69.6% idle
>>> CPU 8: 0.0% user, 0.0% nice, 1.1% system, 37.3% interrupt, 61.6% idle
>>> CPU 9: 0.0% user, 0.0% nice, 0.0% system, 40.7% interrupt, 59.3% idle
>>> CPU 10: 0.0% user, 0.0% nice, 0.8% system, 43.7% interrupt, 55.5% idle
>>> CPU 11: 0.0% user, 0.0% nice, 0.0% system, 46.4% interrupt, 53.6% idle
>>> Mem: 6336K Active, 8820M Inact, 2508M Wired, 1533M Buf, 4560M Free
>>> Swap: 7807M Total, 7807M Free
>>>
>>> E tipo as minhas interfaces são Intel X520-SR2 que não trabalham bem com
>>> pps. Estou esperando chegar as minhas chelsios pra trocar. Aí deve ficar
>>> melhor.
>>>
>>> PPS nesse momento com tráfego de 4.2Gbps de down.
>>>
>>> # netstat -ihw 1
>>> input (Total) output
>>> packets errs idrops bytes packets errs bytes colls
>>> 705k 0 0 584M 705k 0 583M 0
>>> 713k 0 0 592M 713k 0 592M 0
>>> 723k 0 0 600M 722k 0 600M 0
>>> 712k 0 0 587M 712k 0 586M 0
>>> 714k 0 0 585M 714k 0 585M 0
>>> 702k 0 0 571M 702k 0 571M 0
>>> 705k 0 0 577M 705k 0 577M 0
>>>
>>>
>>>
>>>
>>> Em 5 de dezembro de 2017 10:38, Marcelo Gondim <gondim at bsdinfo.com.br>
>>>
>>>> escreveu:
>>>>
>>>> Em 04/12/2017 15:43, Marcos Vinícius escreveu:
>>>>
>>>>> Bom dia!
>>>>>
>>>>>> Alguém tem experiencia, ou utiliza o vRouter no SeverU L800 ?
>>>>>>
>>>>>> Qual a licença está sendo utilizada, para quantos cores? E qual a
>>>>>> performance de rede tem sido alcançada?
>>>>>>
>>>>>> Estou com um L800 aqui rodando FreeBSD (Bird - OSPF e BGP) mas já está
>>>>>> chegando no limite, mesmo com cpu affinity.
>>>>>>
>>>>>> Agradeço pela atenção!
>>>>>>
>>>>>>
>>>>>> *Att,*
>>>>>> *Marcos Vinicius*
>>>>>> --
>>>>>> gter list https://eng.registro.br/mailman/listinfo/gter
>>>>>>
>>>>>> Bom dia Marcos,
>>>>>>
>>>>> Qual o tráfego que você tem hoje no pico e pps?
>>>>>
>>>>> Como que tá o load do equipamento? Tem uns tunings que as vezes melhora
>>>>> bastante.
>>>>>
>>>>> []´s
>>>>>
>>>>> Gondim
>>>>>
>>>>>
>>>>>
>>>>> --
>>> gter list https://eng.registro.br/mailman/listinfo/gter
>>>
>>> --
>> gter list https://eng.registro.br/mailman/listinfo/gter
>>
>
>
> --
> --
> gter list https://eng.registro.br/mailman/listinfo/gter
>
More information about the gter
mailing list