[GTER] Servidor PPPoE - Accel-PPP

Leonardo Amaral - Listas listas at leonardoamaral.com.br
Tue Dec 5 15:31:45 -02 2017


> Opa era pra fazer o que esse script que você mandou já faz rsrsrs
consegui algo com poucas linhas mas esse parece estar beeeeem melhor kkkk
> Valeu mesmo!

A parte boa é que é cria da Intel :D



[image: --]

Leonardo Amaral
[image: https://]about.me/leonardo.amaral
<https://about.me/leonardo.amaral?promo=email_sig&utm_source=email_sig&utm_medium=email_sig&utm_campaign=external_links>

Em 5 de dezembro de 2017 10:29, Marcelo Gondim <gondim at bsdinfo.com.br>
escreveu:

> Em 04/12/2017 10:34, Leonardo Amaral - Listas escreveu:
>
>> Marcelo,
>>
>> Não entendi muito bem o que vc se propõe a fazer com esse script. Para
>> balanceamento estático de IRQs, existe um script da Intel que faz um
>> trabalho bom (Uso uma variante dele aqui):
>> https://github.com/majek/ixgbe/blob/master/scripts/set_irq_affinity (Na
>> real é melhor ver no tar.gz do ixgbe da intel mesmo em
>> https://sourceforge.net/projects/e1000/files/ixgbe%20stable/5.3.3/ - por
>> exemplo)
>>
>> Sugiro bastante cuidado com distros como Ubuntu que tem o irqbalance ativo
>> por padrão. Ter carinho com as opções do módulo de rede é bom também,
>> principalmente nas ixgbe.
>>
>
> Opa era pra fazer o que esse script que você mandou já faz rsrsrs consegui
> algo com poucas linhas mas esse parece estar beeeeem melhor kkkk
> Valeu mesmo!
>
>
>>
>>
>>
>>
>> [image: --]
>>
>> Leonardo Amaral
>> [image: https://]about.me/leonardo.amaral
>> <https://about.me/leonardo.amaral?promo=email_sig&utm_source
>> =email_sig&utm_medium=email_sig&utm_campaign=external_links>
>>
>>
>> Em 1 de dezembro de 2017 20:53, Marcelo Gondim <gondim at bsdinfo.com.br>
>> escreveu:
>>
>> Em 01/12/2017 18:04, Bruno Vane escreveu:
>>>
>>> Aqui usei um Dell R710 que estava parado e coloquei Accel nele.
>>>> Rodou 8000 sessoes simultaneas, planos de 100Mbps.
>>>> Depois de ajustados os smp_affinity, dava pra esquecer que a máquina
>>>> existia.
>>>> Só tirei porque resolveram partir pra Juniper/Huawei.
>>>>
>>>> Excelente estudo de caso Bruno. Mas você ainda tem as configurações,
>>> ajustes, algo que possa compartilhar aqui com a gente?
>>> Eu fiz até um script pra tentar ajustar o smp_affinity automaticamente
>>> mas
>>> ainda não tá 100%. Se alguém quiser contribuir com melhorias será bem
>>> vindo.  :)
>>>
>>> Como exemplo peguei aqui as interrupções: 56, 57, 58 e 59 da interface de
>>> rede.
>>>
>>>   56:         28    4733285    4367099    5702814   PCI-MSI
>>> 1572864-edge      eth0-rxtx-0
>>>   57:          0    3072095    3240780    1187485   PCI-MSI
>>> 1572865-edge      eth0-rxtx-1
>>>   58:          0    3191577    4896137    1557944   PCI-MSI
>>> 1572866-edge      eth0-rxtx-2
>>>   59:          5     586489    3441602     571340   PCI-MSI
>>> 1572867-edge      eth0-rxtx-3
>>>
>>> O script é esse abaixo:
>>>
>>> #!/bin/bash
>>> string_msix="rxtx"
>>> bin2hex() {
>>>     echo "obase=16;ibase=2;$1"|bc
>>> }
>>>
>>> num_int=`expr \`cat /proc/interrupts |grep $string_msix|wc -l\` - 1`
>>> count=0
>>> for irqs in `cat /proc/interrupts |grep $string_msix|awk {'print $1'}|cut
>>> -d ":" -f1`; do
>>>      proc=`echo 10 ^ $count | bc`
>>>      hexa=`bin2hex $proc`
>>>      echo "Valor hexa: $hexa // interrupcao: $irqs"
>>>      echo $hexa > /proc/irq/$irqs/smp_affinity
>>>      count=`expr $count + 1`
>>> done
>>>
>>>
>>>
>>>
>>>
>>> Em 1 de dezembro de 2017 14:11, André Carlim <andre at stubnet.info>
>>>> escreveu:
>>>>
>>>> Não foi isso, nem é minha intenção também atacar, nem defender! Todavia
>>>> o
>>>>
>>>>> que percebo é que o pessoal esta "calejado" de tanto sofrer com isso,
>>>>> pelo
>>>>> menos é essa a impressão. As vezes fico meio irritado (hehe), mas todo
>>>>> lugar onde tenho Accel rodando não sofre com esses problema levantados,
>>>>> essa semana mesmo precisamos fazer manutenção em um provedor e deixamos
>>>>> um
>>>>> Core i5 com ~ 2300 sessões ativas, durante a noite passando ~ 1Gbit de
>>>>> Uplink e ~ 100Mbit de downlink (2.2Gbit agregado) e o processamento nem
>>>>> sequer passou de 20%, muito tranquilo. Então o que percebo é que a
>>>>> falta
>>>>> de
>>>>> perecia que existe por ai acabou maculando a imagem de boas soluções e
>>>>> que
>>>>> tem baixo custo, minha intenção nem é lucrar absurdamente com isso (só
>>>>> um
>>>>> pouco hahahaha), mas compartilhar algo que possa ajudar nesse ramo. Eu
>>>>> sei
>>>>> que gosto é gosto, mas quem sabe possa ter algum valor para alguém...
>>>>>
>>>>> Enfim, que quiser mensurar o poder dessa ideia, estou aí!
>>>>>
>>>>> Sobre a virtualização... Assim não entendam errado, virtualização não
>>>>> foi,
>>>>> não é e acho difícil que um dia será algo bom para roteamento, quem já
>>>>> usou
>>>>> sabe. Eu ainda tenho clientes que gostam de servidor virtual e usa
>>>>> pppoe
>>>>> dentro do Xen Source que eu mesmo desenvolvi. Mas o limite são 300Mb
>>>>> por
>>>>> Host Físico, passou disso o problema é grande.
>>>>>
>>>>> Talvez com DPDK/Netmap de pra usar melhor esse ambiente virtualizado,
>>>>> mas
>>>>> eu não manjo nada de ambos, então se alguém na lista que tem bom
>>>>> conhecimento de DPDK ou Netmap quiser trocar uma ideia, estou disposto
>>>>> a
>>>>> trabalhar nisso!
>>>>>
>>>>> ---
>>>>>
>>>>> Atenciosamente,
>>>>> André Carlim
>>>>> StubNetwork
>>>>>
>>>>> Em 2017-11-30 11:31, César Kallas escreveu:
>>>>>
>>>>> André Carlim,me parece que você vestiu a carapuça, mas pode tirar, eu
>>>>> não
>>>>>
>>>>>> tenho intenção de atacar ninguém, nem entrar em troll.
>>>>>>
>>>>>> --
>>>>>>
>>>>>
> --
> gter list    https://eng.registro.br/mailman/listinfo/gter
>



More information about the gter mailing list