[GTER] Servidor PPPoE - Accel-PPP

Leonardo Amaral - Listas listas at leonardoamaral.com.br
Mon Dec 4 10:34:00 -02 2017


Marcelo,

Não entendi muito bem o que vc se propõe a fazer com esse script. Para
balanceamento estático de IRQs, existe um script da Intel que faz um
trabalho bom (Uso uma variante dele aqui):
https://github.com/majek/ixgbe/blob/master/scripts/set_irq_affinity (Na
real é melhor ver no tar.gz do ixgbe da intel mesmo em
https://sourceforge.net/projects/e1000/files/ixgbe%20stable/5.3.3/ - por
exemplo)

Sugiro bastante cuidado com distros como Ubuntu que tem o irqbalance ativo
por padrão. Ter carinho com as opções do módulo de rede é bom também,
principalmente nas ixgbe.





[image: --]

Leonardo Amaral
[image: https://]about.me/leonardo.amaral
<https://about.me/leonardo.amaral?promo=email_sig&utm_source=email_sig&utm_medium=email_sig&utm_campaign=external_links>

Em 1 de dezembro de 2017 20:53, Marcelo Gondim <gondim at bsdinfo.com.br>
escreveu:

> Em 01/12/2017 18:04, Bruno Vane escreveu:
>
>> Aqui usei um Dell R710 que estava parado e coloquei Accel nele.
>> Rodou 8000 sessoes simultaneas, planos de 100Mbps.
>> Depois de ajustados os smp_affinity, dava pra esquecer que a máquina
>> existia.
>> Só tirei porque resolveram partir pra Juniper/Huawei.
>>
> Excelente estudo de caso Bruno. Mas você ainda tem as configurações,
> ajustes, algo que possa compartilhar aqui com a gente?
> Eu fiz até um script pra tentar ajustar o smp_affinity automaticamente mas
> ainda não tá 100%. Se alguém quiser contribuir com melhorias será bem
> vindo.  :)
>
> Como exemplo peguei aqui as interrupções: 56, 57, 58 e 59 da interface de
> rede.
>
>  56:         28    4733285    4367099    5702814   PCI-MSI
> 1572864-edge      eth0-rxtx-0
>  57:          0    3072095    3240780    1187485   PCI-MSI
> 1572865-edge      eth0-rxtx-1
>  58:          0    3191577    4896137    1557944   PCI-MSI
> 1572866-edge      eth0-rxtx-2
>  59:          5     586489    3441602     571340   PCI-MSI
> 1572867-edge      eth0-rxtx-3
>
> O script é esse abaixo:
>
> #!/bin/bash
> string_msix="rxtx"
> bin2hex() {
>    echo "obase=16;ibase=2;$1"|bc
> }
>
> num_int=`expr \`cat /proc/interrupts |grep $string_msix|wc -l\` - 1`
> count=0
> for irqs in `cat /proc/interrupts |grep $string_msix|awk {'print $1'}|cut
> -d ":" -f1`; do
>     proc=`echo 10 ^ $count | bc`
>     hexa=`bin2hex $proc`
>     echo "Valor hexa: $hexa // interrupcao: $irqs"
>     echo $hexa > /proc/irq/$irqs/smp_affinity
>     count=`expr $count + 1`
> done
>
>
>
>
>
>> Em 1 de dezembro de 2017 14:11, André Carlim <andre at stubnet.info>
>> escreveu:
>>
>> Não foi isso, nem é minha intenção também atacar, nem defender! Todavia o
>>> que percebo é que o pessoal esta "calejado" de tanto sofrer com isso,
>>> pelo
>>> menos é essa a impressão. As vezes fico meio irritado (hehe), mas todo
>>> lugar onde tenho Accel rodando não sofre com esses problema levantados,
>>> essa semana mesmo precisamos fazer manutenção em um provedor e deixamos
>>> um
>>> Core i5 com ~ 2300 sessões ativas, durante a noite passando ~ 1Gbit de
>>> Uplink e ~ 100Mbit de downlink (2.2Gbit agregado) e o processamento nem
>>> sequer passou de 20%, muito tranquilo. Então o que percebo é que a falta
>>> de
>>> perecia que existe por ai acabou maculando a imagem de boas soluções e
>>> que
>>> tem baixo custo, minha intenção nem é lucrar absurdamente com isso (só um
>>> pouco hahahaha), mas compartilhar algo que possa ajudar nesse ramo. Eu
>>> sei
>>> que gosto é gosto, mas quem sabe possa ter algum valor para alguém...
>>>
>>> Enfim, que quiser mensurar o poder dessa ideia, estou aí!
>>>
>>> Sobre a virtualização... Assim não entendam errado, virtualização não
>>> foi,
>>> não é e acho difícil que um dia será algo bom para roteamento, quem já
>>> usou
>>> sabe. Eu ainda tenho clientes que gostam de servidor virtual e usa pppoe
>>> dentro do Xen Source que eu mesmo desenvolvi. Mas o limite são 300Mb por
>>> Host Físico, passou disso o problema é grande.
>>>
>>> Talvez com DPDK/Netmap de pra usar melhor esse ambiente virtualizado, mas
>>> eu não manjo nada de ambos, então se alguém na lista que tem bom
>>> conhecimento de DPDK ou Netmap quiser trocar uma ideia, estou disposto a
>>> trabalhar nisso!
>>>
>>> ---
>>>
>>> Atenciosamente,
>>> André Carlim
>>> StubNetwork
>>>
>>> Em 2017-11-30 11:31, César Kallas escreveu:
>>>
>>> André Carlim,me parece que você vestiu a carapuça, mas pode tirar, eu não
>>>> tenho intenção de atacar ninguém, nem entrar em troll.
>>>>
>>>> --
>>> gter list    https://eng.registro.br/mailman/listinfo/gter
>>>
>>> --
>> gter list    https://eng.registro.br/mailman/listinfo/gter
>>
>
> --
> gter list    https://eng.registro.br/mailman/listinfo/gter
>



More information about the gter mailing list