[GTER] Servidor PPPoE - Accel-PPP

Marcelo Gondim gondim at bsdinfo.com.br
Tue Dec 5 10:29:56 -02 2017


Em 04/12/2017 10:34, Leonardo Amaral - Listas escreveu:
> Marcelo,
>
> Não entendi muito bem o que vc se propõe a fazer com esse script. Para
> balanceamento estático de IRQs, existe um script da Intel que faz um
> trabalho bom (Uso uma variante dele aqui):
> https://github.com/majek/ixgbe/blob/master/scripts/set_irq_affinity (Na
> real é melhor ver no tar.gz do ixgbe da intel mesmo em
> https://sourceforge.net/projects/e1000/files/ixgbe%20stable/5.3.3/ - por
> exemplo)
>
> Sugiro bastante cuidado com distros como Ubuntu que tem o irqbalance ativo
> por padrão. Ter carinho com as opções do módulo de rede é bom também,
> principalmente nas ixgbe.

Opa era pra fazer o que esse script que você mandou já faz rsrsrs 
consegui algo com poucas linhas mas esse parece estar beeeeem melhor kkkk
Valeu mesmo!

>
>
>
>
>
> [image: --]
>
> Leonardo Amaral
> [image: https://]about.me/leonardo.amaral
> <https://about.me/leonardo.amaral?promo=email_sig&utm_source=email_sig&utm_medium=email_sig&utm_campaign=external_links>
>
> Em 1 de dezembro de 2017 20:53, Marcelo Gondim <gondim at bsdinfo.com.br>
> escreveu:
>
>> Em 01/12/2017 18:04, Bruno Vane escreveu:
>>
>>> Aqui usei um Dell R710 que estava parado e coloquei Accel nele.
>>> Rodou 8000 sessoes simultaneas, planos de 100Mbps.
>>> Depois de ajustados os smp_affinity, dava pra esquecer que a máquina
>>> existia.
>>> Só tirei porque resolveram partir pra Juniper/Huawei.
>>>
>> Excelente estudo de caso Bruno. Mas você ainda tem as configurações,
>> ajustes, algo que possa compartilhar aqui com a gente?
>> Eu fiz até um script pra tentar ajustar o smp_affinity automaticamente mas
>> ainda não tá 100%. Se alguém quiser contribuir com melhorias será bem
>> vindo.  :)
>>
>> Como exemplo peguei aqui as interrupções: 56, 57, 58 e 59 da interface de
>> rede.
>>
>>   56:         28    4733285    4367099    5702814   PCI-MSI
>> 1572864-edge      eth0-rxtx-0
>>   57:          0    3072095    3240780    1187485   PCI-MSI
>> 1572865-edge      eth0-rxtx-1
>>   58:          0    3191577    4896137    1557944   PCI-MSI
>> 1572866-edge      eth0-rxtx-2
>>   59:          5     586489    3441602     571340   PCI-MSI
>> 1572867-edge      eth0-rxtx-3
>>
>> O script é esse abaixo:
>>
>> #!/bin/bash
>> string_msix="rxtx"
>> bin2hex() {
>>     echo "obase=16;ibase=2;$1"|bc
>> }
>>
>> num_int=`expr \`cat /proc/interrupts |grep $string_msix|wc -l\` - 1`
>> count=0
>> for irqs in `cat /proc/interrupts |grep $string_msix|awk {'print $1'}|cut
>> -d ":" -f1`; do
>>      proc=`echo 10 ^ $count | bc`
>>      hexa=`bin2hex $proc`
>>      echo "Valor hexa: $hexa // interrupcao: $irqs"
>>      echo $hexa > /proc/irq/$irqs/smp_affinity
>>      count=`expr $count + 1`
>> done
>>
>>
>>
>>
>>
>>> Em 1 de dezembro de 2017 14:11, André Carlim <andre at stubnet.info>
>>> escreveu:
>>>
>>> Não foi isso, nem é minha intenção também atacar, nem defender! Todavia o
>>>> que percebo é que o pessoal esta "calejado" de tanto sofrer com isso,
>>>> pelo
>>>> menos é essa a impressão. As vezes fico meio irritado (hehe), mas todo
>>>> lugar onde tenho Accel rodando não sofre com esses problema levantados,
>>>> essa semana mesmo precisamos fazer manutenção em um provedor e deixamos
>>>> um
>>>> Core i5 com ~ 2300 sessões ativas, durante a noite passando ~ 1Gbit de
>>>> Uplink e ~ 100Mbit de downlink (2.2Gbit agregado) e o processamento nem
>>>> sequer passou de 20%, muito tranquilo. Então o que percebo é que a falta
>>>> de
>>>> perecia que existe por ai acabou maculando a imagem de boas soluções e
>>>> que
>>>> tem baixo custo, minha intenção nem é lucrar absurdamente com isso (só um
>>>> pouco hahahaha), mas compartilhar algo que possa ajudar nesse ramo. Eu
>>>> sei
>>>> que gosto é gosto, mas quem sabe possa ter algum valor para alguém...
>>>>
>>>> Enfim, que quiser mensurar o poder dessa ideia, estou aí!
>>>>
>>>> Sobre a virtualização... Assim não entendam errado, virtualização não
>>>> foi,
>>>> não é e acho difícil que um dia será algo bom para roteamento, quem já
>>>> usou
>>>> sabe. Eu ainda tenho clientes que gostam de servidor virtual e usa pppoe
>>>> dentro do Xen Source que eu mesmo desenvolvi. Mas o limite são 300Mb por
>>>> Host Físico, passou disso o problema é grande.
>>>>
>>>> Talvez com DPDK/Netmap de pra usar melhor esse ambiente virtualizado, mas
>>>> eu não manjo nada de ambos, então se alguém na lista que tem bom
>>>> conhecimento de DPDK ou Netmap quiser trocar uma ideia, estou disposto a
>>>> trabalhar nisso!
>>>>
>>>> ---
>>>>
>>>> Atenciosamente,
>>>> André Carlim
>>>> StubNetwork
>>>>
>>>> Em 2017-11-30 11:31, César Kallas escreveu:
>>>>
>>>> André Carlim,me parece que você vestiu a carapuça, mas pode tirar, eu não
>>>>> tenho intenção de atacar ninguém, nem entrar em troll.
>>>>>
>>>>> --




More information about the gter mailing list