[GTER] Servidor PPPoE - Accel-PPP
Marcelo Gondim
gondim at bsdinfo.com.br
Fri Dec 1 20:53:53 -02 2017
Em 01/12/2017 18:04, Bruno Vane escreveu:
> Aqui usei um Dell R710 que estava parado e coloquei Accel nele.
> Rodou 8000 sessoes simultaneas, planos de 100Mbps.
> Depois de ajustados os smp_affinity, dava pra esquecer que a máquina
> existia.
> Só tirei porque resolveram partir pra Juniper/Huawei.
Excelente estudo de caso Bruno. Mas você ainda tem as configurações,
ajustes, algo que possa compartilhar aqui com a gente?
Eu fiz até um script pra tentar ajustar o smp_affinity automaticamente
mas ainda não tá 100%. Se alguém quiser contribuir com melhorias será
bem vindo. :)
Como exemplo peguei aqui as interrupções: 56, 57, 58 e 59 da interface
de rede.
56: 28 4733285 4367099 5702814 PCI-MSI
1572864-edge eth0-rxtx-0
57: 0 3072095 3240780 1187485 PCI-MSI
1572865-edge eth0-rxtx-1
58: 0 3191577 4896137 1557944 PCI-MSI
1572866-edge eth0-rxtx-2
59: 5 586489 3441602 571340 PCI-MSI
1572867-edge eth0-rxtx-3
O script é esse abaixo:
#!/bin/bash
string_msix="rxtx"
bin2hex() {
echo "obase=16;ibase=2;$1"|bc
}
num_int=`expr \`cat /proc/interrupts |grep $string_msix|wc -l\` - 1`
count=0
for irqs in `cat /proc/interrupts |grep $string_msix|awk {'print
$1'}|cut -d ":" -f1`; do
proc=`echo 10 ^ $count | bc`
hexa=`bin2hex $proc`
echo "Valor hexa: $hexa // interrupcao: $irqs"
echo $hexa > /proc/irq/$irqs/smp_affinity
count=`expr $count + 1`
done
>
> Em 1 de dezembro de 2017 14:11, André Carlim <andre at stubnet.info> escreveu:
>
>> Não foi isso, nem é minha intenção também atacar, nem defender! Todavia o
>> que percebo é que o pessoal esta "calejado" de tanto sofrer com isso, pelo
>> menos é essa a impressão. As vezes fico meio irritado (hehe), mas todo
>> lugar onde tenho Accel rodando não sofre com esses problema levantados,
>> essa semana mesmo precisamos fazer manutenção em um provedor e deixamos um
>> Core i5 com ~ 2300 sessões ativas, durante a noite passando ~ 1Gbit de
>> Uplink e ~ 100Mbit de downlink (2.2Gbit agregado) e o processamento nem
>> sequer passou de 20%, muito tranquilo. Então o que percebo é que a falta de
>> perecia que existe por ai acabou maculando a imagem de boas soluções e que
>> tem baixo custo, minha intenção nem é lucrar absurdamente com isso (só um
>> pouco hahahaha), mas compartilhar algo que possa ajudar nesse ramo. Eu sei
>> que gosto é gosto, mas quem sabe possa ter algum valor para alguém...
>>
>> Enfim, que quiser mensurar o poder dessa ideia, estou aí!
>>
>> Sobre a virtualização... Assim não entendam errado, virtualização não foi,
>> não é e acho difícil que um dia será algo bom para roteamento, quem já usou
>> sabe. Eu ainda tenho clientes que gostam de servidor virtual e usa pppoe
>> dentro do Xen Source que eu mesmo desenvolvi. Mas o limite são 300Mb por
>> Host Físico, passou disso o problema é grande.
>>
>> Talvez com DPDK/Netmap de pra usar melhor esse ambiente virtualizado, mas
>> eu não manjo nada de ambos, então se alguém na lista que tem bom
>> conhecimento de DPDK ou Netmap quiser trocar uma ideia, estou disposto a
>> trabalhar nisso!
>>
>> ---
>>
>> Atenciosamente,
>> André Carlim
>> StubNetwork
>>
>> Em 2017-11-30 11:31, César Kallas escreveu:
>>
>>> André Carlim,me parece que você vestiu a carapuça, mas pode tirar, eu não
>>> tenho intenção de atacar ninguém, nem entrar em troll.
>>>
>> --
>> gter list https://eng.registro.br/mailman/listinfo/gter
>>
> --
> gter list https://eng.registro.br/mailman/listinfo/gter
More information about the gter
mailing list