[GTER] Servidor PPPoE - Accel-PPP

Marcelo Gondim gondim at bsdinfo.com.br
Fri Dec 1 20:53:53 -02 2017


Em 01/12/2017 18:04, Bruno Vane escreveu:
> Aqui usei um Dell R710 que estava parado e coloquei Accel nele.
> Rodou 8000 sessoes simultaneas, planos de 100Mbps.
> Depois de ajustados os smp_affinity, dava pra esquecer que a máquina
> existia.
> Só tirei porque resolveram partir pra Juniper/Huawei.
Excelente estudo de caso Bruno. Mas você ainda tem as configurações, 
ajustes, algo que possa compartilhar aqui com a gente?
Eu fiz até um script pra tentar ajustar o smp_affinity automaticamente 
mas ainda não tá 100%. Se alguém quiser contribuir com melhorias será 
bem vindo.  :)

Como exemplo peguei aqui as interrupções: 56, 57, 58 e 59 da interface 
de rede.

  56:         28    4733285    4367099    5702814   PCI-MSI 
1572864-edge      eth0-rxtx-0
  57:          0    3072095    3240780    1187485   PCI-MSI 
1572865-edge      eth0-rxtx-1
  58:          0    3191577    4896137    1557944   PCI-MSI 
1572866-edge      eth0-rxtx-2
  59:          5     586489    3441602     571340   PCI-MSI 
1572867-edge      eth0-rxtx-3

O script é esse abaixo:

#!/bin/bash
string_msix="rxtx"
bin2hex() {
    echo "obase=16;ibase=2;$1"|bc
}

num_int=`expr \`cat /proc/interrupts |grep $string_msix|wc -l\` - 1`
count=0
for irqs in `cat /proc/interrupts |grep $string_msix|awk {'print 
$1'}|cut -d ":" -f1`; do
     proc=`echo 10 ^ $count | bc`
     hexa=`bin2hex $proc`
     echo "Valor hexa: $hexa // interrupcao: $irqs"
     echo $hexa > /proc/irq/$irqs/smp_affinity
     count=`expr $count + 1`
done



>
> Em 1 de dezembro de 2017 14:11, André Carlim <andre at stubnet.info> escreveu:
>
>> Não foi isso, nem é minha intenção também atacar, nem defender! Todavia o
>> que percebo é que o pessoal esta "calejado" de tanto sofrer com isso, pelo
>> menos é essa a impressão. As vezes fico meio irritado (hehe), mas todo
>> lugar onde tenho Accel rodando não sofre com esses problema levantados,
>> essa semana mesmo precisamos fazer manutenção em um provedor e deixamos um
>> Core i5 com ~ 2300 sessões ativas, durante a noite passando ~ 1Gbit de
>> Uplink e ~ 100Mbit de downlink (2.2Gbit agregado) e o processamento nem
>> sequer passou de 20%, muito tranquilo. Então o que percebo é que a falta de
>> perecia que existe por ai acabou maculando a imagem de boas soluções e que
>> tem baixo custo, minha intenção nem é lucrar absurdamente com isso (só um
>> pouco hahahaha), mas compartilhar algo que possa ajudar nesse ramo. Eu sei
>> que gosto é gosto, mas quem sabe possa ter algum valor para alguém...
>>
>> Enfim, que quiser mensurar o poder dessa ideia, estou aí!
>>
>> Sobre a virtualização... Assim não entendam errado, virtualização não foi,
>> não é e acho difícil que um dia será algo bom para roteamento, quem já usou
>> sabe. Eu ainda tenho clientes que gostam de servidor virtual e usa pppoe
>> dentro do Xen Source que eu mesmo desenvolvi. Mas o limite são 300Mb por
>> Host Físico, passou disso o problema é grande.
>>
>> Talvez com DPDK/Netmap de pra usar melhor esse ambiente virtualizado, mas
>> eu não manjo nada de ambos, então se alguém na lista que tem bom
>> conhecimento de DPDK ou Netmap quiser trocar uma ideia, estou disposto a
>> trabalhar nisso!
>>
>> ---
>>
>> Atenciosamente,
>> André Carlim
>> StubNetwork
>>
>> Em 2017-11-30 11:31, César Kallas escreveu:
>>
>>> André Carlim,me parece que você vestiu a carapuça, mas pode tirar, eu não
>>> tenho intenção de atacar ninguém, nem entrar em troll.
>>>
>> --
>> gter list    https://eng.registro.br/mailman/listinfo/gter
>>
> --
> gter list    https://eng.registro.br/mailman/listinfo/gter




More information about the gter mailing list