[GTER] Roteamento com Linux

Paulo Henrique - BSD Brasil paulo.rddck at bsd.com.br
Fri Mar 18 10:59:19 -03 2016


Saudações,


On 18/03/16 08:45, Danton Nunes wrote:
> On Thu, 17 Mar 2016, Roberto Bertó wrote:
>
>> nao eh melhor processadores de frequencia mais alta?
>
> acho que não, o requisito é mais forte na capacidade de lidar com 
> interrupções e DMA do que em processamento. a CPU de um sistema assim 
> vai ficar sempre em 85-90% idle.
> -- 
> gter list    https://eng.registro.br/mailman/listinfo/gter
Não tive oportunidade direta em trabalhar com BGP full-routing, já subi 
um parcial-routing usando um Dell-220 com uma quantidade de trafégo 
irrisória para o hardware, contudo via alguns fatores no qual sempre 
observo nas discussões da GTER, MASHOL e FUG quando se trata de BGP 
sobre comodity hardware.

Processadores: sempre com muitos nucleos ( não é threads e sim nucleos ) 
para poder lidar com a distribuição de IRQs de cada interface, caso a 
interface tenha Queues ai esse numero de nucleos é proporcional a 
quantidade de queues que a interface suporta, não vi nenhum case com 
CPUs da AMD, todos sempre adotaram CPUs Intel Xeon, o case do Paulo 
Henrique ( paulohenriquef at gmail.com ) foi o primeiro que utilizou CPU 
Intel Core 2 Quad, excessão para quem utiliza Server-U L100 pois a mesma 
utiliza CPU Intel Atom, no caso dos L-800 já são Xeon.

Memória: Normalmente vejo o pessoal descrevendo caixas com 8Gbytes ou 
mais de memoria, memórias com frequencia de operação elevadas ( 1600mhz 
) são sempre utilizadas, inicialmente achava que era devido a 
compatibilidade contudo em um e-mail do Rubens e do Patrick o motivo de 
usar memórias com uma frequencia sempre tão altas se dá a maior 
velocidade de pesquisa na tabela de rotas de novos destinos e 
interferindo diretamente na latência da FIB.

Um dos fatores de maior impacto na performance pelo que compreendi se dá 
quanto a FSB da placa-mãe, onde em cases de grande troughput tinha 
especificações bem semelhantes.
-> Dual north-brigde ( cada interface ou grupo de interfaces sendo 
balanceadas entre os canais dessas duas ).
-> Dual channel ( mandatório quando se usa dois north-brigde - acho que 
é por isso o uso de 8Gbytes de memoria 4Gbytes para cada ponte - 
especulação não tive acesso ao hardware e ninguém documentou algo 
referente a isso nas listas ).
-> PCI-E x8 e x16 ( não utilizam placas de rede on-board )p
-> Fabricantes das placas-mãe : Intel Serverboard ou Supermicro, poderia 
colocar Foxcomm que são as utilizadas pelos servidores Dell, HP utiliza 
placas fabricadas pela Intel.

Interfaces de Rede: Sempre em todos os casos ( excessão para o L-100 e 
L-800 ) é utilizado interfaces de rede off-board com MSI-X e TCP 
offload, sendo estas ou Intel ( redes de 1Gb/s ) familia 82579 podendo 
ser utilizadas junto com LACP com case de 2.5Gb/s ou Intel 82599 e 82598 
destinadas para conexões decagigabit, nos cases que o Patrick documenta 
ele também utiliza a Chelsio T520.
Observei uma tendência em usarem single-port ou dual-port e todos 
praticamente serem contra a utilização das quad-port alegando que o 
desempenho é sofrivel por ultrapassar o maximo de banda suportado pelo 
barramento PCI-Express de 8162Mb/s.

Quanto a software, esmagadoramente o sistema operacional adotado é o 
FreeBSD, estimo que pelo menos uns 80% dos cases que li a respeito dois 
ou três estavam satisfeitos com Linux o restante ou rodavam sobre 
FreeBSD desde o inicio ou em algum momento devido a problemas de carga 
do IRQ migraram do Linux para o FreeBSD, só vi um case até o momento que 
utilizava o OpenBSD e foi em uma lista Nanog.
Quanto a daemons BGP, maioria optam entre Quaqqa ou OpenBGPd, o segundo 
é sempre utilizado em base FreeBSD, não vi ninguém com ele sobre Linux, 
é feito algumas referências ao bird contudo relacionado a Router server.

Quanto a tunning, embora há alguns tunning no FreeBSD o mesmo é 
contantemente referido com necessário em plataformas linux.

A unica coisa que observei é que plataforma de hardware IBM X Servers 
não é recomendado, dois usuários reclamaram sobre péssima performance.
Não houve qualquer referencia quanto a aspectos de refrigeração do 
servidor assim como também não tem muita informação sobre a topologia 
adotada na interfigação do roteador de borda com a rede intra-as, a 
maioria utilizam OSPF, porém não deixam claro se o roteamento intra-as 
também é tratado sobre o mesmo servidor ou se é executado em outro servidor.

Att. Paulo Henrique.


-- 
##################################################
:UNI><BSD User:
Paulo Henrique
Fone: (21) 3708-9388
##################################################




More information about the gter mailing list