[GTER] Roteamento com Linux
Paulo Henrique - BSD Brasil
paulo.rddck at bsd.com.br
Fri Mar 18 10:59:19 -03 2016
Saudações,
On 18/03/16 08:45, Danton Nunes wrote:
> On Thu, 17 Mar 2016, Roberto Bertó wrote:
>
>> nao eh melhor processadores de frequencia mais alta?
>
> acho que não, o requisito é mais forte na capacidade de lidar com
> interrupções e DMA do que em processamento. a CPU de um sistema assim
> vai ficar sempre em 85-90% idle.
> --
> gter list https://eng.registro.br/mailman/listinfo/gter
Não tive oportunidade direta em trabalhar com BGP full-routing, já subi
um parcial-routing usando um Dell-220 com uma quantidade de trafégo
irrisória para o hardware, contudo via alguns fatores no qual sempre
observo nas discussões da GTER, MASHOL e FUG quando se trata de BGP
sobre comodity hardware.
Processadores: sempre com muitos nucleos ( não é threads e sim nucleos )
para poder lidar com a distribuição de IRQs de cada interface, caso a
interface tenha Queues ai esse numero de nucleos é proporcional a
quantidade de queues que a interface suporta, não vi nenhum case com
CPUs da AMD, todos sempre adotaram CPUs Intel Xeon, o case do Paulo
Henrique ( paulohenriquef at gmail.com ) foi o primeiro que utilizou CPU
Intel Core 2 Quad, excessão para quem utiliza Server-U L100 pois a mesma
utiliza CPU Intel Atom, no caso dos L-800 já são Xeon.
Memória: Normalmente vejo o pessoal descrevendo caixas com 8Gbytes ou
mais de memoria, memórias com frequencia de operação elevadas ( 1600mhz
) são sempre utilizadas, inicialmente achava que era devido a
compatibilidade contudo em um e-mail do Rubens e do Patrick o motivo de
usar memórias com uma frequencia sempre tão altas se dá a maior
velocidade de pesquisa na tabela de rotas de novos destinos e
interferindo diretamente na latência da FIB.
Um dos fatores de maior impacto na performance pelo que compreendi se dá
quanto a FSB da placa-mãe, onde em cases de grande troughput tinha
especificações bem semelhantes.
-> Dual north-brigde ( cada interface ou grupo de interfaces sendo
balanceadas entre os canais dessas duas ).
-> Dual channel ( mandatório quando se usa dois north-brigde - acho que
é por isso o uso de 8Gbytes de memoria 4Gbytes para cada ponte -
especulação não tive acesso ao hardware e ninguém documentou algo
referente a isso nas listas ).
-> PCI-E x8 e x16 ( não utilizam placas de rede on-board )p
-> Fabricantes das placas-mãe : Intel Serverboard ou Supermicro, poderia
colocar Foxcomm que são as utilizadas pelos servidores Dell, HP utiliza
placas fabricadas pela Intel.
Interfaces de Rede: Sempre em todos os casos ( excessão para o L-100 e
L-800 ) é utilizado interfaces de rede off-board com MSI-X e TCP
offload, sendo estas ou Intel ( redes de 1Gb/s ) familia 82579 podendo
ser utilizadas junto com LACP com case de 2.5Gb/s ou Intel 82599 e 82598
destinadas para conexões decagigabit, nos cases que o Patrick documenta
ele também utiliza a Chelsio T520.
Observei uma tendência em usarem single-port ou dual-port e todos
praticamente serem contra a utilização das quad-port alegando que o
desempenho é sofrivel por ultrapassar o maximo de banda suportado pelo
barramento PCI-Express de 8162Mb/s.
Quanto a software, esmagadoramente o sistema operacional adotado é o
FreeBSD, estimo que pelo menos uns 80% dos cases que li a respeito dois
ou três estavam satisfeitos com Linux o restante ou rodavam sobre
FreeBSD desde o inicio ou em algum momento devido a problemas de carga
do IRQ migraram do Linux para o FreeBSD, só vi um case até o momento que
utilizava o OpenBSD e foi em uma lista Nanog.
Quanto a daemons BGP, maioria optam entre Quaqqa ou OpenBGPd, o segundo
é sempre utilizado em base FreeBSD, não vi ninguém com ele sobre Linux,
é feito algumas referências ao bird contudo relacionado a Router server.
Quanto a tunning, embora há alguns tunning no FreeBSD o mesmo é
contantemente referido com necessário em plataformas linux.
A unica coisa que observei é que plataforma de hardware IBM X Servers
não é recomendado, dois usuários reclamaram sobre péssima performance.
Não houve qualquer referencia quanto a aspectos de refrigeração do
servidor assim como também não tem muita informação sobre a topologia
adotada na interfigação do roteador de borda com a rede intra-as, a
maioria utilizam OSPF, porém não deixam claro se o roteamento intra-as
também é tratado sobre o mesmo servidor ou se é executado em outro servidor.
Att. Paulo Henrique.
--
##################################################
:UNI><BSD User:
Paulo Henrique
Fone: (21) 3708-9388
##################################################
More information about the gter
mailing list