[GTER] PPS em Mikrotik

Shine eshine at gmail.com
Wed Sep 12 02:14:12 -03 2018


O meu entendimento é que o servidor que roda RDMA está na ponta.
Na rede você usaria RoCE ou iWarp para poder otimizar o tráfego, correto?
No caso de roteamento, o nó em geral apenas faz o encaminhamento. É
diferente de escrever e processar um bloco de dados. E ainda há o fato de
que mesmo o plano de controle estar colapsado com o plano de dados roteador
em software ainda assim essas funções existem em módulos de software
separados. Essa interação é complexa, demora um tempo para desenvolver um
sistema otimizado.

Em ter, 11 de set de 2018 às 09:23, Douglas Fischer <
fischerdouglas at gmail.com> escreveu:

> Uma pergunta que não sei exatamente o quanto cabe nesse caso.
>
> Mas para ambiente de Datacenter, falando de aplicação com grande demanda de
> rede, interfaces com suporte a RDMA fazem toda a diferença na performance
> no caso da virtualização.
>
> Basicamente estou falando de Intel x710 vs x720(com RDMA).
>
> Com x720, mesmo com aplicações como de storage virtualizado, não há
> necessidade de malabarismo com passtrough e outras técnicas similares...
> Performance igual (ou melhor para o intra-host).
>
> E aí?
> Como os colegas enxergam a demanda por esse requisito do RDMA?
>
>
> Em dom, 9 de set de 2018 19:13, Marcelo Gondim <gondim at bsdinfo.com.br>
> escreveu:
>
> > Em 08/09/2018 12:13, Raphael Pontara escreveu:
> > > Marcelo, aproveitando o gancho do affinity,  pergunto:
> > > - As distribuições Linux já não fazem isso nativamente?
> > Tem sim mas em alguns equipamentos isso parece não ficar muito bom. Já
> > peguei alguns assim principalmente quando o assunto é tráfego de
> > roteamento. Uma coisa é um servidor de base de dados por exemplo e outra
> > é um servidor que vai apenas rotear tráfego com muito pps (forward de
> > pacotes). Em todos os pdfs que já li tanto em BSDs quanto em Linux em se
> > falando de roteamento o melhor é fazer o cpu affinity manualmente de
> > modo à distribuir as interrupções das interfaces em seus cores e evitar
> > as migrações de contexto entre os cores. Em ambientes NUMA também é
> > falado para distribuir as interfaces de rede que vão ter muito tráfego
> > nos NUMAs corretos. Por exemplo: vamos dizer que uma interface de rede
> > esteja em um slot gerenciado pela NUMA 0, a outra interface você deveria
> > por em um slot gerenciado pela NUMA 1. Isso levando em conta que o
> > tráfego vai entrar por uma e sair pela outra interface.
> > Eu sempre usei FreeBSD pra fazer routers mas confesso que esse último
> > que montei usando Debian 9 + kernel 4.17, fazendo o affinity e outros
> > tunings, me surpreendeu bastante.
> > >
> > > Talvez eu esteja confundindo os cenários, pois rodando o SGBD Firebird
> > eu acabei caindo num fórum que dizia exatamente o que afirmei.
> > Pois é. Mas muita gente roda muito bem usando o irqbalance. Nos pdfs que
> > li os autores querem tirar o máximo de proveito nos testes e aí eles
> > removem o irqbalance.
> > >
> > > Sobre a distribuição a ser usada, você já teve alguma experiência com o
> > Alpine Linux?
> > Não esse ainda não usei. Já usei muitas distros mas de 2009 pra cá só
> > tenho usado Debian e no caso de BSDs, o FreeBSD.
> > >
> > > Sobre o envio de arquivos na lista, o send.firefox.com é bem bacana.
> > > Ele tem característica ‘temporal’.
> > Ah legal. Tem bastante opções :) realmente nem havia me ligado nelas.
> >
> > []´s
> >
> > >
> > > Abraço.
> > >
> > >
> > > Raphael Pontara
> > > +55 27 99252-5555 (Claro)
> > > +55 27 99998-6904 (Vivo)
> > >
> > > Em 7 de set de 2018, à(s) 17:45, Marcelo Gondim <gondim at bsdinfo.com.br
> >
> > escreveu:
> > >
> > >> Em 07/09/2018 17:33, V. Feitoza escreveu:
> > >>> Ola,
> > >>>
> > >>> Gondim segue o que temos hoje:
> > >>> Linux 200-9-27-66 4.17.0-0.bpo.1-amd64 #1 SMP Debian 4.17.8-1~bpo9+1
> > >>> (2018-07-23) x86_64 GNU/Linux
> > >>> FRRouting (version 5.0.1).
> > >> Até aqui perfeito. Pra banda que você comentou com certeza atenderia.
> > >>
> > >>> Del R710 2 processadores Xeon 2.8 cada com HT ativo e 96Gb de ram
> > >>> Placa de rede Broadcom Limited NetXtreme II BCM57711 10-Gigabit PCIe
> > >>> Mas como vejo relatos das Intel, vou providenciar a troca.
> > >> Aqui já mudaria uma coisas:
> > >>
> > >> - Desabilitar o HT. HT não é bom pra equipamentos que fazem
> roteamento.
> > >> - Trocar as Broadcom por Intel X520-SR2 ou Chelsio T520-CR.
> > >> - Fazer o cpu affinity.
> > >> - Desabilitar o TSO e LRO das interfaces.
> > >>
> > >> PDF:
> >
> https://pt.scribd.com/document/354588349/100G-Tuning-TechEx2016-tierney-pdf
> > >>
> > >> Nesse pdf tem umas dicas ótimas e fala dos scripts da Mellanox pra
> > fazer o cpu affinity baseado em NUMA, que é o seu caso.
> > >>
> > >>> Segue meu-email: vfeitoza at gmail.com
> > >>>
> > >>>
> > >>> Victor Feitoza
> > >>> (83) 9 9127-0103 / (83) 9 9144-2654
> > >>>
> > >>>
> > >>>
> > >>>> Em sex, 7 de set de 2018 às 14:53, Rubens Kuhl <rubensk at gmail.com>
> > escreveu:
> > >>>>
> > >>>> On Fri, Sep 7, 2018 at 2:38 PM Marcelo Gondim <
> gondim at bsdinfo.com.br>
> > >>>> wrote:
> > >>>>
> > >>>>> Em 07/09/2018 08:53, V. Feitoza escreveu:
> > >>>>>> Ola,
> > >>>>>>
> > >>>>>> Gondim, estou implantando aqui esta solução de softrouter.
> > >>>>>> Tem algum material de tuning na qual possa enviar, pois aqui com
> > 1Gb de
> > >>>>>> tráfego a galera sente uma grande lentidão.
> > >>>>>> Realizei comparações com as modificações no sysctl do VyOS versão
> > 1.2 e
> > >>>>>> apliquei algumas no mesmo mas não surtiu efeito.
> > >>>>> Olá Feitoza,
> > >>>>>
> > >>>>> Tem pdf sim mas não consigo mandar aqui pela lista. Posso mandar
> > direto
> > >>>>> pro seu email.
> > >>>>>
> > >>>> Para mandar arquivos na lista, Google Drive, Dropbox e similares
> > funcionam
> > >>>> bem...
> > >>>>
> > >>>>
> > >>>> Rubens
> > >>>> --
> >
> > --
> > gter list    https://eng.registro.br/mailman/listinfo/gter
> >
> --
> gter list    https://eng.registro.br/mailman/listinfo/gter
>



More information about the gter mailing list