[an error occurred while processing this directive] [an error occurred while processing this directive][an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive] (none) [an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive][an error occurred while processing this directive] [an error occurred while processing this directive][an error occurred while processing this directive] [an error occurred while processing this directive][an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive] (none) [an error occurred while processing this directive] [an error occurred while processing this directive] [an error occurred while processing this directive][an error occurred while processing this directive]
 
[an error occurred while processing this directive] [an error occurred while processing this directive]
Skåne Sjælland Linux User Group - http://www.sslug.dk Home   Subscribe   Mail Archive   Forum   Calendar   Search
MhonArc Date: [Date Prev] [Date Index] [Date Next]   Thread: [Date Prev] [Thread Index] [Date Next]   MhonArc
 

Re: [NETVAERK] Performance af iptables



Hej

donald_j_axel wrote:
On Tue, 26 Jul 2005 18:33:56 +0200
Jesper wrote:
F.eks. hvor mange samtidige session-connections
kan den klare (uanset pakketrafik-mængden) ?
Den kan klare mange. Jeg har sat max til 64k, og det giver ikke
problemer. Jeg har cirka 220 klient maskiner på.
Mener du "sat max i kerne-config til 64k buffer for data til
connection tracking"?
Det er vist nødvendigt at konfigurere kernen til "store
IP-tabeller" og med optimering for routing, hvis du skal have
voluminøs routing ud af det.

Hvordan bestemmer man det maksimale antal connections/sessions iptables kan holde styr på og hvordan øger man tallet ?

Jeg er også spændt på resultaterne - ville egentlig gerne
opstille et testsystem så man kunne stress-teste. Er der
mulighed for det ved en Linux-Router-event?

Det lyder som et spændende projekt. X antal maskiner, der åbner så mange tcpforbindelser mod et antal servere og sender lidt/meget data.

Desuden ville jeg gerne afprøve belastning hidrørende fra de
forskellige traffic control algoritmer, som man kan administrere
med tc-kommandoen. Måske er jeg naiv, men jeg tror at en optimalt
konfigureret Linux-box vil kunne konkurrere med en gennemsnits
Cisco router.
Endelig ville det være interessant at se, om Intel kort med
on-board checksumming virkelig kan forøge throughput.

Cisco BFR og HFR er faktisk ikke så gode til alt det der filter og firewallhurlumhej. Det de er gode til er på ingres interface for millioner af pakker i sekundet at slå op i FIB'en med dens typisk 110.000+ global routing entries og så afgøre, hvilket egres interface pakkerne skal sendes til.

Når det er sagt, så har jeg også haft kig på forskellige andre ting, der påvirker
performance skønt jeg ikke har konkrete resultater jeg kan fremlægge.

Lad mig tage et par eksempler som kan virke lidt forvirrende uden
diagrammer, der dog kan ses hos de respektive firmaer.

Motherboard A) GA-8IPE1000pro3 har et Intel Kenai II GE (82547EI) forbundet
direkte til 865PE (memorycontroller), der er forbundet direkte til ram.
Den har jeg så også givet en Intel 82541GI/PI 32bit PCI 33MHz forbundet til
ICH5 forbundet til 865PE.

Motherboard B) GA-8IPE1000-G har en Marwell GE chip forbundet til PCI-bussen
(sikkert 32bit og sikkert 33MHz) forbundet til ICH5, der er forbundet til Intel 865PE.
Alt andet lieg så er den knap så hurtig som A).

Så er der C) Tyan Tomcat i7210, der har Intel  82547 GE forbundet med CSA
til Canterwood mem-ctrl. Den har også en Intel 82541 GE forbundet med 32bit
PCI 33MHz til Hance63000ESB som er forbundet til Canterwood. PCI32/33MHz
er som sagt forbundet til Hance63000ESB og den har jeg så også et lowend
GE Intel kort på. Men boardet har også en anden PCIbus, nemlig en 64bit
66MHz og den har jeg et Intel 82544EI 64bit 33-133MHz GE. Alt i alt er der
altså båndbredde til at flytte massive mængder data, men de skal alle op
i rammen og ind i cpu'en, hvis de skal processeres.

For alle de Intelbaserede kort, hvad betyder NAPI-support for interrupt-
mængden eller anden load ??

Da jeg normalt mere flytter store mængder data end kigger på filterrules
er Tyan-kortet en workhorse med en enorm båndbredde. Men det
er jo nok filterrules load vi kigger på her ??

--PMM
+----------------------------------------------------------+
| Kabel-TV over Internettet   --   http://www.streamtv.dk/ |
+----------------------------------------------------------+


 
Home   Subscribe   Mail Archive   Index   Calendar   Search

 
 
Questions about the web-pages to <www_admin>. Last modified 2005-08-10, 22:43 CEST [an error occurred while processing this directive]
This page is maintained by [an error occurred while processing this directive]MHonArc [an error occurred while processing this directive] # [an error occurred while processing this directive] *