need full free register code please email to support@airysoftware.com

  • need full free register code please email to support@airysoftware.com

  •   Zusammenfassung: Dieser Beitrag beschreibt die Strategien des Lastausgleichs und Lastverteilung verteiltes Netzwerk von Servern, bezogen auf Network Address Translation Gateway Load Balancing auf FreeBSD erreicht, auf dem Internet-Web-Server angewandt, die Last auf mehrere Server verteilt SHaring, um durch das Problem der hohen CPU-Last oder I / O von einer gro?en Anzahl von gleichzeitigem Zugriff auf den Internet-Server wird konfrontiert zu l?sen.Um die beste Lastverteilung zu erreichen, muss der Controller die aktuelle CPU und I / O-Status des einzelnen Servers laden, die Last zu verteilen, den Server dynamischen Lastmonitor erfordert, und anwendungsoptimierte Lastverteilungspolitik, auf eine durchschnittliche Lastverteilung Zweck.

      Stichwort: Load Balancing, Network Address Translation, FreeBSD

      1. Einführung

      Internet schnelles Wachstum in der Anzahl des Multimedia-Netzwerk-Zugangsservers schnell steigt, die Server-Anforderungen mit Blick auf die F?higkeit hat, eine gro?e Anzahl von gleichzeitigem Zugriff auf Dienste, Serververarbeitung und I / O-F?higkeit zu bieten Dienstleistungen zur Verfügung zu stellen hat zu einem Engpass werden.Da die Leistung eines einzelnen Server immer begrenzt ist, und müssen Sie Multi-Server-Load-Balancing-Technologie verwenden, um die Bedürfnisse einer gro?en Anzahl von gleichzeitigem Zugriff zu erfüllen.

      Das ist zun?chst durch DNS-Load-Balancing-Technologie zu erreichen, ist die Konfiguration des gleichen Namen in DNS ist mehr als eine Adresse, fragt daher den Namen des Kunden wird eine dieser Adressen bekommen, so dass unterschiedlicher Client-Zugriff einen anderen Server, Load-Balancing zu erreichen der Zweck von [1].DNS-Lastenausgleich ist eine einfache und effektive Methode, aber es kann den Unterschied zwischen einem Server nicht unterscheiden und kann den aktuellen Betriebszustand des Servers nicht widerspiegelt.

      Reverse-Proxy-Server kann die Anforderung an einen internen Web-Server weiterleiten, wenn ein Proxy-Server die Anforderung an die einheitlichen mehr internen Server weiterleiten kann, kann Lastenausgleich erreicht den Zweck [2].Reverse-Proxy-Modus kann zur Optimierung der Lastausgleichsstrategie angewandt werden, jedes Mal Zugang zu dem Leerlauf eines internen Server-Dienste zur Verfügung zu stellen.Aber mit der Zunahme der Anzahl der gleichzeitigen Verbindungen, laden der Proxy-Server selbst wird sehr gro?, und schlie?lich Proxy-Server umgekehrt selbst wird ein Service-Engpass wird.

      Zum Abstützen Adresse Lastausgleich in einer NAT-Gateway externen IP kann in mehr internen IP-Adressen, zum Zweck der TCP-Verbindungsanforderungen auf der dynamischen Verwendung einer internen Adresse abgebildet werden, Lastausgleich zu erzielen, [3].Viele Hardware-Hersteller solcher Technologien in ihre Schalter, die vierte Schicht als Funktion ihrer Schalt erreicht ist, wird im allgemeinen zuf?llige Auswahl, die Last zu verteilen, entsprechend dem Belastungsausgleichspolitik Anzahl der Verbindungen, oder die Antwortzeit des Ausw?hlens des Servers verwendet.Allerdings ist die Last-Controller-Hardware Flexibilit?t nicht stark, kann nicht eine optimalere Load-Balancing-Strategie und komplexere Anwendungsprotokoll unterstützen.

      Zus?tzlich zu diesen drei Load-Balancing-Methoden und einige internen Unterstützung Load-Balancing-Protokoll-Funktionen zur Verfügung, wie zum Beispiel HTTP-Protokoll Umleitungsf?higkeit, aber es h?ngt von dem jeweiligen Protokoll, die Verwendung eines begrenzten.Nach dieser bestehenden Load Balancing-Technologie haben die Art, wie wir zu bedienende Software Last gew?hlt NAT Art und Weise des Ausgleich des Hardware Load Balancer zu bilden sind nicht flexibel, anwendungsoptimierte Entzerrung und Strategien, um den meisten Back-End-Server-Load-Balancing zu erreichen ausgezeichneter Zustand.

      2. Load-Balancing-Strategie

      Um Last auf mehrere Server innerhalb gleichmig zu verteilen, müssen Sie eine bestimmte Load-Balancing-Strategie anzuwenden.Traditionelle Load-Balancing-Strategie berücksichtigt nicht nehmen, die verschiedenen F?higkeiten der verschiedenen Arten von Back-End-Server-Service-Anfragen und ungleicher Lastverteilung Problemen, die durch zuf?llige Auswahl.Damit die Lastverteilung sehr gleichmig ist, ist es notwendig, korrekt den jeweiligen Anwendungsserver CPU zu reflektieren und E / A-Zustand Load-Balancing-Strategie [4].

      Kunden initiierte Dienstanforderungstypen variiert werden, entsprechend den Prozessor, Netzwerk-Ressourcen-Anforderungen und I O /, k?nnen Sie einfach teilen sie in zwei verschiedene Kategorien, um verschiedene Verarbeitungsstrategien anwenden:

      Statische Dokumentanforderung: zum Beispiel gew?hnlicher Text, statische Bilder und andere Multimedia-Daten, die nur geringe Auswirkungen auf die Prozessorlast aufweist, die durch Platten-I / O-Last ist proportional zu der Gre des Dokuments, der Hauptdruck auf die Netzwerk-I / O.

      Dynamische Dokumente angefordert: die h?ufigen Anfragen erfordern oft Vorverarbeiten Servern, wie die Suche Datenbanken, Multimedia-Datei-Komprimierung und Dekomprimierung usw. Diese Anforderungen erfordern eine erheblichen Prozessor und Festplatten-I / O-Ressourcen.

      Für statische Dokumente, jeder Service-Prozess verbraucht etwa die gleichen Systemressourcen, so dass die Anzahl von Prozessen verwendet werden kann, die Systemlast zu repr?sentieren.Die Dynamische Document Services erfordern zus?tzliche Behandlung, die Menge an Systemressourcen mehr als statische Anforderungen zu verarbeiten, ist es notwendig, eine gewichtete zu verwenden, um darzustellen.Eine solche einfache Formel auf Serverbelastung wie folgt ausgedrückt:

      Wobei L eine Last auf dem Server vorhanden ist, k?nnen die Anzahl Ns eines statischen Dokument Service-Prozess, Nd dynamischen Dokumentendienst Prozessnummer und ein Dokumentendienst für jede dynamischen statischen Dokumente und Dienste in Bezug auf die Gewichte zwischen 10 und 100 ausgew?hlt werden,.

      Ohne die Server-Hardware-Beschr?nkungen in dieser Formel unter Berücksichtigung, wenn die Hardware-Beschr?nkungen der Reichweite, aufgrund mangelnder Ressourcen, werden erheblich die Last auf dem Server erh?hen.Zum Beispiel aufgrund der Einschr?nkungen von Server-Speichergre, werden einige Prozesse auf die Festplatte ausgelagert, um die Systemlast erh?ht machen schnell.Betrachten Sie die System Hardware-Beschr?nkungen kann die Serverlast ausgedrückt werden als:

      Neu hinzugefügte Parameter zeigt Ll, da? die allgemeine Begrenzung Serverlast, sollte es nach jedem der Hardware-F?higkeiten des Servers selbst eingestellt wird.B steht für die auf dem Server zugewiesen Gewicht für Aufgaben au?erhalb des normalen Lastgewicht zu begrenzen, sollten Sie eingestellt werden, dass er grer als der Wert von Ll, zu einem Hardware-Begrenzung.In der Regel in einem Cluster von Servern, Server-Hardware-Einstellungen, desto schlechter sind die mehr die gro?en Gewichte, um eingestellt werden, um zu vermeiden alle Server sind überlastet Betrieb, der schlechteste Server-Hardware statt zu laden.Somit b vorhanden ist, und umgekehrt proportional zu den Server-Hardware Grenzen Ll, dann b vorgesehen sein kann:

      Ll Wert von Llmax Server für den Server-Cluster h?chste Hardware konfiguriert.Nach der Bestimmung wird die Belastung der einzelnen Server, Serverlastverteilung Steuerzentrale in der Lage sein, richtig auf die am wenigsten ausgelasteten Server verteilt zu laden, die nicht wie die anderen Lastverteilungspolitik tut, die ungleiche Verteilung der Belastung führen würde.

      3. Durchführung und Ergebnisse

      Unser Server-System durch die Verwendung von Fast Ethernet mehr FreeBSD Systemkomponenten zu verbinden.Führen Sie einen Daemon dynamisch seinen eigenen Lastzustand auf jedem Back-End-Server zu erhalten, und Leitstelle realisiert durch die Last der einzelnen Server-Daemons mit FreeBSD-Gateways aktualisiert, für die richtige Lastverteilung.

      3.1 Tr?ger laden Gateway Auswuchten

      In FreeBSD-System sieht vor, dass divert Schnittstelle zur Unterstützung Network Address Translation-F?higkeit.IP-Paket-Filterfunktion von ipfw Kernel-Schnittstelle umgeleitet werden zu der Au?enseite Daemon natd ursprüngliche Datenpaket kann kernel empfangen werden, dann das Verarbeitungssystem übertragen werden und dann zurück in die normale IP-Verteilung [5].

      Daher FreeBSD die Adressumwandlungsstruktur, k?nnen Sie Ihre eigene Network Address Translation-Daemon Unterstützung Lastenausgleich schaffen k?nnen, wird so in der Lage sein, ein FreeBSD-System als Gateway Load Balancing zu unterstützen.Aufgrund der Art und Weise ist es in Software implementiert ist, ist es einfach, das Protokoll und anwendungsoptimierten, Nicht-Standard-Load-Balancing-Strategie, mit gro?er Flexibilit?t zu unterstützen.

      3.2 Experiment und Analyse

      Um dies zu testen die Verfügbarkeit erreichen, führten wir unser Testlabor für das am h?ufigsten HTTP-Protokoll.Um zwischen den verschiedenen Arten von Anforderungen zu unterscheiden, entwickelt, um drei verschiedene Arten von Tests, verschiedene Aspekte der Leistung zu testen.

      Dynamic Document CGI-Programm generiert: Load-Balancing-Test für den Zustand der Verarbeitungsleistung des Servers.

      Kleine statische Dokumente: eine kleinere Gre statische Dokumente, die den Zustand der Last zu testen Ausgleich h?ufige Verbindung;

      Gro?e statische Dokumente: die Verwendung von gro?en Dokumenten, Testplatte und Netzwerk-I / O-Last staatlichen Ausgleich;

      Die Testergebnisse pro einzelnen Server die angeforderte Leistung als Referenz zu vervollst?ndigen, zeigt der Einsatz von mehreren Servern Verh?ltnis der Anzahl der Anfragen und der Referenz Anzahl der Anfragen pro Sekunde Lastausgleich komplett.

      Abbildung 1: Load Balancing Performance

      Eine Kurve von dem ersten Bild über dem angeforderten Dokument ist ein dynamischer Prozess, dieses Mal erh?ht, wenn die Anzahl der Server, wird die Leistung verdoppelt, die zweite Kurve b die geringe Gre der statischen angeforderten Dokumente zu verarbeiten, in wenn eine drei-Server Leistungsverbesserung verwendet, ist nicht offensichtlich, gro?e statische Dokumente verarbeitet Anfrage dritte Kurve c in Eigenschaften fast keine Ver?nderung.Um den Grund zu finden für das Lastausgleichssystem weniger als idealen Zustand untersuchen wir die Nutzung von Server-Ressourcen:

      Tabelle 1.Server Ressourcenauslastung

      Verarbeitungsart

      Gateway Load Balancing

      1 Server

      Server 2

      Server 3

      a

      53%

      97%

      95%

      98%

      b

      76%

      43%

      39%

      41%

      c

      94%

      32%

      31%

      35%

      Wie aus dieser Tabelle ersichtlich ist, wenn ein dynamisches Dokument drei Server der Verarbeitung sind mit voller Geschwindigkeit laufen, Last gleichmig verteilt wird, ist dies ein idealer Zustand.Wenn es mit einem statischen Dokument-Typ b und c handelt, obwohl die Last gleichmig auf die drei Server verteilt wird, aber jeder Server l?uft nicht mit voller Geschwindigkeit.Vor allem, wenn mit gro?er Gre Dokumenten, natd Prozess Lastausgleichsger?te sind für einen Gro?teil der Verarbeitungsressourcen zu tun.Da der gesamte Netzwerkverkehr durch sie zu konvertieren gehen, also, wenn Netzwerkverkehr und die Anzahl der gleichzeitigen Verbindungen ist recht gro?, laden natd Prozess steigt nach oben.Bei Experimenten eine unterschiedliche Anzahl von Back-End-Servern verwenden, wird die tats?chliche Netzwerkbandbreite durch die Last flie?t Gateway Balancing:

      Tabelle 2: bietet gro?e Bandbreite des Dokumenten-Server-Cluster

      Die Anzahl der Server

      1 set

      2

      3 S?tze

      Netzwerkgeschwindigkeit (Kb / s)

      10042.14

      11015.10

      11442.67

      Wie in Bandbreitenlimit 10 MB / s oder so zu sehen ist, offensichtlich ist dies die Bandbreitenbegrenzung des Ladevorgang verwendet für die Prüfung, die Tatsache, dass das Programm verwendet eine verkettete Liste Ausgleich den Status der Netzwerkadressübersetzung zu erhalten, die gro?en Einfluss auf die Netzwerkleistung begrenzt, durch Hardware-Leistung zu verbessern und verbesserte Algorithmen kann die Leistungsf?higkeit weiter verbessern.

      4.diskutieren

      Wie aus den obigen Experimenten ersichtlich ist, auf der Grundlage der übersetzung Lastenausgleichsnetzwerkadresse kann den Server-CPU und Disk-I / O-Last, aber die Last in einer bestimmten Hardware-Bedingungen Leistung des Equalizers selbst durch die Netzwerk-I / O-Einschr?nkungen effektiv l?sen, unter einer bestimmten Bandbreite zu begrenzen, sondern durch den Algorithmus verbessern und operatives Performance Hardware-Load-Balancing-Programms zur Verbesserung der Bandbreitenlimits zu erh?hen.Auch kann man erkennen, verschiedene Dienste für verschiedene Arten von Server-Ressourcen Beruf wird, verwenden wir die Lastmessstrategie wird mit der gleichen Last bewertet, die für die meisten Bedingungen, die geeignet ist, aber der beste Weg ist, für verschiedene Ressourcen, wie beispielsweise CPU, Disk I / O oder Netzwerk-I / O, usw., um eine Server-Last verteilen die zentrale Steuerung w?hlt die geeigneten Server Client-Anforderungen für die überwachung.Unsere zukünftige Arbeit wird mit diesen beiden Aspekten beginnen, Load Balancing Controller verbessern.

      Verweise:

      [1] E.Kata, M.Butler, und R. McGrath. Ein skalierbare HTTP-Server: Der ncsa Prototyp. Rechnernetze und ISDN-Anlagen. 1994. Vol 27, P155-164

      [2] Ralf S.Engel. Laden Sie Ihre Web-Site Balancing. Web Techniques Magazine (http: // www.WebTechniques.com), Mai 1998. vol.3, iss.5

      [3] Cicso. Dokumente Localdirector. http: // www.cisco.com, 1997

      [4] H.Zhu. T.Yang, Q.Zheng, D.Watson, O.H.Ibarra, andT.Smith, Adaptive Load Sharing für gruppierten digitalen Bibliotheksserver. Technischer Bericht, CS, UCSB, 1998.

      [5] FreeBSD Kernteam. natd und Umleiten, Handbuchseiten. http: // www.freebsd.org. 1995

      Implementieren einer Load-Balancing-Gateway von NAT

      Wang, Bo

      Nongye Stra?e 70, ZhengZhou, 450002, P.R.China

      wb @ email.online.ha.cn

      Abstract: In diesem Beitrag wird Last Techniken und Strategien, Balancieren, und implementiert ein Last-Gateway basierend NAT für unsere Internet-Server Balancing. Der Internet-Server beinhaltet die hohe Belastung von CPU und I / O durch die gleichzeitigen Zugriffsanforderungen, die symmetrischen Cluster-Servern k?nnen die Serverlast verteilen, das Problem zu l?sen. Um die Last auf die beste Art und Weise ausgleichen, verteilt das Gateway die Last entsprechend dem Status der Server-CPU und I / O. Das Gateway muss jede Serverlast überwachen und die beste Regelung zur Lieferung jede Anfrage anzuwenden, so dass er die hohe Leistung für Internet-Dienste zur Verfügung stellen kann.

      Stichwort: Load Balancing, NAT, FreeBSD

    Verwenden Sie Network Address Treinnslation Multi-Server-Load-Balancing zu erreichen

    Recommend Article: