Ergebnis 1 bis 9 von 9
  1. gIlioner

    benötigte Kapazität bei 7000 Usern

    Hallo,

    ich möchte wissen, was für eine Serverkonstellation man wohl für ein Forum braucht, in dem max. 7000 User gleichzeitig online sind.

    Ich habe gedacht an einen Loadbalancer, 3 Webserver und einen MySQL-Server (Web- und MySQL-Server DualXeons mit 2GBRam).

    Was würdet ihr dazu sagen? Reicht das, oder braucht man noch weitere Kapazitäten?



    Ich hoffe auf realistische Antworten und erwarte keine Angebote, da dies nur interessehalber ist.



    Freundliche Grüße und einen schönen Abend

    gIlioner

  2. Registrieren, damit diese Werbung verschwindet.

  3. Beiträge
    800
    Registriert seit
    27.12.2001
    Ort
    Hamburg
    Vielschreiber

    Deine Aussage, dass es sich um "ein Forum" handelt reicht leider nicht aus um eine realistische Schätzung bzgl. der möglichen Hardware-Anforderungen abzugeben.

    Details?

    Theoretisch macht es aber Sinn bei einem Projekt der Größe Web- und Datenbankserver zu trennen.


  4. Beiträge
    1.055
    Registriert seit
    24.01.2001
    Foren-Guru

    Generell aus der Betrachtung der Hardwareverhaeltnisse:
    Dem Mysql-Server wuerde ich etwas mehr RAM spendieren, die Webserver muessen nicht Dual-Xeons sein, ein PIV mit HT sollte auch reichen, evtl. dann bei Bedarf halt noch einen mehr...

    Zum Thema Ausfallsicherheit: Alle Single-Point-of-Failure entschaerfen, d.h. Loadbalancer redundant, Mysql-Server mit einem Spiegelserver versehen, die beiden am besten ueber ein Crosskabel miteinander verbinden.

    Wenn du sagst, dass dort 7000 User gleichzeitig online sein sollen, dann wuerde ich von zumindest von 350 gleichzeitigen http-Sessions ausgehen, d.h. du benoetigst nur fuer das halten der Apache-Prozesse ca. 3,5 GB RAM auf den Webslaves. Macht aber nix, sonst kommt einfach noch ein Webslave dazu. Die Rechenleistung wird auf den Webslaves so nicht gebraucht.

    Der Mysql-Server sollte von der Dimensionierung erstmal reichen, sonst kommt halt noch ein Spiegelserver dazu.

    MfG
    darkstar


  5. Beiträge
    493
    Registriert seit
    12.11.2001
    Ort
    Paderborn
    Alter
    35
    Erfahrener Benutzer

    Du kannst auch mal schauen ob die Verwendung von lighttpd anstelle von Apache nicht ein wenig an Speicher spart. Es ist sogar problemlos möglich, nur auf dem "Loadbalancer" den lighttpd laufen zu lassen und auf den "Webslaves" PHP als FastCGI und diese dann über TCP anzusprechen. Dies sollte performancemässig nicht nennenswert unter mod_php liegen. Konfigurationsbeispiele gibts auf www.lighttpd.net.

    Gruss,
    Michael


  6. Beiträge
    306
    Registriert seit
    18.07.2004
    Ort
    Österreich
    Alter
    27
    Erfahrener Benutzer

    Hallo,

    meine Vorredner haben schon alles gesagt, was ich allerdings noch machen würde ist, dass man das Forum in einen Read und einen Write Bereich teilt (MySQL).

    Alle, die durch das Forum surfen, brauchen nur einen Readzugang, kommen also auf replizierte MySQL Server. Schreibt wer ein Posting, wird er auf den Master geleitet, dieser verteilt das Posting live auf die anderen Server. Die Last kannst du leicht über PHP Skript auf die einzelnen Server verteilen.

    mfg alex


  7. Beiträge
    102
    Registriert seit
    24.06.2003
    Erfahrener Benutzer

    ich denke daß schon ein Revers-Proxy helfen sollte, die Last auf den Web- und Datenbankservern zu minimieren (ja das funktioniert auch bei Dynamischen Seiten wie Foren etc...) ... Google mal nach reverse-Proxy oder schau mal in das Buch: "Webserver Survival Guide" aus dem Franzis-Verlag
    ---------------------
    MfG, Frank.

    iXware - Branchensoftware und Computerservice


  8. Beiträge
    546
    Registriert seit
    04.05.2004

    xphost.de All-Inklus...

    Provider

    Hi!

    Wie genau würde denn ein reverse-proxy helfen?

    Die Anzahl der Anfragen scheint ja das Problem. Da erscheint mir Loadbalancing mit einer Datenbank im Nacken doch irgendwie geschickter. Oder täusche ich mich da?
    Und Caching ist bei dyn. Inhalten ja schon irgendwie nahezu unmöglich ;-)


  9. Beiträge
    102
    Registriert seit
    24.06.2003
    Erfahrener Benutzer

    na der Reverse-Proxy cached die Anfragen, die bereits gemacht wurden. nur neue Anfragen werden an den Webserver weitergeleitet, und das sind dann meist nur die Neueunträge im Forum. Datenbank- und Webserver haben dann nur noch wenig zu tun, da der Webserver ja nicht mehr die vielen Anfragen bearbeiten muß (Ausführen der PHP-Scripte). Der Reverse-Proxy liefert im Prinzip die fertigen Seiten an die Clients aus, nur das was er nicht im Cache hat, wird an den Webserver weitergeleitet. Da die gecachten Seiten im RAM des Reverse-Proxyservers liegen werden Festplattenzugriffe natürlich stark minimiert, auf dem Reverse-Proxy-Server finden gar keine Festplattenzugriffe statt, der kann eigentlich ohne Festplatte aufgebaut werden, ganz wichtig ist aber sehr sehr viel RAM.

    TH. Wölfer schreibt in dem Buch "Webserver Survival Guide" über die Performanceunterschiede von der Serverfarm von Nickles.de. Dabei erwähnt er, daß der Server am Tag ca. 200000 Seitenanfragen hat, die sich auf die Zeit von 9...23Uhr verteilen, zusammen mit anderen Requests (Bilder etc.) beantwortet der Server ca. 10 Anfragen pro Sekunde und ist damit zu 20% ausgelastet. Weiterhin schreibt er: (Zitat) "Auf Grund der verwendeten Kompression sowie der passenden HTTP-Expires-Header liegt der durchschnittliche Bandbreitenbedarf ei 1MBit/Sekunde. Ohne den Einsatz von Squid werden im Normalfall ca. 150HTTP-Dämonen benötigt, mit dem Squid gerade mal eine Handvoll"

    Ich arbeite hauptberuflich in einem Rechenzentrum eines großen deutschen Autoherstellers. Wir nutzen so eine Technik (allerdings auf Hardwarebasis von Cisco) auch für das Webportal dieses Herstellers. Die Webserver haben solange wie die Cachengine eingeschaltet ist eine Auslastung von ca. 30%. Schalten wir die Engine aus, geht die Auslastung auf über 90%... - Ähm, das Protal besteht hauptsächlich aus dynamischen Inhalten, die sich alle paar Minuten ändern - das ist also vergleichbar mit einem Forum...
    Geändert von iXware (14.04.2005 um 11:35 Uhr)
    ---------------------
    MfG, Frank.

    iXware - Branchensoftware und Computerservice


  10. Beiträge
    546
    Registriert seit
    04.05.2004

    xphost.de All-Inklus...

    Provider

    Zitat Zitat von iXware
    na der Reverse-Proxy cached die Anfragen, die bereits gemacht wurden. nur neue Anfragen werden an den Webserver weitergeleitet, und das sind dann meist nur die Neueunträge im Forum. Datenbank- und Webserver haben dann nur noch wenig zu tun, da der Webserver ja nicht mehr die vielen Anfragen bearbeiten muß (Ausführen der PHP-Scripte). Der Reverse-Proxy liefert im Prinzip die fertigen Seiten an die Clients aus, nur das was er nicht im Cache hat, wird an den Webserver weitergeleitet. Da die gecachten Seiten im RAM des Reverse-Proxyservers liegen werden Festplattenzugriffe natürlich stark minimiert, auf dem Reverse-Proxy-Server finden gar keine Festplattenzugriffe statt, der kann eigentlich ohne Festplatte aufgebaut werden, ganz wichtig ist aber sehr sehr viel RAM.
    Hi!

    Wie soll das denn gehen?

    Schließlich muss eine Abfrage in einer Datenbank (z.B. in einem Forum) ja immer die aktuellen Einträge liefern. Daher kann ja nicht gecached werden.
    Das ist ja auch gerade der Grund, warum große Online-Blätter (Bild, T-Online etc.) ihren Content einmal generieren und in statischer Version hochladen. Alle Seiten können gecached werden. Bei dyn. Inhalt ist das (außer mit spez. Programmierung) nicht möglich.
    Bei einem Standard-PHP-Forum ist das wahrscheinlich nicht möglich, da inkonsistente Daten möglich wären, weil veraltete Daten gelesen wurden.


    TH. Wölfer schreibt in dem Buch "Webserver Survival Guide" über die Performanceunterschiede von der Serverfarm von Nickles.de. Dabei erwähnt er, daß der Server am Tag ca. 200000 Seitenanfragen hat, die sich auf die Zeit von 9...23Uhr verteilen, zusammen mit anderen Requests (Bilder etc.) beantwortet der Server ca. 10 Anfragen pro Sekunde und ist damit zu 20% ausgelastet. Weiterhin schreibt er: (Zitat) "Auf Grund der verwendeten Kompression sowie der passenden HTTP-Expires-Header liegt der durchschnittliche Bandbreitenbedarf ei 1MBit/Sekunde. Ohne den Einsatz von Squid werden im Normalfall ca. 150HTTP-Dämonen benötigt, mit dem Squid gerade mal eine Handvoll"

    Ich arbeite hauptberuflich in einem Rechenzentrum eines großen deutschen Autoherstellers. Wir nutzen so eine Technik (allerdings auf Hardwarebasis von Cisco) auch für das Webportal dieses Herstellers. Die Webserver haben solange wie die Cachengine eingeschaltet ist eine Auslastung von ca. 30%. Schalten wir die Engine aus, geht die Auslastung auf über 90%... - Ähm, das Protal besteht hauptsächlich aus dynamischen Inhalten, die sich alle paar Minuten ändern - das ist also vergleichbar mit einem Forum...

Ähnliche Themen

  1. Antworten: 4
    Letzter Beitrag: 01.03.2004, 18:50

Content Relevant URLs by vBSEO 3.6.0