Gerade, da nun immer mehr Hoster auftauchen, die teuer Geld für Server mit mehr als 1000FPS anbieten (Auch wenn anderes behauptet wird es ist kein Kernel, sondern ein kleiner Serverhack, der unter der GNU veröffentlicht ist) hier mal eine kurze Erklärung:
Eins vorne Weg, ich halte vor allem für Public Server FPS > 500 unnötig
Die ServerFPS geben an, wie oft in der Sekunde nach neuen Daten geguckt wird. Bilder werden wie bei Clients nicht berechnet.
Damit ein flüssiges Spielgefühl aufkommt, es wichtig ist, dass die Server FPS stabil laufen und vor allem nicht geringer sind, als die eingestellte Tickrate, weil es sonst für die Spieler zu merkbaren Ruckler kommt. Man könnte jetzt meinen, dass man nicht mehr server_fps braucht, als die Tickrate eingestellt ist, wenn die updaterate und cmdrate gleich oder größer als die Tickrate sind. Das ist zwar nicht falsch, aber auch nicht ganz richtig.
Da ein Server nicht immer 100% synchron mit den Clients das Weltbild berechnet, kommen die Informationen nie gleichzeitig also synchron zur Weltbildberechnung beim Server an. Sind die Server FPS nun niedrig eingestellt, kann es sein, dass eine Clientinformation etwas zu spät beim Server ankommt und erst für den nächsten Tick verwendet werden kann. Dies liegt daran, dass nur am Anfang jedes Frames gefragt wird, ob neue Daten vom Spieler da sind, nicht aber ständig innerhalb des Frames.
Bei fps_max 300 kommen auf einen tick (bei tick100) 3 Abfragen nach neuen Daten bei 500FPS 5 Abfragen usw. Durch höhere ServerFPS erhöht man also die Wahrscheinlichkeit, dass die Clientdaten rechtzeitig zur Berechnung des Ticks vorliegen. In der Regel kann man aber keinen oder kaum einen Unterschied zwischen 500FPS und 1000FPS spüren, wenn die FPS stabil laufen, wohl aber, wenn der Server auf 1000FPS eingestellt ist und auf 500FPS oder weniger einbricht, weil der Server wieder stärker zu interpolieren anfängt und dass auch noch unregelmäßig. Deshalb sind auch stabile 500fps besser als eingestellte 1000fps, die aber ständig schwanken und einbrechen. Es gilt also, wie bei euch mit den Client FPS auch, dass Stabilität besser als ein Maximum ist, das nicht konstant gehalten werden kann.
Im Bereich 100-500FPS kann man die Steigerungen im Gameplay deutlich merken. Darüber hinaus so gut wie gar nicht, bis überhaupt nicht. Noch ein Grund mehr lieber auf stabile FPS zu setzen.
Mitlerweile gibt es Anbieter, die beliebig viele FPS anbieten und euch weiß machen wollen, der Server wird duch die höheren FPS besser. Diese Angebote sind dann in der Regel auch extrem teuer. Der hohe Preis kommt einerseits daher, dass es genügend Leute gibt die sich abzocken lassen, zum anderen, weil solche Server natürlich mehr Leistung verbrauchen.
Um diese hohen FPS zu erreichen werden KEINE tollen Kernel benutzt, egal, ob der Anbieter dies dreißt behauptet, oder nicht. Es ist eine in C programmierte lib, mit der die FPS Berechnung des Servers gehackt wird. Mit ihr kann man dann die FPS Anzahl einstellen, die man möchte. Wenn euch ein Anbieter erzählt, er habe einen neuen Kernel entwickelt ist das eine Lüge. Zur Zeit sind zwei verschiedene libs im Umlauf, eine unter GNU eine unter Berkley Lizenz veröffentlicht, die eine solche Modifikation erlauben.
Kann ein gehackter, außerhalb vom Hersteller vorgesehender Parametern Laufender Server besser sein? Nein! Wenn man schon keinen bis kaum Unterschied zwischen 500 und 1000 merkt, wie soll man darüber noch was merken. mal abgesehen davon, dass die Wahrscheinlichkeit, dass es zu FPS Drops kommt steigt, je mehr FPS eingestellt werden. Ohne den Leuten zu sagen, wie die Server nun genau eingestellt sind, habe ich sie um Vergleich von zwei Servern auf dem selben Root gebeten. Nicht einer konnte merken, dass einer auf 16200FPS, der andere nur auf ca. 990 lief. Es kam immer, "die sind doch gleich".
Mehr als 1000 FPS bringen also nur eins und das ist mehr Geld für den Anbieter.
Wer mir das nicht glaubt, hier habe ich eine Messung mit einer solchen Lib durchgeführt http://serverwiki.sp12.speed-hoster.eu/images/graph.jpg