Die Bildwiederholrate ist ein entscheidender Faktor für die flüssige Darstellung von Spielen. Je höher sie ist, desto geschmeidiger nehmen wir die Bildinhalte wahr. Während 60 Hz bisher der Standard war, sind heutzutage eher 120 FPS und mehr gefragt. Angesichts des Klimawandels und der Energiekrise stellt sich jedoch die Frage: Hat die Erhöhung von 60 FPS auf 120 FPS einen signifikanten Einfluss auf den Stromverbrauch?
Was sind Bildwiederholrate und Bildrate?
Die Bildwiederholrate gibt an, wie viele Einzelbilder pro Sekunde ein Bildschirm oder Fernseher anzeigen kann und wird in Hertz gemessen. Ein 60 Hz-Bildschirm kann zum Beispiel 60 Einzelbilder pro Sekunde anzeigen. Die Bildrate hingegen misst, wie viele Bilder ein Rechner oder eine Grafikkarte pro Sekunde berechnen und an den Monitor senden kann.
Vor- und Nachteile von 120 FPS
Die Vorteile von 120 FPS im Vergleich zu 60 FPS liegen auf der Hand: Die Qualität und Glätte der Bilder steigen deutlich. Obwohl die flüssige Darstellung subjektiv ist, nehmen die meisten Menschen den Unterschied zwischen 60 FPS und 120 FPS deutlich wahr. Für Personen mit empfindlicher Wahrnehmung können 120 FPS eine enorme Entlastung für die Augen bedeuten.
Der Nachteil von Monitoren mit 120 Hz und mehr liegt im Preis. Sie sind etwas teurer, aber es gibt bereits gute Monitore zu moderaten Preisen. Außerdem muss nicht nur der Bildschirm, sondern auch der Computer die 120 FPS unterstützen. Je nach Spiel sind unterschiedliche Leistungsanforderungen zu beachten.
Wie sieht es mit dem Stromverbrauch aus?
Um den Stromverbrauch zu messen, haben wir das beliebte Rennspiel Forza Horizon 5 verwendet. Unter 4K-Auflösung mit 120 FPS liegt der Stromverbrauch bei 450 Watt. Interessanterweise fällt er bei einer Begrenzung auf 60 FPS bei maximalen Detailstufen auf 270 Watt.
Die Unterschiede bei WQHD- und FHD-Auflösung sind weniger dramatisch, zeigen jedoch, dass die RTX 4080 hierbei nur wenig gefordert wird. Schauen wir uns auch die RTX 2060 an:
Bei niedrigsten Detailstufen können Sie Forza Horizon 5 in Full HD mit 120 FPS spielen, wobei das gesamte Testsystem durchschnittlich 300 Watt verbraucht. Bei 60 FPS sind es hingegen nur 220 Watt.
Einflussfaktoren auf den Stromverbrauch
Neben der reinen Bildrate beeinflussen auch andere Faktoren den Stromverbrauch, die in diesem Artikel nicht näher behandelt werden. Dazu zählen Auflösung, Detailgrad und verschiedene Skalierungstechniken wie DLSS, FSR und XeSS.
Der Mittelweg – 90 FPS
Neben dem Stromverbrauch ist auch das Spielgefühl wichtig. Eine gute Alternative zu 60 FPS und 120 FPS sind 90 FPS. Sie wirken fast genauso flüssig wie 120 FPS, verbrauchen jedoch weniger Energie.
Es ist wichtig zu beachten, dass die Leistungsaufnahme je nach Spiel und System variieren kann. Unsere Messdaten dienen lediglich als Anhaltspunkt für mögliche Unterschiede. Probieren Sie es selbst aus und teilen Sie uns Ihre Erfahrungen mit!
Wie viel Geld lässt sich damit sparen?
Ausgehend von unserem Beispiel mit einer RTX 4080, einem Unterschied von 180 Watt und einem Strompreis von rund 30 Cent pro Kilowattstunde lassen sich auf 100 Stunden Spielzeit 5,40 Euro sparen. Auf ein Jahr gerechnet kann dies zu erheblichen Einsparungen führen.
Was halten Sie vom Unterschied zwischen 60 und 120 FPS? Entscheiden Sie sich für 60 FPS, um den Stromverbrauch zu senken? Teilen Sie uns Ihre Tricks und Kniffe zur Stromersparnis gerne in den Kommentaren mit!