NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test

Grafikkarten | HT4U.net | Seite 7

NVIDIA GPU Boost 2.0 (Herstellerangabe)



Die GPU-Boost-Technik führte NVIDIA erstmals mit der GeForce GTX 680 ein. Sprach der Hersteller seinerzeit noch davon, dass es weit mehr als 10 Faktoren gäbe, an welchen sich das Boost-Verhalten orientiere, erklärte man der anwesenden Presse nun, dass das Boostverhalten sich bisher nur am Power Target orientiert habe. Das Boost-Verhalten habe man nun optimiert und eine weitere Größe zur Beachtung mit in die Regulierung einbezogen: die Temperatur. Neben einem Power Target (PT), gibt es ab GPU Boost 2.0 nun auch noch das Temperature Target (TT), welches man werkseitig mit 80 °C angesetzt hat.

Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Temperaturverhalten GPU Boost 1.0 Temperaturverhalten GPU Boost 2.0 Temperaturverhalten GPU Boost 2.0 manueller Eingriff


Bislang arbeiteten NVIDIA-Grafikkarten mit GPU-Boost-Technik mit ihrem maximal höchsten Takt von Beginn an und erst bei Erreichen der maximal erlaubten Leistungsaufnahme (PT), wurden Takt und Spannungen Stück für Stück zurück gefahren, bis das gesetzte Ziel eingehalten wurde. Dabei hatte sich die Temperatur der Chips natürlich ebenfalls auf die Leistungsaufnahme ausgewirkt, weshalb man diesen Faktor nun mit berücksichtigt. Damit erfolgt die Drosselung bei GPU Boost 2.0 nun entweder bei Erreichen der Temperaturgrenze (TT) von 80 °C oder dem Erreichen der maximal erlaubten Leistungsaufnahme (PT). Weiterhin bleibt dem Anwender die Option manuell in PT und TT einzugreifen, beispielsweise über Tools wie MSI Afterburner oder EVGA Precision X.

Dieses Temperature Target wirkt sich natürlich auch unmittelbar auf die Geräuschkulisse aus. Da beim Erreichen der 80 °C die Taktstufen und Spannungen zurück gefahren werden, muss der Lüfter die Drehzahlen nicht weiter steigern, um das Limit zu halten. Erhöht man das TT, steigern sich die Lüfterdrehzahlen und der Titan-Kühler geht etwas lauter zu Werke.

Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Taktfrequenzen GPU Boost 1.0 Taktfrequenzen GPU Boost 2.0 Taktfrequenzen GPU Boost 2.0 Overvoltage


Darüber hinaus habe man mit GPU Boost 2.0 Performance-Verbesserungen herbeigeführt. Die Boost-Taktraten würden für einen längeren Zyklus gehalten werden, als bisher. Ebenso habe man nun eine Option geschaffen, die GPU-Spannungen zu erhöhen – natürlich unter Ausschluss der Garantie. Durch diese Möglichkeit sei es abermals möglich, maximale Boost-Taktraten länger einzuhalten.

Die Overvoltage-Funktion muss dabei ebenfalls manuell über die erwähnten Tools aktiviert werden. Dabei stimmt der Anwender dem Hinweis auf den Garantieverlust zu. NVIDIA sieht dabei eine maximale Spannung von 1,2 Volt vor. Den Boardpartnern sei es allerdings auch gestattet, hier höhere Werte zu erlauben – in beiden Fällen aber auf eigene Gefahr. So bestünde auch die Möglichkeit, dass der Partner bei seiner Titan-Umsetzung überhaupt keine Overvoltage-Option bietet.

Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Bild: NVIDIA GeForce GTX Titan von ASUS und Gigabyte im Test
Spannungsstufen GPU Boost 1.0 Spannungsstufen GPU Boost 2.0 Spannungsstufen GPU Boost 2.0 Overvoltage


Die Überarbeitungen, insbesondere die Einführung der Temperaturüberwachung, soll laut NVIDIA-Folien dazu geführt haben, dass die einzelnen GPU-Spannungsstufen länger gehalten werden können. Das führt automatisch zu länger anhaltendem höheren Takt. Die manuelle Spannungserhöhung führt laut gleichen Abbildungen dazu, dass gar der maximale Boost-Takt gesteigert wird.

 

Inhalt dieses Testberichtes

 
 



Jetzt kostenlosen HT4U.net-Newsletter abonnieren

* indicates required