Autor Thema: [HT4U Test] AMDs FullHD-Polaris-Grafikkarte: Radeon RX 470 im Test  (Gelesen 3757 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline HT4U_Newsbot

  • News sind mein Leben...
  • HT4U.net-Methusalem
  • **********
  • Beitr├Ąge: 16989
    • Profil anzeigen
AMDs FullHD-Polaris-Grafikkarte: Radeon RX 470 im Test
                 



                 

http://ht4u.net/reviews/2016/amd_fullhd-polaris-grafikkarte_radeon_rx_470_im_test/
                 

Andreas77

  • Gast
Vielen Dank f├╝r den Test!

Noch mal leicht ineffizienter wie eine rx480 obwohl es von AMD┬┤s Hallock hie├č man habe die x2,5 Performance/Watt mit einer rx470 und einer r9 270x berechnet. Jetzt ist eigentlich klar dass sie einfach nur Unsinn erz├Ąhlt haben.
Das verhei├čt ├╝berhaupt nichts gutes f├╝r die rx460, ich hab schon Angst und Bange, dass man die 75 Watt die ├╝ber das Mainboard kommen sollen,  vielleicht gar nicht halten kann.

Der Test hat mal wieder klar gezeigt dass es richtig war zur GTX 1060 zu greifen, ca 20 % schneller als eine ├╝bertaktete rx470 und dabei rund 40 Watt weniger Stromaufnahme und vor allem ein OC Potenzial ohne dass die Karte gleich ├╝ber 200 watt zieht und ne Turbine wird.

Meiner Einsch├Ątzung nach hat sich AMD bei dieser Generation schwer verhoben was ihre Effiienzversprechungen angeht und sich mit hoher Spannung und viel zu hohen Taktraten selbst sabotiert.

Ich dachte nach all den Jahren, dass man endlich mal auf die letzten paar Prozent Leistung verzichtet und die Karten daf├╝r effizient gestaltet.
Dass es prinzipiell gehen w├╝rde zeigen die Nutzer zuhause mit Wattman wo man jetzt wieder nen Bug eingebaut hat.

Trotz der 2GB mehr Speicher und bisschen g├╝nstigerem Preis gegen├╝ber der GTX 1060 das schlechtere Produkt.
Wenn ich mir ansehe mit welchen Framerraten die GTX 1060 teilweise aufwarten kann - in Directx 11 Titeln, dann kann ich trotz des Directx12 Hypes keine AMD Karte in die engere Auswahl nehmen - ich kaufe die Leistung ja nicht f├╝r ├╝bermorgen, sondern f├╝r heute.



Offline Peter

  • HT4U.net Redakteur
  • HT4U.net-Methusalem
  • *****
  • Beitr├Ąge: 16235
  • Geschlecht: M├Ąnnlich
    • Profil anzeigen
    • Hard Tecs 4U
Naja, ich bin der Ansicht, dass AMD diesen Launch nicht h├Ątte ├╝ber Partnerkarten l├Âsen sollen, denn einzelne Partnermodelle, gerade die OC-Varianten, sind eben nicht repr├Ąsentativ f├╝r den Chip.

Was mich mehr beeindruckt hat, ist die Mehrleistung, welche AMD nun schlicht ├╝ber Treiberweiterentwicklung aus den neuen Polaris-Karten rausgekitzelt hat. War man beim letzten Pressetreiber noch 8 Prozent hinter einer GTX 1060, ist man jetzt lediglich noch f├╝nf Prozent dahinter (├╝ber das gesamte Mittel).
Gru├č

Peter

Offline Drohne

  • 16-Bit-Prozessor
  • ******
  • Beitr├Ąge: 500
  • Si vis pacem, para bellum
    • Profil anzeigen
Der Test bewegt sich wie stets auf gutem Niveau. An dieser Stelle meinen Dank. Auch heise.de hatte heute einen online-Testbericht, der. in etwa, gleich ausfiel. Zumindest was die reine Faktenlage betrifft.

Allerdings gef├Ąllt mir eines nicht. Wie man die Dinge auch dreht und wendet, die neuen AMD Chips liegen im Leistungsspektrum hinter der nVidia Konkurrenz. Und in Sachen Energieumsatz bei ├Ąhnlciher oder gleicher Leistung m├╝ssen wir gar nicht reden! Darum kann ich nicht verstehen, warum unterschwellig mit der Wahl der Worte stets das Gef├╝hl aufkommt, da├č die Sympathien bei AMD liegen! AMD setzt keine Akzente bei der Reduktion des Energieverbrauchs, die Hardware - ob nun mit ohne optimierte Treiber - liegt stets hinter vergleichbaren nVidia Chips/Produkten. Zudem kommt, da├č nVidia eine f├╝r meine Erfahrung deutlich breitere Treiberplatform bietet - AMD schr├Ąnkt seine unterst├╝tzten Platformen uf Linux und das Microsoft-Ged├Âns ein, nVidia offeriert wenigstens f├╝r FreeBSD stabile Treiber.

Ein anderer Aspekt, den ich bisher immer positiv mit AMD konnotierte, war die Brauchbarkeit der GPUs f├╝r GPGPU Anwendungen im naturwissenschaftlichen Bereich. Hier ist die doppeltgenaue Flie├čkommaarithmetik tragend. Ich habe mich stets davor verschlossen, mich zu einem Sklaven der zu Monopolisten tendierenden Hersteller machen zu lassen und deren, f├╝r solche Anwendungen hochpreisig angebotenen, Spezialkarten  zu erwerben. Sicher teilen vor allem Kinder nicht meine Meinung, da├č f├╝r den reinen Spa├č und die sinnlose Energieverschwendung f├╝r Spiele Graphikkarten ├╝ber 150 EUR einfach zuviel sind (wir leben im Zeitalter der "Energiewende ins Nichts ..." und eines uns├Ąglich stupiden EEG sowie einer sich anbahnenden, m├Âglichen  Katastrophe f├╝r die Menschheit). Um wenigstens f├╝r die, die ihren Rechner auch anders benutzen und sich keine Workstation f├╝r 10k EUR inkl. einer mittepr├Ąchtigen TESLA oder AMD ├äquivalentkarte leisten k├Ânnen, einen Mehrwert bieten zu k├Ânnen, w├╝rde ich erwarten wollen, da├č die angepriesenen GPUs eben auch eine ordentliche DP leistung bringen.

Das tun sie nicht! Und der Anwender hat sich, stellvertretend durch die sogenannte oder selbsternannte Fachpresse, das Heft aus der Hand nehmen lassen. Der Anbieter bestimmt jetzt auch die Nachfrage. Was ich damit sagen m├Âchte ist, da├č ich die derzeitige Situation bei den GPUs am Markt sehr traurig finde, Keine der Neusvorstellungen ist selbst f├╝r einen Preis von 500 - 700 EUR in der Lage, eine ordentliche DP Leistung als Rechenknecht abzuliefern. Scheinbar sind die Zeiten vorbei, wo das Plus an Leistungsaufnahme bei AMD durch eine ├╝ppige DP GPGPU Leistung kompensiert wurde - und nebenbei einen h├Âheren Preis rechtfertigte.

Ich rede nicht aus der hohlen Hand! Vor rund 7 Jahren, als OpenCL begann, GPGPU in einer standardisierten Weise auch f├╝r kleineres Budget nutzbar zu machen, waren AMD GPUs einfach die erste Wahl und viele junge Wissenschaftler, die vor allem im Bereich der Astronomie t├Ątig waren, f├╝hlten sich animiert, neue Algorithmen auf OpenCL und/oder CUDA Basis zu entwickeln. Die HD7000 Serie war weit verbreitet und die ersten GCN Chips aus dem Hause AMD zeigten nVidia, wo der Hammer h├Ąngt. Das ist Geschichte. Die Geldmittelgeber in Bonn - zum Beispiel - kennen sich gut aus und so ist es nahezu unm├Âglich, eine der aktuellen Karten als Numbercruncher in einer Mittelanforderung geltend zu machen.

Irgendwie w├╝nschte ich mir, da├č wenisgtens ein Magazin standardm├Ą├čig die DP Leistung und Brauchbarkeit als Zahlenmonster taxiert! Stattdessen werden SP Algorithmen aus Luxmark oder Filteralgorithmen, die durch die Bank weg SP Gr├Â├čen verwenden, zum Einsatz gebracht.  Schade.
Keine Signatur vorhanden.

Offline Kickaha

  • 8-Bit-Prozessor
  • *****
  • Beitr├Ąge: 307
    • Profil anzeigen
Äh, Max. Watt geringer als Avg. Watt? Kann eigentlich nicht sein. Tabelle auf index12

Grunds├Ątzlich zeigt sich, dass AMD es schon wieder verbockt hat. Bzw. XFX seinen Teil beigetragen hat. 242W? Ja, wozu braucht man ├╝berhaupt 8pol, wenn man sowas erlaubt.

Miese Idle-Verbr├Ąuche, zu schnelles Hochtakten, laut unter Last, ...
Wenigstens haben sie bei den Anschlussstandards aufgeholt. War ├╝berf├Ąllig.
Fix ist die XFX entsprechend hochgezwirbelt ja schon - bleibt die Frage nach dem Preis.

So weh es tut, aber nVidia ist weiter locker eine Generation entfernt.

/off topic
XFX hat eigenes K├╝hlsystem auf eigener Platine.
Hat es nicht fr├╝her - ganz generell - nicht auch Custom K├╝hler auf AMD/nVidia-Referenzplatine  gegeben?
« Letzte ├änderung: 05. August 2016, 01:44:45 von Kickaha »

Andreas77

  • Gast
Naja, ich bin der Ansicht, dass AMD diesen Launch nicht h├Ątte ├╝ber Partnerkarten l├Âsen sollen

Genauso ist┬┤s. Eine Referenzkarte auf Sparsamkeit getrimmt ~120 Watt, daf├╝r ~5% weniger Leistung und ordentliche Werte bei Lautst├Ąrke und Customdesigns die nicht ganz so hoch gepr├╝gelt sind. Ich verstehe  nicht wieso man den Chip nach oben hin so ausquetscht, die Leistung reicht doch dann vor allem unter Directx12 dann eh in der Konkurrenz zur kleineren GTX 1050 oder so.

Was mich mehr beeindruckt hat, ist die Mehrleistung, welche AMD nun schlicht ├╝ber Treiberweiterentwicklung aus den neuen Polaris-Karten rausgekitzelt hat.

Eigentlich ist das eher ein Armutszeugnis, dass man es wieder nicht geschafft hat p├╝nktlich zum Launch die Karte fit zu machen und best├Ątigt wieder AMD┬┤s Unf├Ąhigkeit die Karten sauber zu launchen.
Man h├Ątte sich durchaus noch gut ein oder zwei Monate Zeit lassen sollen ( ohne PCIe-Gate, ohne Bios Probleme bei den Customdesigns, ohne hei├če und laute Karten, mit soliden Treibern und besserer Verf├╝gbarkeit ) ist ja ohnehin kaum etwas lieferbar, scheinbar sammelt man die Chips schon lange und hat jetzt Lieferprobleme.

"War man beim letzten Pressetreiber noch 8 Prozent hinter einer GTX 1060, ist man jetzt lediglich noch f├╝nf Prozent dahinter "

Allerdings bleibt die GTX 1060 ├╝ber alle Tests hinweg etwa 10% schneller und verliert nicht den besseren Eindruck zu den Reviews. Ich lese ehrlichgesagt auch immer eine pro AMD Tendenz heraus. Beim n├Ąchsten Nvidia Treiber kann sich die Geschichte wieder umdrehen, oder mit der n├Ąchsten Gameworksoffensive.

Directx12 ist bisher auch alles andere als eindeutig.
Dass mit leichtem Zusatz OC die Karten dann schon weit ├╝ber 200 Watt ziehen, ist definitiv unerwartet. Die rx480 war maximal f├╝r r9 290 Leistung ausgelegt, klar innerhalb von 150 Watt und die rx470 f├╝r klar innerhalb von 120 Watt, knapp ├╝ber r9 380x Leistung.

Und dann eben eine rx485 oder ├Ąhnliches f├╝r die Enthusiasten mit GDDR5x, oder so, oder eine wassergek├╝hlte 1350mhz Extreme Edition. So ist das alles weder Fisch noch Fleisch, es gibt nicht eine ITX Karte der rx470, obwohl die Karte pr├Ądistiniert daf├╝r war.

F├╝r mich kriegt AMD viel zu wenig Kritik hinsichtlich der schlechten Effizienz ab.
Bei TPU ist ne GTX 1060 60% Effizienter, eine GTX 1070 72% und eine GTX 1080 84% effizienter. Was will AMD da nur mit Vega entgegensetzen k├Ânnen, wenn da lediglich noch der HBM2 Vorteil ein bisschen Strom einspart?

Offline Faultier

  • Windows-BIOS-Flasher
  • ***
  • Beitr├Ąge: 113
  • Fleisch ist mein Gem├╝se
    • Profil anzeigen
Ich kann den Vorwurf der AMD Tendenz nicht teilen. Der Artikel ist sehr n├╝chtern gehalten und teilt auch wo n├Âtig hart gegen AMD aus.

DP-Leistung spielt bei einer Midrange Karte absolut keine Rolle. Niemand der ernsthaft mit GPGPU Forschung betreiben m├Âchte erwartet von einer  200 ÔéČ 3D Karte vern├╝nftige DP-Leistung. Die GPU ist auf 3D-Leistung getrimmt und das zurecht.

Den Verbrauch unter Last halte ich f├╝r verschmerzbar - ist ja schliesslich auch nicht so, dass eine 1060 nur halb soviel verbraucht. Es sind also keine Dimensionen die da die beiden GPU Hersteller trennt, wie oftmals behauptet. Viel ├Ątzender finde ich, dass AMD mal wieder die Powerstates verbockt hat und die Karte sowohl im Idle als auch bei Videowiedergabe Strom verschwendet.

Andererseits: man konnte nicht warten - Polaris ist eh schon mindestens 2 Monate zu sp├Ąt dran.

Offline Peter

  • HT4U.net Redakteur
  • HT4U.net-Methusalem
  • *****
  • Beitr├Ąge: 16235
  • Geschlecht: M├Ąnnlich
    • Profil anzeigen
    • Hard Tecs 4U
@ Andreas: Ich widerspreche kaum. Bitte aber bei allen Vergleichen nicht vergessen, dass wir gerade Boardpartnerkarten mit den Messungen von Referenzen vergleichen. Dennoch bleiben klare Unterschiede bei beiden Prozessen zu Gunsten von NVIDIA. Das haben wir bereits im RX 480-Artikel herausgestellt, bei RX 470 habe ich nichts anderes erwartet.

Die Treiber-Geschichte und DX12 sehe ich anders. Ich glaube nicht, dass NVIDIA ├╝ber einzelne Titel hinaus viel mehr aus den Treibern herausholen wird. Ich habe vielmehr den Eindruck, dass NV ├╝ber die Jahre und ihr vollbest├╝cktes Treiber-Team schon das beste aus den Treibern herausgeholt hat und eben die CPU-Schw├Ąchen klar optimieren konnte.

Ein Beispiel: Ich habe in manchen Titeln bei AMD eine 100-Prozent-GPU-Auslastung gesehen (DX11), und mit NVIDIA dann pl├Âtzlich eine CPU-Last, bei vielleicht noch 70 bis 75 Prozent. Das wiederum sagt mir, dass NV schon l├Ąngst an solchen Problemen gerarbeitet hat, AMD aber eben nicht. Jetzt kommen APIs welche genau an der Ecke ansetzen. Was sollte NV noch optimieren? Haben sie schon, AMD eben nicht und nun profitiert AMD von DX12 und Vulkan. Ich erwarte hier keine grundlegenden ├änderungen bei NVIDIA.

Jetzt kann dein n├Ąchstes Argument sein, dass AMD in dem Fall seine Hausaufgaben nicht richtig gemacht hat. Ich werde das dann schweigend akzeptieren, weil es genau so aussieht.

Und mehr H├Ąrte gegen├╝ber AMD bei dem RX 470-Test ist in keiner Form angebracht, ich stehe hier vor einer einzelnen XFX-Grafikkarte. Jetzt liegt noch eine MSI-Karte hier. Aber das alles muss jetzt leider warten, weil der Redakteur dringend Urlaub braucht ;)

Zitat
Äh, Max. Watt geringer als Avg. Watt? Kann eigentlich nicht sein. Tabelle auf index12
Absolut richtig, Fehler beseitig, die Ergebnisse waren vertauscht.

Zitat
Den Verbrauch unter Last halte ich f├╝r verschmerzbar - ist ja schliesslich auch nicht so, dass eine 1060 nur halb soviel verbraucht. Es sind also keine Dimensionen die da die beiden GPU Hersteller trennt, wie oftmals behauptet. Viel ├Ątzender finde ich, dass AMD mal wieder die Powerstates verbockt hat und die Karte sowohl im Idle als auch bei Videowiedergabe Strom verschwendet.

Liebes Faultier, da kann ich gerade nicht ganz folgen. Die GTX 1060 arbeitet im Durschnitt bei 114 Watt, das gezeigte RX 470 Modell bei 150 Watt. Die GTX 1060 liegt auf Leistungsniveau einer GTX 980 - eher ein wenig darunter - die RX 470 OC gerade einmal 1 Prozent schneller als die GTX 970. Und das ist eine OC-Boardpartnerkarte, welche nicht repr├Ąsentativ ist. Also vergleichen wir, wie von Andreas angesprochen, 14 nm vs. 28 nm. Und was soll man dann noch kommentieren? Langsamer bei gleicher Leistungsaufnahme?

Dann doch lieber die RX 480, welche 10 Prozent schneller ist bei gleicher Leistungsaufnahme. Das w├Ąre ein ertr├Ągliches Argument zu diesem Launch. Aber leider immer noch nicht so richtig befriedigend f├╝r den kleineren Fertigungsprozess.
« Letzte ├änderung: 05. August 2016, 22:53:35 von Peter »
Gru├č

Peter

LordBuisness

  • Gast
Das ist nicht so ganz richtig Peter,

AMD hat nicht verschlafen. AMDs Hardware war nur nie f├╝r die API gemacht und schon seinerzeit 1 Schritt voraus. Das Problem ist das sich keiner um AMDs API-Verlangen k├╝mmerte, weil der Marktanteil von AMD relative klein ist. Deshalb ist AMD dann AMD selbst mit Mantle am Markt angetreten und hat dem Kunden so gezeigt was Ihm so alles entgeht. (Z.B. das man zum Zocken eben nicht einen gro├čen Prozessor braucht)!

Erschwerend kommt hinzu das Nvdia wegen Ihrer Marktmacht und Finanzsituation sich bei den Spieleentwickler einkauft und AMD weiter behindern mit Sachen wie z.B. Gameworks oder PhysX.

Gameworks ist f├╝r AMD z.B. eine Blackbox. AMD hat hier keinen Zugriff auf den Quellkode und kann so nicht direkt das Spiel optimieren, sondern nur per Revers-Engineering was sehr viel Zeit kostet und nur in kleinen Schritten erfolgt.

Wenn du jetzt 1 und 1 zusammenz├Ąhlst erkennst du das AMD nur deshalb immer jeden Tag an Leistung gewinnt weil sie mal wieder eine Stein der Ihnen bei Gameworks in den Weg gelegt wurde beseitigt wurde.

Aber ├╝ber sowas schreibt ja keiner hier man will sich ja nicht mit 80% Nvidia Fanboys anlegen!

LordBuisness

  • Gast
Und zur Leistungsaufnahme. Wenn man sich die DX12 und Vulkan Benches anschaut, kann man erkennen das Stromverbrauch nicht steigt aber die Leistung sehr Wohl und AMD dann auf fast dem gleichen Effizienzlevel ist wie NVDIA.

AMD brauch hierzu DX12/Vulkan. Warum wurde hier eigentlich noch kein Vulkan Test gemacht?

Baumeister

  • Gast
Wenn du jetzt 1 und 1 zusammenz├Ąhlst erkennst du das AMD nur deshalb immer jeden Tag an Leistung gewinnt weil sie mal wieder eine Stein der Ihnen bei Gameworks in den Weg gelegt wurde beseitigt wurde.

Aber ├╝ber sowas schreibt ja keiner hier man will sich ja nicht mit 80% Nvidia Fanboys anlegen!
So ein Bl├Âdsinn. Peter hat oft genug auf Unzul├Ąnglichkeiten von nvidia hingewiesen und hat deswegen sich m├Ąchtig Gegenwind eingefangen. Ich h├Ątte gerne einen Euro f├╝r jedesmal wo hier geschrieben wird, er schreibt Richtung AMD oder Richtung nvidia. F├Ąllt euch das nicht auf, dass ihr euch v├Âllig widersprecht wenn st├Ąndig zwei Fanboy-Gruppen beide behaupten, er w├╝rde f├╝r die andere schreiben?

Und was Gameworks angeht: warum zum Teufel sollte ein Hersteller eine propriet├Ąre Bibliothek freigeben mit der er eigene zus├Ątzliche Features betreiben will? DirectX ist ein Standard. Gameworks ist es nicht! Nehmen wir mal Witcher 3 mit der Haardarstellung. Wer NVIDIA hat, kann Hairworks aktivieren, wer kein NVIDIA hat, l├Ąsst es eben aus. Und wenn er es dennoch einschaltet, ist es keine Sabotage wenn es auf anderen Systemen langsamer ist.
Also wof├╝r muss AMD in die NVIDIA-Blackbox schauen k├Ânnen oder reengineeren, um AMD-Treiber f├╝r AMD-Hardware zuschreiben? F├╝r Non-Gameworks-Features m├╝ssen sie es nicht. Sie m├╝ssen es nur, wenn sie Gameworksfeatures nachstellen oder emulieren wollen. Nur warum sollte NVIDIA hier dass dann gratis hinliefern?

Dass AMD-Treiberperformancesteigerungen an durch zur Seite ger├Ąumten Gameworkssteinen liegt, wird auch dadurch ad adsurdum gef├╝hrt, dass es Steigerungen auch bei non-Gameworks spielen gibt.

Fakt ist, jeder Spielehersteller kann mit beiden Graka-Herstellern zusammenarbeiten um Bibliotheken f├╝r besondere Effekte zu nutzen.

LordBuisness

  • Gast
So ein Schmarrn. Schau dir die Werte an in Daying Light und Just cause 3 holt Amd am meisten raus. Alles tiefgr├╝ne Titel! Auch der Rest ist mehrheitlich von Gameworks gepr├Ągt wie Fallout 4 und FarCry 4!

Lie├č erst selbst mal die Tests!
@Peter es W├Ąre einfacher gewesen, die alten Ergebnisse noch mit in die Tabelle zu nehmen!

Warum Amd in die Blackbox schauen muss??? weil jeder Befehl durch die Blackbox durch muss! Wie sollen sie denn am Treiber was ├Ąndern wenn sie nicht wissen was Ihre Treiber Einstellung f├╝r Auswirkungen haben? Da merkt man das du keine Ahnung hast was Gameworks ├╝berhaupt ist!

Die Spielentwickler integrieren Gameworks  in ihr Spiel und wenn da kein Off Button vom Entwickler gesetzt wird oder es ein wichtiges Systemfeature ist dann muss die AMD Karte zwingend Gameworks Code ausf├╝hren! Da Amd nicht wei├č, was sie da ausf├╝hren (Code ist lizenziert und streng geheim) kann Amd auch nicht gut Optimieren!

Nein die Spielehersteller haben haupts├Ąchlich finanzielle Interessen! Wenn Nvidia denen kostenlose Code schenkt und denen somit die Arbeit erspart, spart der Entwickler viel Geld! Hinzu kommt die Marktmacht Nvidias dje den Entwickler schon alleine dazu zwingt auf Nvidia gut zu laufen wenn des grosen Marktanteils!

Baumeister

  • Gast
Zitat
Da merkt man das du keine Ahnung hast was Gameworks ├╝berhaupt ist!
Lol. Ich habe ausdr├╝cklich geschrieben "F├╝r non-Gameworks-Features m├╝ssen sie es nicht." Wir haben also beide den Stand, dass nur Gameworks-Features durch die Blackbox m├╝ssen. Also haben wir dann wohl beide keine Ahnung.

Es muss also nicht jeder Befehl durch die Blackbox durch. Und du schreibst auch selbst wieso:
Zitat
Die Spielentwickler integrieren Gameworks  in ihr Spiel und wenn da kein Off Button vom Entwickler gesetzt wird oder es ein wichtiges Systemfeature ist dann muss die AMD Karte zwingend Gameworks Code ausf├╝hren!
Das ist der Punkt. Es liegt in der Hand des Spieleentwicklers ob der Spieler durch alternative Hardware einen Nachteil hat. Und die wichtigen Features, der gemeinsame Nenner sind in den Standards beiden Herstellern bekannt. An keiner Stelle ergibt sich daraus der Anspruch, dass nur weil Spieleentwickler sich ├╝ber Gameworks Kosten sparen wollen, hier propriet├Ąre Technik offenzulegen ist.

Wenn ein Spielehersteller mit Gameworks Kosten sparen will, muss er den Arsch in der Hose haben und daf├╝r sorgen, dass er mit den Standards weiterhin den anderen Hersteller nicht benachteiligt. Wenn er es nicht tut, ist es seine Schuld, und nicht die der Hersteller.

Dass AMD bei "tiefgr├╝nen" Spielen zulegt ist doch logisch. Wenn der Spielehersteller vorher sich die Optimierung auf AMD spart und das letztlich der nachtr├Ąglichen Treiberentwicklungsabteilung von AMD ├╝berl├Ąsst, ist das kein Beweis daf├╝r, dass Steine von NVIDIA die urspr├╝ngliche Ursache waren. Sondern nur, dass ein Publisher hier mal wieder Geld gespart hat und die Zusammenarbeit mit AMD vorher mangelhaft war. Was sich durch st├Ąrkere nachtr├Ągliche Steigungen bemerkbar macht, wie du sie beschreiben hast.

NVIDIA stellt optimierte Bibliotheken zur Verf├╝gung. Sie m├╝ssen nicht kompensieren,wenn ein anderer Hersteller dies nicht tut (AMD tut es aber auch) oder die Spielehersteller sich die Optimierung sparen wollen.

Baumeister

  • Gast
Und bevor du das als einseitig ansiehst, eine mangelhafte Zusammenarbeit mit AMD bedeutet nicht zwangsl├Ąufig, dass AMD nicht wollte, sondern kann auch an mangelnder Inanspruchnahme durch den Entwickler liegen.

 

Bei der Schnellantwort k├Ânnen Sie Bulletin Board Code und Smileys wie im normalen Beitrag benutzen.

Achtung: In diesem Thema wurde seit 120 Tagen nichts mehr geschrieben.
Sollten Sie Ihrer Antwort nicht sicher sein, starten Sie ein neues Thema.

Name: E-Mail:
Verifizierung:
Geben Sie die Buchstaben aus dem Bild ein
Buchstaben anh├Âren / Neues Bild laden
Geben Sie die Buchstaben aus dem Bild ein:
Was 4+2 ist, dass wei├č ein jeder Bot. Was wir wirklich wollen: Buchstabiere die Anzahl an Zahnr├Ądern, die in unserem Logo zu sehen sind.: