Antworten

Achtung: In diesem Thema wurde seit 120 Tagen nichts mehr geschrieben.
Sollten Sie Ihrer Antwort nicht sicher sein, starten Sie ein neues Thema.
Name:
E-Mail:
Betreff:
Symbol:

Verifizierung:
Geben Sie die Buchstaben aus dem Bild ein
Buchstaben anhören / Neues Bild laden

Geben Sie die Buchstaben aus dem Bild ein:
Was 4+2 ist, dass weiß ein jeder Bot. Was wir wirklich wollen: Welches Bauteil, dass auf ...rad endet, ist in unserem Logo zu sehen?:

Shortcuts: mit Alt+S Beitrag schreiben oder Alt+P für Vorschau


Zusammenfassung

Autor: Baumeister
« am: 10. August 2016, 20:12:29 »

Und bevor du das als einseitig ansiehst, eine mangelhafte Zusammenarbeit mit AMD bedeutet nicht zwangsläufig, dass AMD nicht wollte, sondern kann auch an mangelnder Inanspruchnahme durch den Entwickler liegen.
Autor: Baumeister
« am: 10. August 2016, 19:03:28 »

Zitat
Da merkt man das du keine Ahnung hast was Gameworks überhaupt ist!
Lol. Ich habe ausdrücklich geschrieben "Für non-Gameworks-Features müssen sie es nicht." Wir haben also beide den Stand, dass nur Gameworks-Features durch die Blackbox müssen. Also haben wir dann wohl beide keine Ahnung.

Es muss also nicht jeder Befehl durch die Blackbox durch. Und du schreibst auch selbst wieso:
Zitat
Die Spielentwickler integrieren Gameworks  in ihr Spiel und wenn da kein Off Button vom Entwickler gesetzt wird oder es ein wichtiges Systemfeature ist dann muss die AMD Karte zwingend Gameworks Code ausführen!
Das ist der Punkt. Es liegt in der Hand des Spieleentwicklers ob der Spieler durch alternative Hardware einen Nachteil hat. Und die wichtigen Features, der gemeinsame Nenner sind in den Standards beiden Herstellern bekannt. An keiner Stelle ergibt sich daraus der Anspruch, dass nur weil Spieleentwickler sich über Gameworks Kosten sparen wollen, hier proprietäre Technik offenzulegen ist.

Wenn ein Spielehersteller mit Gameworks Kosten sparen will, muss er den Arsch in der Hose haben und dafür sorgen, dass er mit den Standards weiterhin den anderen Hersteller nicht benachteiligt. Wenn er es nicht tut, ist es seine Schuld, und nicht die der Hersteller.

Dass AMD bei "tiefgrünen" Spielen zulegt ist doch logisch. Wenn der Spielehersteller vorher sich die Optimierung auf AMD spart und das letztlich der nachträglichen Treiberentwicklungsabteilung von AMD überlässt, ist das kein Beweis dafür, dass Steine von NVIDIA die ursprüngliche Ursache waren. Sondern nur, dass ein Publisher hier mal wieder Geld gespart hat und die Zusammenarbeit mit AMD vorher mangelhaft war. Was sich durch stärkere nachträgliche Steigungen bemerkbar macht, wie du sie beschreiben hast.

NVIDIA stellt optimierte Bibliotheken zur Verfügung. Sie müssen nicht kompensieren,wenn ein anderer Hersteller dies nicht tut (AMD tut es aber auch) oder die Spielehersteller sich die Optimierung sparen wollen.
Autor: LordBuisness
« am: 09. August 2016, 23:53:53 »

So ein Schmarrn. Schau dir die Werte an in Daying Light und Just cause 3 holt Amd am meisten raus. Alles tiefgrüne Titel! Auch der Rest ist mehrheitlich von Gameworks geprägt wie Fallout 4 und FarCry 4!

Ließ erst selbst mal die Tests!
@Peter es Wäre einfacher gewesen, die alten Ergebnisse noch mit in die Tabelle zu nehmen!

Warum Amd in die Blackbox schauen muss??? weil jeder Befehl durch die Blackbox durch muss! Wie sollen sie denn am Treiber was ändern wenn sie nicht wissen was Ihre Treiber Einstellung für Auswirkungen haben? Da merkt man das du keine Ahnung hast was Gameworks überhaupt ist!

Die Spielentwickler integrieren Gameworks  in ihr Spiel und wenn da kein Off Button vom Entwickler gesetzt wird oder es ein wichtiges Systemfeature ist dann muss die AMD Karte zwingend Gameworks Code ausführen! Da Amd nicht weiß, was sie da ausführen (Code ist lizenziert und streng geheim) kann Amd auch nicht gut Optimieren!

Nein die Spielehersteller haben hauptsächlich finanzielle Interessen! Wenn Nvidia denen kostenlose Code schenkt und denen somit die Arbeit erspart, spart der Entwickler viel Geld! Hinzu kommt die Marktmacht Nvidias dje den Entwickler schon alleine dazu zwingt auf Nvidia gut zu laufen wenn des grosen Marktanteils!
Autor: Baumeister
« am: 08. August 2016, 14:33:17 »

Wenn du jetzt 1 und 1 zusammenzählst erkennst du das AMD nur deshalb immer jeden Tag an Leistung gewinnt weil sie mal wieder eine Stein der Ihnen bei Gameworks in den Weg gelegt wurde beseitigt wurde.

Aber über sowas schreibt ja keiner hier man will sich ja nicht mit 80% Nvidia Fanboys anlegen!
So ein Blödsinn. Peter hat oft genug auf Unzulänglichkeiten von nvidia hingewiesen und hat deswegen sich mächtig Gegenwind eingefangen. Ich hätte gerne einen Euro für jedesmal wo hier geschrieben wird, er schreibt Richtung AMD oder Richtung nvidia. Fällt euch das nicht auf, dass ihr euch völlig widersprecht wenn ständig zwei Fanboy-Gruppen beide behaupten, er würde für die andere schreiben?

Und was Gameworks angeht: warum zum Teufel sollte ein Hersteller eine proprietäre Bibliothek freigeben mit der er eigene zusätzliche Features betreiben will? DirectX ist ein Standard. Gameworks ist es nicht! Nehmen wir mal Witcher 3 mit der Haardarstellung. Wer NVIDIA hat, kann Hairworks aktivieren, wer kein NVIDIA hat, lässt es eben aus. Und wenn er es dennoch einschaltet, ist es keine Sabotage wenn es auf anderen Systemen langsamer ist.
Also wofür muss AMD in die NVIDIA-Blackbox schauen können oder reengineeren, um AMD-Treiber für AMD-Hardware zuschreiben? Für Non-Gameworks-Features müssen sie es nicht. Sie müssen es nur, wenn sie Gameworksfeatures nachstellen oder emulieren wollen. Nur warum sollte NVIDIA hier dass dann gratis hinliefern?

Dass AMD-Treiberperformancesteigerungen an durch zur Seite geräumten Gameworkssteinen liegt, wird auch dadurch ad adsurdum geführt, dass es Steigerungen auch bei non-Gameworks spielen gibt.

Fakt ist, jeder Spielehersteller kann mit beiden Graka-Herstellern zusammenarbeiten um Bibliotheken für besondere Effekte zu nutzen.
Autor: LordBuisness
« am: 06. August 2016, 12:59:49 »

Und zur Leistungsaufnahme. Wenn man sich die DX12 und Vulkan Benches anschaut, kann man erkennen das Stromverbrauch nicht steigt aber die Leistung sehr Wohl und AMD dann auf fast dem gleichen Effizienzlevel ist wie NVDIA.

AMD brauch hierzu DX12/Vulkan. Warum wurde hier eigentlich noch kein Vulkan Test gemacht?
Autor: LordBuisness
« am: 06. August 2016, 12:40:52 »

Das ist nicht so ganz richtig Peter,

AMD hat nicht verschlafen. AMDs Hardware war nur nie für die API gemacht und schon seinerzeit 1 Schritt voraus. Das Problem ist das sich keiner um AMDs API-Verlangen kümmerte, weil der Marktanteil von AMD relative klein ist. Deshalb ist AMD dann AMD selbst mit Mantle am Markt angetreten und hat dem Kunden so gezeigt was Ihm so alles entgeht. (Z.B. das man zum Zocken eben nicht einen großen Prozessor braucht)!

Erschwerend kommt hinzu das Nvdia wegen Ihrer Marktmacht und Finanzsituation sich bei den Spieleentwickler einkauft und AMD weiter behindern mit Sachen wie z.B. Gameworks oder PhysX.

Gameworks ist für AMD z.B. eine Blackbox. AMD hat hier keinen Zugriff auf den Quellkode und kann so nicht direkt das Spiel optimieren, sondern nur per Revers-Engineering was sehr viel Zeit kostet und nur in kleinen Schritten erfolgt.

Wenn du jetzt 1 und 1 zusammenzählst erkennst du das AMD nur deshalb immer jeden Tag an Leistung gewinnt weil sie mal wieder eine Stein der Ihnen bei Gameworks in den Weg gelegt wurde beseitigt wurde.

Aber über sowas schreibt ja keiner hier man will sich ja nicht mit 80% Nvidia Fanboys anlegen!
Autor: Peter
« am: 05. August 2016, 22:33:08 »

@ Andreas: Ich widerspreche kaum. Bitte aber bei allen Vergleichen nicht vergessen, dass wir gerade Boardpartnerkarten mit den Messungen von Referenzen vergleichen. Dennoch bleiben klare Unterschiede bei beiden Prozessen zu Gunsten von NVIDIA. Das haben wir bereits im RX 480-Artikel herausgestellt, bei RX 470 habe ich nichts anderes erwartet.

Die Treiber-Geschichte und DX12 sehe ich anders. Ich glaube nicht, dass NVIDIA über einzelne Titel hinaus viel mehr aus den Treibern herausholen wird. Ich habe vielmehr den Eindruck, dass NV über die Jahre und ihr vollbestücktes Treiber-Team schon das beste aus den Treibern herausgeholt hat und eben die CPU-Schwächen klar optimieren konnte.

Ein Beispiel: Ich habe in manchen Titeln bei AMD eine 100-Prozent-GPU-Auslastung gesehen (DX11), und mit NVIDIA dann plötzlich eine CPU-Last, bei vielleicht noch 70 bis 75 Prozent. Das wiederum sagt mir, dass NV schon längst an solchen Problemen gerarbeitet hat, AMD aber eben nicht. Jetzt kommen APIs welche genau an der Ecke ansetzen. Was sollte NV noch optimieren? Haben sie schon, AMD eben nicht und nun profitiert AMD von DX12 und Vulkan. Ich erwarte hier keine grundlegenden Änderungen bei NVIDIA.

Jetzt kann dein nächstes Argument sein, dass AMD in dem Fall seine Hausaufgaben nicht richtig gemacht hat. Ich werde das dann schweigend akzeptieren, weil es genau so aussieht.

Und mehr Härte gegenüber AMD bei dem RX 470-Test ist in keiner Form angebracht, ich stehe hier vor einer einzelnen XFX-Grafikkarte. Jetzt liegt noch eine MSI-Karte hier. Aber das alles muss jetzt leider warten, weil der Redakteur dringend Urlaub braucht ;)

Zitat
Äh, Max. Watt geringer als Avg. Watt? Kann eigentlich nicht sein. Tabelle auf index12
Absolut richtig, Fehler beseitig, die Ergebnisse waren vertauscht.

Zitat
Den Verbrauch unter Last halte ich für verschmerzbar - ist ja schliesslich auch nicht so, dass eine 1060 nur halb soviel verbraucht. Es sind also keine Dimensionen die da die beiden GPU Hersteller trennt, wie oftmals behauptet. Viel ätzender finde ich, dass AMD mal wieder die Powerstates verbockt hat und die Karte sowohl im Idle als auch bei Videowiedergabe Strom verschwendet.

Liebes Faultier, da kann ich gerade nicht ganz folgen. Die GTX 1060 arbeitet im Durschnitt bei 114 Watt, das gezeigte RX 470 Modell bei 150 Watt. Die GTX 1060 liegt auf Leistungsniveau einer GTX 980 - eher ein wenig darunter - die RX 470 OC gerade einmal 1 Prozent schneller als die GTX 970. Und das ist eine OC-Boardpartnerkarte, welche nicht repräsentativ ist. Also vergleichen wir, wie von Andreas angesprochen, 14 nm vs. 28 nm. Und was soll man dann noch kommentieren? Langsamer bei gleicher Leistungsaufnahme?

Dann doch lieber die RX 480, welche 10 Prozent schneller ist bei gleicher Leistungsaufnahme. Das wäre ein erträgliches Argument zu diesem Launch. Aber leider immer noch nicht so richtig befriedigend für den kleineren Fertigungsprozess.
Autor: Faultier
« am: 05. August 2016, 14:47:09 »

Ich kann den Vorwurf der AMD Tendenz nicht teilen. Der Artikel ist sehr nüchtern gehalten und teilt auch wo nötig hart gegen AMD aus.

DP-Leistung spielt bei einer Midrange Karte absolut keine Rolle. Niemand der ernsthaft mit GPGPU Forschung betreiben möchte erwartet von einer  200 € 3D Karte vernünftige DP-Leistung. Die GPU ist auf 3D-Leistung getrimmt und das zurecht.

Den Verbrauch unter Last halte ich für verschmerzbar - ist ja schliesslich auch nicht so, dass eine 1060 nur halb soviel verbraucht. Es sind also keine Dimensionen die da die beiden GPU Hersteller trennt, wie oftmals behauptet. Viel ätzender finde ich, dass AMD mal wieder die Powerstates verbockt hat und die Karte sowohl im Idle als auch bei Videowiedergabe Strom verschwendet.

Andererseits: man konnte nicht warten - Polaris ist eh schon mindestens 2 Monate zu spät dran.
Autor: Andreas77
« am: 05. August 2016, 05:49:35 »

Naja, ich bin der Ansicht, dass AMD diesen Launch nicht hätte über Partnerkarten lösen sollen

Genauso ist´s. Eine Referenzkarte auf Sparsamkeit getrimmt ~120 Watt, dafür ~5% weniger Leistung und ordentliche Werte bei Lautstärke und Customdesigns die nicht ganz so hoch geprügelt sind. Ich verstehe  nicht wieso man den Chip nach oben hin so ausquetscht, die Leistung reicht doch dann vor allem unter Directx12 dann eh in der Konkurrenz zur kleineren GTX 1050 oder so.

Was mich mehr beeindruckt hat, ist die Mehrleistung, welche AMD nun schlicht über Treiberweiterentwicklung aus den neuen Polaris-Karten rausgekitzelt hat.

Eigentlich ist das eher ein Armutszeugnis, dass man es wieder nicht geschafft hat pünktlich zum Launch die Karte fit zu machen und bestätigt wieder AMD´s Unfähigkeit die Karten sauber zu launchen.
Man hätte sich durchaus noch gut ein oder zwei Monate Zeit lassen sollen ( ohne PCIe-Gate, ohne Bios Probleme bei den Customdesigns, ohne heiße und laute Karten, mit soliden Treibern und besserer Verfügbarkeit ) ist ja ohnehin kaum etwas lieferbar, scheinbar sammelt man die Chips schon lange und hat jetzt Lieferprobleme.

"War man beim letzten Pressetreiber noch 8 Prozent hinter einer GTX 1060, ist man jetzt lediglich noch fünf Prozent dahinter "

Allerdings bleibt die GTX 1060 über alle Tests hinweg etwa 10% schneller und verliert nicht den besseren Eindruck zu den Reviews. Ich lese ehrlichgesagt auch immer eine pro AMD Tendenz heraus. Beim nächsten Nvidia Treiber kann sich die Geschichte wieder umdrehen, oder mit der nächsten Gameworksoffensive.

Directx12 ist bisher auch alles andere als eindeutig.
Dass mit leichtem Zusatz OC die Karten dann schon weit über 200 Watt ziehen, ist definitiv unerwartet. Die rx480 war maximal für r9 290 Leistung ausgelegt, klar innerhalb von 150 Watt und die rx470 für klar innerhalb von 120 Watt, knapp über r9 380x Leistung.

Und dann eben eine rx485 oder ähnliches für die Enthusiasten mit GDDR5x, oder so, oder eine wassergekühlte 1350mhz Extreme Edition. So ist das alles weder Fisch noch Fleisch, es gibt nicht eine ITX Karte der rx470, obwohl die Karte prädistiniert dafür war.

Für mich kriegt AMD viel zu wenig Kritik hinsichtlich der schlechten Effizienz ab.
Bei TPU ist ne GTX 1060 60% Effizienter, eine GTX 1070 72% und eine GTX 1080 84% effizienter. Was will AMD da nur mit Vega entgegensetzen können, wenn da lediglich noch der HBM2 Vorteil ein bisschen Strom einspart?
Autor: Kickaha
« am: 05. August 2016, 01:29:45 »

Äh, Max. Watt geringer als Avg. Watt? Kann eigentlich nicht sein. Tabelle auf index12

Grundsätzlich zeigt sich, dass AMD es schon wieder verbockt hat. Bzw. XFX seinen Teil beigetragen hat. 242W? Ja, wozu braucht man überhaupt 8pol, wenn man sowas erlaubt.

Miese Idle-Verbräuche, zu schnelles Hochtakten, laut unter Last, ...
Wenigstens haben sie bei den Anschlussstandards aufgeholt. War überfällig.
Fix ist die XFX entsprechend hochgezwirbelt ja schon - bleibt die Frage nach dem Preis.

So weh es tut, aber nVidia ist weiter locker eine Generation entfernt.

/off topic
XFX hat eigenes Kühlsystem auf eigener Platine.
Hat es nicht früher - ganz generell - nicht auch Custom Kühler auf AMD/nVidia-Referenzplatine  gegeben?
Autor: Drohne
« am: 04. August 2016, 21:26:48 »

Der Test bewegt sich wie stets auf gutem Niveau. An dieser Stelle meinen Dank. Auch heise.de hatte heute einen online-Testbericht, der. in etwa, gleich ausfiel. Zumindest was die reine Faktenlage betrifft.

Allerdings gefällt mir eines nicht. Wie man die Dinge auch dreht und wendet, die neuen AMD Chips liegen im Leistungsspektrum hinter der nVidia Konkurrenz. Und in Sachen Energieumsatz bei ähnlciher oder gleicher Leistung müssen wir gar nicht reden! Darum kann ich nicht verstehen, warum unterschwellig mit der Wahl der Worte stets das Gefühl aufkommt, daß die Sympathien bei AMD liegen! AMD setzt keine Akzente bei der Reduktion des Energieverbrauchs, die Hardware - ob nun mit ohne optimierte Treiber - liegt stets hinter vergleichbaren nVidia Chips/Produkten. Zudem kommt, daß nVidia eine für meine Erfahrung deutlich breitere Treiberplatform bietet - AMD schränkt seine unterstützten Platformen uf Linux und das Microsoft-Gedöns ein, nVidia offeriert wenigstens für FreeBSD stabile Treiber.

Ein anderer Aspekt, den ich bisher immer positiv mit AMD konnotierte, war die Brauchbarkeit der GPUs für GPGPU Anwendungen im naturwissenschaftlichen Bereich. Hier ist die doppeltgenaue Fließkommaarithmetik tragend. Ich habe mich stets davor verschlossen, mich zu einem Sklaven der zu Monopolisten tendierenden Hersteller machen zu lassen und deren, für solche Anwendungen hochpreisig angebotenen, Spezialkarten  zu erwerben. Sicher teilen vor allem Kinder nicht meine Meinung, daß für den reinen Spaß und die sinnlose Energieverschwendung für Spiele Graphikkarten über 150 EUR einfach zuviel sind (wir leben im Zeitalter der "Energiewende ins Nichts ..." und eines unsäglich stupiden EEG sowie einer sich anbahnenden, möglichen  Katastrophe für die Menschheit). Um wenigstens für die, die ihren Rechner auch anders benutzen und sich keine Workstation für 10k EUR inkl. einer mitteprächtigen TESLA oder AMD Äquivalentkarte leisten können, einen Mehrwert bieten zu können, würde ich erwarten wollen, daß die angepriesenen GPUs eben auch eine ordentliche DP leistung bringen.

Das tun sie nicht! Und der Anwender hat sich, stellvertretend durch die sogenannte oder selbsternannte Fachpresse, das Heft aus der Hand nehmen lassen. Der Anbieter bestimmt jetzt auch die Nachfrage. Was ich damit sagen möchte ist, daß ich die derzeitige Situation bei den GPUs am Markt sehr traurig finde, Keine der Neusvorstellungen ist selbst für einen Preis von 500 - 700 EUR in der Lage, eine ordentliche DP Leistung als Rechenknecht abzuliefern. Scheinbar sind die Zeiten vorbei, wo das Plus an Leistungsaufnahme bei AMD durch eine üppige DP GPGPU Leistung kompensiert wurde - und nebenbei einen höheren Preis rechtfertigte.

Ich rede nicht aus der hohlen Hand! Vor rund 7 Jahren, als OpenCL begann, GPGPU in einer standardisierten Weise auch für kleineres Budget nutzbar zu machen, waren AMD GPUs einfach die erste Wahl und viele junge Wissenschaftler, die vor allem im Bereich der Astronomie tätig waren, fühlten sich animiert, neue Algorithmen auf OpenCL und/oder CUDA Basis zu entwickeln. Die HD7000 Serie war weit verbreitet und die ersten GCN Chips aus dem Hause AMD zeigten nVidia, wo der Hammer hängt. Das ist Geschichte. Die Geldmittelgeber in Bonn - zum Beispiel - kennen sich gut aus und so ist es nahezu unmöglich, eine der aktuellen Karten als Numbercruncher in einer Mittelanforderung geltend zu machen.

Irgendwie wünschte ich mir, daß wenisgtens ein Magazin standardmäßig die DP Leistung und Brauchbarkeit als Zahlenmonster taxiert! Stattdessen werden SP Algorithmen aus Luxmark oder Filteralgorithmen, die durch die Bank weg SP Größen verwenden, zum Einsatz gebracht.  Schade.
Autor: Peter
« am: 04. August 2016, 19:01:48 »

Naja, ich bin der Ansicht, dass AMD diesen Launch nicht hätte über Partnerkarten lösen sollen, denn einzelne Partnermodelle, gerade die OC-Varianten, sind eben nicht repräsentativ für den Chip.

Was mich mehr beeindruckt hat, ist die Mehrleistung, welche AMD nun schlicht über Treiberweiterentwicklung aus den neuen Polaris-Karten rausgekitzelt hat. War man beim letzten Pressetreiber noch 8 Prozent hinter einer GTX 1060, ist man jetzt lediglich noch fünf Prozent dahinter (über das gesamte Mittel).
Autor: Andreas77
« am: 04. August 2016, 18:52:14 »

Vielen Dank für den Test!

Noch mal leicht ineffizienter wie eine rx480 obwohl es von AMD´s Hallock hieß man habe die x2,5 Performance/Watt mit einer rx470 und einer r9 270x berechnet. Jetzt ist eigentlich klar dass sie einfach nur Unsinn erzählt haben.
Das verheißt überhaupt nichts gutes für die rx460, ich hab schon Angst und Bange, dass man die 75 Watt die über das Mainboard kommen sollen,  vielleicht gar nicht halten kann.

Der Test hat mal wieder klar gezeigt dass es richtig war zur GTX 1060 zu greifen, ca 20 % schneller als eine übertaktete rx470 und dabei rund 40 Watt weniger Stromaufnahme und vor allem ein OC Potenzial ohne dass die Karte gleich über 200 watt zieht und ne Turbine wird.

Meiner Einschätzung nach hat sich AMD bei dieser Generation schwer verhoben was ihre Effiienzversprechungen angeht und sich mit hoher Spannung und viel zu hohen Taktraten selbst sabotiert.

Ich dachte nach all den Jahren, dass man endlich mal auf die letzten paar Prozent Leistung verzichtet und die Karten dafür effizient gestaltet.
Dass es prinzipiell gehen würde zeigen die Nutzer zuhause mit Wattman wo man jetzt wieder nen Bug eingebaut hat.

Trotz der 2GB mehr Speicher und bisschen günstigerem Preis gegenüber der GTX 1060 das schlechtere Produkt.
Wenn ich mir ansehe mit welchen Framerraten die GTX 1060 teilweise aufwarten kann - in Directx 11 Titeln, dann kann ich trotz des Directx12 Hypes keine AMD Karte in die engere Auswahl nehmen - ich kaufe die Leistung ja nicht für übermorgen, sondern für heute.


Autor: HT4U_Newsbot
« am: 04. August 2016, 16:00:02 »

AMDs FullHD-Polaris-Grafikkarte: Radeon RX 470 im Test
                 



                 

http://ht4u.net/reviews/2016/amd_fullhd-polaris-grafikkarte_radeon_rx_470_im_test/