1. Bitte immer die Rechnerkonfiguration komplett posten!
    Vollständige Angaben zur Konfiguration erleichtern die Hilfestellung und machen eine zügige Problemlösung wahrscheinlicher. Wie es geht steht hier: Klick.
    Information ausblenden

Interessante Analyse von Valves HL2-Benchmarks!

Dieses Thema im Forum "Grafikkarten & Monitore" wurde erstellt von Kokomiko, 22. Dezember 2003.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. Kokomiko

    Kokomiko Guest

    Der Artikel ist auf Englisch und von Beyond3D. Hier der Link.

    Eine interessante Beobachtung ist die, daß die Radeon 9800 pro in einigen Tests nur deshalb nicht noch besser abschneidet, weil die CPU-seitigen Teile des Tests (z.B. Physik-Berechnungen) diese schon bis an die Grenze auslasten.

    Jedenfalls bestätigt diese Betrachtung, daß die derzeitigen NVidia-Grafikkarten in massiv Floating Point Shader-lastigen Spielen ungenügend abschneiden.

    Es wird auch kurz auf die HLSL aus DX9 eingegangen (das ist ein Compiler, der Shader-Programme in Maschinensprache übersetzt und von Microsoft stammt) und hervorgehoben, daß mit HLSL generierte Shader-Programme ohne weitere Optimierungen von Radeon-Grakas weitaus schneller ausgeführt werden als von NVidia-Grakas, und daß MS dem HLSL-Compiler große Sorgfalt hat angedeihen lassen, damit er performanten Code erzeugt. Auch weitere Anstrengungen Microsofts, NVidia-freundlicheren Code zu erzeugen, haben bislang nicht allzu viel gebracht. Man darf gespannt sein, ob sie mit DX9.1 vielleicht mehr erreichen konnten.

    Es wird auch noch mal betont, daß die Benchmark-Ergebnisse von Valve kein Ergebnis der Kooperation zwischen Valve und ATI sind, sondern deren Ursache. (Wenn Valve NVidia wirklich hätte schaden wollen, hätten sie nur einfach darauf verzichten müssen, überhaupt einen GF FX-spezifischen Renderpfad zu codieren!) Daß Valve so offensiv wurde hat vor allem den Grund, zu verhindern, daß eine schwache Performance von HL2 auf NVidia-Grakas Valve zur Last gelegt wird, nach dem Motto "die können keine DX9 Engine codieren".

    Interessant ist, daß auch id Software für DOOM3 zwei verschiedene Renderpfade codieren muß, um beiden GPU-Architekturen gerecht zu werden. Wieder ist hier ATIs Produkt bei der OpenGL-Standard-Architektur der Pixel Shader doppelt so leistungsfähig wie NVidias und id Software mußte für GF FX GPUs einen Renderpfad mit deren spezifischen API-Erweiterungen codieren.
     
  2. Kokomiko

    Kokomiko Guest

    Die (meisten) Leute rüsten erst auf, wenn die Spiele das zu erfordern scheinen.
     
  3. kloppy

    kloppy Kbyte

    Registriert seit:
    12. Dezember 2003
    Beiträge:
    172
    Na, dann mal eine grosse Portion Quatsch mit Sosse für alle :D

    Tja und dennoch muss mal jemand damit anfangen die Grakas zu kaufen, damit sie billiger werden.
     
  4. Kokomiko

    Kokomiko Guest

    Quatsch mit Soße. :spinner:

    Die treibenden Kräfte sind Hardware- und Spiele-Industrie. Wir Kunden springen nur auf den rollenden Zug auf. Jemand (afaik war es John Carmack) hat sogar gesagt, daß die erste Serie einer neuen Graka-Generation im Grunde nur für die Spiele-Entwickler ist, die damit die Spiele von morgen entwickeln. Die zweite, ausgereifte Version ist dann für die Kunden, die diese Spiele spielen.
     
  5. kloppy

    kloppy Kbyte

    Registriert seit:
    12. Dezember 2003
    Beiträge:
    172
    Wenn niemand aufrüsten würde und alle nur warten würen, bis sich etwas auch 100% lohnt, dann hätten wir nicht die Entwicklung, wie wir sie jetzt haben.
    Auch würde dann nie etwas billiger und ob die Softwareentwickler noch auf DX9 entwickeln würden wäre auch fraglich.
    Jemand muss halt die Vorreiterrolle übernehmen und im Augenblick völlig überrüstet dastehen um sich dann an den Kopf zu greifen, wenn er sieht, wei günstig die Hardware dann ist, wenn man sie auch wirklich braucht. :aua:
     
  6. Poweraderrainer

    Poweraderrainer CD-R 80

    Registriert seit:
    5. Mai 2003
    Beiträge:
    9.178
    *zustimm*:(
     
  7. Gast

    Gast Guest

    besser man hat als man hätte...

    man weiß ned für was es gut war....
     
  8. Kokomiko

    Kokomiko Guest

    Wenn ich gewußt hätte, daß HL2 und die anderen DX9 Blockbuster sich so verspäten, hätte ich auch nicht aufgerüstet.

    Tja, wenn wir Brot hätten, hätten wir Schinkenbrot, wenn wir Schinken hätten ... :aua:

    Deine TI 4600 (oc'd) hat mehr DX8-Leistung als eine GF FX 5600.
     
  9. chrissg321

    chrissg321 Viertel Gigabyte

    Registriert seit:
    8. September 2002
    Beiträge:
    4.598
    Sehe ich auch so. Wobei ich noch sagen, dass eine FX 5900/5950/Ultra die wahre Performance auch erst bei nem mega High-End Rechner zeigt. Das dürfte den gleichen Effekt wie bei der 9800Pro haben. Aber eins weiß ich jetzt schon: Bevor das Feld nicht aufgeräumt wurde, bleib ich noch bei meiner auf Niveau ner Ti4600 OC'd Ti4200. Die reicht mir vollkommen und erzielt in Aquamark 3 sogar 3500Scores mehr, als ne vollblütige Radeon 9600Pro
     
  10. Kokomiko

    Kokomiko Guest

    Eben. Besonders die derzeitigen Highend-Karten kannst Du nur mit einem absoluten Highend-Rechner überhaupt ausreizen. Ich habe mit einer bis weit über 9800 XT-Niveau übertakteten 9800 pro im Botmatch-Benchmark von UT2003 gerade mal 0,5 fps mehr gehabt (das ist imo Meßtoleranz)! Das sagt mir ganz klar, daß meine CPU und Speicher hier am Ende sind, bevor es die Graka ist.

    Interessant wird die Sache wirklich erst bei den kommenden DX9-Spielen (worauf der oben verlinkte Bericht ja auch abzielt).
     
  11. Gast

    Gast Guest

    abgesehen von diesen test, kann ich bestätigen das aktuelle grakas leistung im überfluss bieten....ich selbst habe eine 9600 xt (und es gibt da ja noch die 9800xt) und habe es noch nicht geschafft sie ans limit zu treiben. das mir momentan bekannte rechenintensivste spiel ist halo...die grafik ist zwar nicht der überhammer aber auf meiner alten hercules 8500 ruckelte es. jetz habe ich mit meiner aktuellen karte die auflösung auf 1280x768 gehabt und 16x AF und 6xAA...nicht ein ruckler...dieses ergebniss erstaunte mich sehr....höhere auflösungen gibt mein bildschirm leider ned her, sonst hätte ich auch das noch getestet.

    cu
     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen