1. Bitte immer die Rechnerkonfiguration komplett posten!
    Vollständige Angaben zur Konfiguration erleichtern die Hilfestellung und machen eine zügige Problemlösung wahrscheinlicher. Wie es geht steht hier: Klick.
    Information ausblenden

Ernüchterung für Nvidia Karten Besitzer!

Dieses Thema im Forum "Grafikkarten & Monitore" wurde erstellt von geralob, 10. Januar 2004.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. geralob

    geralob Byte

    Registriert seit:
    27. Juli 2002
    Beiträge:
    106
    Hallo!

    Ich habe heute den folgenden Artikel entdeckt, der ehrlich gesagt meine Hoffnungen einwenig begraben hat :heul:, bin schließlich Nvidia Fan und Besitzer einer FX5900.

    Lest es euch durch und sagt eventuell eure Meinung: :o
    http://www.3dcenter.de/artikel/2004/01-10.php

    :o
     
  2. Kokomiko

    Kokomiko Guest

    Die Pixelshader der GF FX-GPUs sind enorm vielseitig programmierbar, dadurch aber auch komplex. Der GPU-Takt ist imo bei den FXen auch recht hoch. Ich denke, die geringere Geschwindigkeit hängt eher mit der komplexen Architektur an sich zusammen, die einfache Operationen eben auch langsamer durchführt.
     
  3. kloppy

    kloppy Kbyte

    Registriert seit:
    12. Dezember 2003
    Beiträge:
    172
    Du hast recht Koko, mein Informatik-Skript bestätigt deine Aussage. Verstehe dann aber dieses Zitat nicht ganz. Wenn der Pixelshader der GeForceFX über mehr Funktionalität verfügt, geht das doch eher richtung CISC. Dennoch führt er weniger Operationen pro Takt aus. :confused: Das hat mich dann auch zu meinem meinem Fehlschluss gebracht.
     
  4. Kokomiko

    Kokomiko Guest

    @kloppy,

    nein, Du hast nicht genügend Ahnung von der Materie. ;)

    RISC Architekturen erlauben große, einfache Pipelines, simples Instruction Reordering und Parallel Execution. Dafür benötigen sie, um eine bestimmte "Makro-Operation" auszuführen mehr Takte (weil mehr RISC-Instruktionen). Der Nachteil der CISC-Architektur ist die schwierigere Optimierung und Probleme mit Pipeline Stalls, die die Code-Ausführung massiv verlangsamen können. Davon werden die kommenden Intel-CPUs noch stärker betroffen sein als die jetzigen, denn um Frequenz-Spielraum zu bekommen, hat Intel die Pipelines ihrer nächsten CPU-Generation noch länger gemacht. Es ist einfach eine Schrott-Architektur. Zum Weinen, daß sich damals nicht CPM und die 68K-CPU durchgesetzt haben ... :heul: ... IBM halt (Innovation Blockation Machines). :spinner:

    Ich glaube aber, daß das ganze RISC/CISC/VLIW/etc. Hin- und Her zum guten Teil Marketing-Gründe hat. Es gibt doch übrigens sehr effiziente RISC-Prozessoren - nur redet von denen hier keiner, weil es in diesem Board so gut wie ausschließlich um Intel/AMD-PCs geht. Und da kommt die Historie der Intel-CPUs voll zum tragen.

    P.S.: Maus-Schubser = Software-Entwickler (-> Informatiker ;)).
     
  5. kloppy

    kloppy Kbyte

    Registriert seit:
    12. Dezember 2003
    Beiträge:
    172
    @Koko

    Du verwechselst da was. RISC (Reduced Instruction Set Computer) ist oft effektiver pro Takt, CISC (Complex Instruction Set Computer) hat einen grösseren Befehlssatz, braucht aber oft mehr Takte für einen und wird darum in diesem Beispiel höher getaktet.

    Doch warum Taktet man die RISC-Architektur nicht einfach auch höher und zieht damit endgültig weg? Wegen der Auftrennung in Data- und Instructionbus, oder stekt da noch was anderes dahinter? Ich finde RISC jedenfalls viel cleverer als stupides Frequenz-Gebolze. Gibt dann auch weniger Verlustleistung (sprich Wärme).
     
  6. Kokomiko

    Kokomiko Guest

    Eine CISC-Architektur ist aus technischen Gründen nicht so hoch (effektiv) zu takten wie eine RISC-Architektur.
     
  7. Damocles

    Damocles Halbes Megabyte

    Registriert seit:
    20. März 2003
    Beiträge:
    781
    "Die Hoffnung auf 60% mehr Leistung müssen GeForce-User also begraben, denn dazu müsste die Leistung erst einmal Hardware-seitig vorhanden sein." :bremse:

    Hmm, vielleicht haben manche die Leistung. :)

    Ach ja, mit welcher "neuen" Geforce könnte man meine 5800Ultra vegleichen?
     
  8. chrissg321

    chrissg321 Viertel Gigabyte

    Registriert seit:
    8. September 2002
    Beiträge:
    4.598
    Du scheinst dir ziemlich ins eigene Fleisch zu schneiden. Auch wenn sie nicht weiterentwickelt wurden, wie du meinst, haben die neuen FX Karten die Vorraussetzungen der alten! Schon deswegen allein ist der Kampf FX 5700Ultra vs FX5900Ultra spannend. Dann kommt noch dazu, wie du sagtest, dass die FX 5700/Ultra DDR2-Speicher und höhere Takte verwendet. Darum würde ich nicht unbedingt sagen, dass die FX 5900Ultra in den Shader Test besser ist, als die FX 5700Ultra.
     
  9. psychocyberdisc

    psychocyberdisc Halbes Megabyte

    Registriert seit:
    17. November 2002
    Beiträge:
    696
    Hi deoroller,

    soeben bin ich das zweite Mal deiner Meinung... Respekt ;)!

    :p

    Im Ernst, ich teile deinen Standpunkt. Des Weiteren finde ich diese Diskussionen um die Leistungsfähigkeit der aktuellen Pixel- und Vertexshader ziemlich :dumm: - es könnte sich doch einfach jeder damit zufrieden geben, dass seine 3D-Karte funktioniert; alles andere ist doch Bratwurst und kalter :kaffee:.

    psy
     
  10. deoroller

    deoroller Wandelndes Forum

    Registriert seit:
    18. Juli 2000
    Beiträge:
    116.590
    Ich finde es schäbig durch irgendeinen Softwaretrick besser da zu stehen wie andere, egal ob von ATI oder nVIdia. Am Ende kommt es eh raus und der Schuss geht nach hinten los.
    Hier kommt es sogar schon raus, bevor es angefangen hat.
    Welch eine Schande!
     
  11. geralob

    geralob Byte

    Registriert seit:
    27. Juli 2002
    Beiträge:
    106
    :auslach: Also meines Wissens nach wurden die Pixelshader und die Vertexshader bei FX5700/Ultra und FX5950/Ultra nicht weiterentwickelt. Bei der FX5950/Ultra wurde nur der Takt erhöht und auf DDR2 Speicher umgestiegen und die FX5700/Ultra hat auch DDR2 Speicher, alles andere basiert auf der FX5900, somit kann es da keine Unterschiede im Bezug auf die Pixelshader- und die Vertexshaderperformance geben.

    Woher hast du denn diese Information her?:huh: :huh:

    Gruß geralob:muhaha:
     
  12. chrissg321

    chrissg321 Viertel Gigabyte

    Registriert seit:
    8. September 2002
    Beiträge:
    4.598
    Ich wollte nur mal mein "backup" Account ausprobieren ;) Es ist wirklich war: In der Rohen Performance ist die FX 5900Ultra natürlich schneller, aber wenn es an die PS 2.0(+) Qualität und Leistung geht, dann wird es sehr eng für die FX5900. Denn, wie du mir mal gesagt hast, basiert die FX 5700 auf dem Kern der 5900 und hat so alle Implementierungen der FX5900. Und dazu wurde der PS weiterentwickelt!
     
  13. geralob

    geralob Byte

    Registriert seit:
    27. Juli 2002
    Beiträge:
    106
    Sag mir mal bitte, in welchen Bereichen denn die FX 5700ultra der FX5900 überlegen ist?:aua: :aua:

    Die FX5700Ultra hat keine Spitzenperformance, die ist viel zu teuer für ihr Geld.:aua:
     
  14. Marian R.

    Marian R. Viertel Gigabyte

    Registriert seit:
    1. September 2003
    Beiträge:
    5.019
    also ich find nvidia hat mit der 5700 ultra und der 5950 ultra nen guten schritt nach vorne gemacht. das sie durch software updates schneller als die von ATI werden hab ich nie geglaubt. und ich als ebenso nvidia fan würd ihnen mal ne komplett neuentwicklung vorschlagen, die dann mal Titanium 6x00 nennen. sie wissen das ATI mit seinen radeon karten fast am ende ist. dann haben sie mal die chance es besser zu machen!
     
  15. kloppy

    kloppy Kbyte

    Registriert seit:
    12. Dezember 2003
    Beiträge:
    172
    Tja, das übliche RISC/CISC-Spiel. Aber warum können sich die Leute die schlaue Befehlssätze erstellen nicht mit den Leuten, die hohe Taktungen hinbringen zusammentun?
     
  16. backup

    backup Guest

    Bei allem Respekt, die einzigen NVidia FX Karten, die spitze Leistung haben, sind nur die FX 5700Ultra und die FX 5950Ultra. Ehrlich gesagt, hast du die Arschkarte gezogen, denn die 5900er Reihe hat krasse Performance Probleme bei PS2.0(+)
     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen