1. Bitte immer die Rechnerkonfiguration komplett posten!
    Vollständige Angaben zur Konfiguration erleichtern die Hilfestellung und machen eine zügige Problemlösung wahrscheinlicher. Wie es geht steht hier: Klick.
    Dismiss Notice
  2. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

R420 schlägt NV40 klar: review

Discussion in 'Grafikkarten & Monitore' started by Poweraderrainer, May 5, 2004.

Thread Status:
Not open for further replies.
  1. Poweraderrainer

    Poweraderrainer CD-R 80

  2. Gast

    Gast Guest

    ...dann gibts bald nur noch grakas von XGI oder Matrox weil ATI und Nvidia ihre Produkte zurückhalten bis der jeweils andere sein Produkt auf den Markt wirft.

    aber wäre vielleicht doch mal ne maßnahme den anderen Anbietern ne Chance zu geben.

    Ich würde mir sowieso mehr hersteller für grakas wünschen. Wie Steffen schon sagte ^^Weniger hersteller=höhere Preise...die bildung eines Monopols wird zwar unwahrscheinlich sein (und ist ja eh verboten) aber wenn es jetzt zum beispiel nur noch ATI gibt und die die Karten mit den Leistungsstärksten Chips haben, können sie quasi die Preise nach belieben bestimmen.

    Siehe beispiel Microsoft (kürzlich ja zur geldstrafe verurteilt). Auf Windows ist die große Mehrzahl der Programme gestützt. jeder ist auf Windows angewiesen (besonders Spieler ...findet mal nen vernünftiges game für den MAC oder gar eins was unter Linux oder anderen Open Source OS?s läuft)...fällt jetzt z.b. Microsoft weg stehen wir die User dumm da...

    greetz
     
  3. chrissg321

    chrissg321 Viertel Gigabyte

    Es gab ja auch extra ein Referenz-Video über die Karte, wo sie als Fön dargestellt wurde. Aber sobald die ersten X800 Karten zum Verkauf bereitstehen, werden die NVidia-Karten wieder, wie immer, nur die zweite Geige spielen. Ich sehe es so wie in der Formel 1 beim Qualifying: Die schwächeren fangen immer an, legen vor und die stärkeren toppen die Zeiten dann immer. Wenn NVidia immer vorlegen wird, dann wird NV es nach der Statistik nie schaffen. Normalerweise ist agieren (NV) auch besser, als reagieren (ATI), aber vielleicht sollte es NV auch mal andersrum probieren
     
  4. Poweraderrainer

    Poweraderrainer CD-R 80

    de spitznamen "fön" hat sie bis jetzt aber bahalten;)
     
  5. Poweraderrainer

    Poweraderrainer CD-R 80

    ich bin zwar eigentlich ati-fan aber wenn nvidia plaite gehen würde wäre das auch net so toll...die preise würden zwangsläufig steigen
     
  6. Gast

    Gast Guest

    ...zum betrieb empfiehlt Nvidia ein NT mit Warp Kern :D

    die werden aber auch ned schlau....die fx 5800 (man erinnert sich...Nvidias Versuch auf die 9700 Pro von ATI zu reagieren die erste directx 9 graka von Nvidia überhaupt...)
    war als Fön verschrien weil der Lüfter der Referenzkarte unheimlich lärm gemacht hat.

    auch bei der 6800 Ultra bzw. Extreme edition wird es nicht mehr lange dauern bis diese Karte ihren Ruf weg hat.

    ich wär z.b. für

    "hungriest card alive" :p

    ...oder so ähnlich.

    ...langsam mache ich mir aber gedanken...man erinnere sich an S3 (damaliger 2D führer!!!) kurz vor der übernahme von diamond und an die vodoo serien (die 5 er speziell) und was aus den herstellern geworden ist....

    obacht Nvidia!!!!

    greetz
     
  7. Nor

    Nor Halbes Megabyte

    Drei Stromanschlüsse sind gar nicht so verkehrt.

    Eine übern AGP Slot und zwei Externe.
     
  8. Doktor_Kongo

    Doktor_Kongo Halbes Megabyte

    das und ne eigene starkstromleitung :p :D
     
  9. smiliboi

    smiliboi ROM

    Nvidia hat bereits reagiert und den ultra extreme vorgestellt:D nun herscht wieder gleichstand.
    :jump: mal sehn was die anbieter daraus machen und vor allem wie teuer die karten denn nun werden
     
  10. Gast

    Gast Guest

    is mir gar ned aufgefallen...:D

    THX nomma...
     
  11. Poweraderrainer

    Poweraderrainer CD-R 80

    ich habs dir doch grad gesagt:p
     
  12. Gast

    Gast Guest

    ...und warum sagt mir das keiner???? :D

    schön dank auch....das wusst ich noch ned - gleich ma i-net shops cheggen. :aua:

    greetz
     
  13. Poweraderrainer

    Poweraderrainer CD-R 80

    dafü gibts adapterkabel, dir dir aus einem strang 4 machen;)

    gäbe es die nicht, dann wären mir schon längst die stecker ausgegangen:D
     
  14. Gast

    Gast Guest

    das nicht...aber mir gehen die stecker aus...
     
  15. Poweraderrainer

    Poweraderrainer CD-R 80

    du glaubst doch net ernsthaft, dass 5 lw's und 3 lüfter 100W verbraten wie die nvidiakarte, oder?
     
  16. Gast

    Gast Guest

    der takt der 6800 ultra liegt wegen der höheren anzahl an transitoren niedriger. beim takt bleibt also noch viel spielraum.

    hersteller gainward ist bereits am basteln einer von haus aus höher getakteten variante (wie schon die cool fx).

    Nvidia gibt als mindestvorrausetzung nen 400 Watt Netzteil an.

    Ich z.b. habe momentan nen 350 Watt NT drin, kann aber keine komponenten weiter einbauen. habe 3 optische laufwerke 2xHDD und 1x Gehäuselüfter (2 klemmen ausserdem noch am MOBO)

    ich kann die karte ned einbauen ohne auf eine (bzw. 2) dieser sachen zu verzichten.

    ausserdem würde mein restliches sys der graka mächtig hinterherhinken. und das ist sicher nicht nur bei mir so.

    ich brauch die karten beide ned ..alle reden von DOOM 3 STALKER und Half Life 2.....ich habe alle 3 gezockt...mit ner 9600 xt und hatte keine probleme...(gut sind in frühen stadien, aber ein ungefähres bild zeichnet sich ja doch ab:D )

    von spielen mit höheren sys anforderungen ist noch nichts bekannt - und die werden sicher noch ein wenig auf sich warten lassen. einzig die unreal 3 engine ist angekündigt, welche ja angeblich auch die momentanen high end grakas bei 800x600 in die knie zwingen soll - aber die engine kommt voraussichtlich erst 2006.

    Viele entwickler werden sicher erstmal auf jetzige engines zurückgreifen. (bsp. DOOM3 - Quake 4) vielleicht halten die sich ja auch so lang wie die Quake 3 engine, die ja dank vieler modifizierungen immer noch gute spiele hervorbringt (siehe Call of Duty).

    ich mach mir keine sorgen...und 9800 xt bzw. -pro user sicher auch ned.

    ich warte definitiv bis directx 10 mit einer neuen graka

    ...denn dann gehts sicher richtig rund.

    greetz
     
  17. Damocles

    Damocles Halbes Megabyte

    Die PC Games hat was meiner Meinung nach etwas sehr schönes zu den zwei Stromanschlüssen geschrieben: "Powered by Emotion" :totlach: :spitze:
     
  18. Marian R.

    Marian R. Viertel Gigabyte

    ups, hab ein "," vergessen... Hinter Kühlverbrauch!
     
  19. Marian R.

    Marian R. Viertel Gigabyte

    So wie ich das gelesen habe, resultiert der hohe Stromverbrauch aus dem hohen Kühlverbauch, des GPU und des RAM! Und das kann an ja ändern :D
    Hat die Geforce jetzt eigentlich nen FX oder nicht? also FX 6800 Ultra, oder nur 6800 Ultra?!
     
  20. Gast

    Gast Guest

    Wie meinst du das?? Das der Bildschirm das nicht mitmacht oder wie?? ich bezweifel mal, das sich jemand der sich soclh ei n Monster zulegt, es in einen 1,5GhZ PC mit 256MB Ram reinkloppt...beim besten Willen nicht!!
    Und fuer den Detailreichtum ist nunmal die Grafikkarte zustaendig. Desweiteren wuerden wahrscheinlich mehr Leute auf hoher Aufloesung spielen, wenn sie es nur koennten.

    Was den GPU Takt betrifft...ich gehe schwer davon aus, dass beide Hersteller die Taktraten an das obere Limit fahren. Wobei es ja auch schon 6800 Modelle mit 475MhZ geben soll...wird spannend!!

    Was mich jedoch ein wenig stoert, ist das Nvidia 'nen Bridge Chip verbaut, ATI jedoch die native Loesung waehlt (welche zweifelsfrei die besser Wahl ist) und somit 2 GPUs designen muss, was natuerlich auch wieder Kohle spart...das sollte man nicht vergessen!!

    Die X800XT soll es dann fuer 500Euro geben...egal ob nun ATI oder Nvidia Fan...die X800XT ist zum heutigen Zeitpunkt EINDEUTIG die bessere Wahl!!

    Gruss
     
Thread Status:
Not open for further replies.

Share This Page