Nvidia koppelt Grafikkarten nach Voodoo-Art

Dieses Thema im Forum "Ihre Meinung zu Artikeln auf pcwelt.de" wurde erstellt von MHJ, 29. Juni 2004.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. MHJ

    MHJ Byte

    Registriert seit:
    30. Juli 2003
    Beiträge:
    108
    :muhaha:

    Wie teuer soll der Grafikspaß eigentlich noch werden, vor allem wie unnütz/krank?
     
  2. wm

    wm Kbyte

    Registriert seit:
    15. November 2000
    Beiträge:
    351
    Wohl genauso teuer wie der User bereit ist zu Zahlen!
    Anscheinend gibt es zuviele Verbraucher bei denen der Euro zu locker sitzt. Einfach nicht kaufen, der Rest regelt sich von alleine.

    MfG

    Ein User
     
  3. ThadMiller

    ThadMiller Guest

    Registriert seit:
    9. Januar 2001
    Beiträge:
    396

    Ist wohl auch eher für den Profibereich gedacht.


    gruß
    Thad
     
  4. Aquaba84

    Aquaba84 Kbyte

    Registriert seit:
    14. November 2001
    Beiträge:
    475
    es geht doch auch oft nicht um sinn oder unsinn, sondern nur um den fortschritt und darumw as technisch möglich ist...

    wenn ich lese, dass die neue gf6 150 fps schafft, die beste gf5 120 fps, (in UT2k4 glaube ich), dann halte ich selbst die beste gf5 noch überdimensioniert. aber die leute kaufen sie dennnoch, obwohl es noch kein einziges spiel gibt, was die karte auch nur annähernd auslasten würde. denn selbst neuerscheinungen wie deus ex 2, welches ein reines DX9 spiel ist, schafft meine gf4 ti 4200 128 mb noch gerade so flüssig in 1024x768x32.
    ut2k4 hab ich nicht zum testen... also sehe ich persönlich im moment noch keinen grund ne gf5 oder 6 zu kaufen, also demnach sind die auch noch "unsinnig", die gameprogger kommen nicht hinterher mit dem entwickeln, weil ja die spiele bei erscheinen im prinzip 2 jahre alt sind, mehr oder weniger, denn die engine kommt relatv am anfang und richtete sich nach dem damaligens tand der technik.

    es geht halt eben nur um schneller höher weiter, und um den konkurenzkampf, am ende profitiert der user davon, weil andere hardware billiger wird

    und diese dualkarte wird sicher auch nur für techdemos benutzt
     
  5. pixel

    pixel Kbyte

    Registriert seit:
    7. November 2000
    Beiträge:
    403
    Die meisten solcher Gimmicks sind genauso cool wie unnütz für den Endanwender, vom Preis mal ganz abgesehen :-)
     
  6. RaBerti1

    RaBerti1 Viertel Gigabyte

    Registriert seit:
    24. November 2000
    Beiträge:
    5.094
    Welcher Profibereich? Profimäßiges Daddeln? Neee, ne?

    Außerdem: Wozu eigentlich mehr als 16bit Farbtiefe bei diesen Daddeldingern? Kann mir keiner erzählen, daß er das beim Spielen von 32bit Farbtiefe unterscheiden kann.

    MfG Raberti
     
  7. Aquaba84

    Aquaba84 Kbyte

    Registriert seit:
    14. November 2001
    Beiträge:
    475
    naja profibereich, spiele entwicklungsfirmen z.b. oder 3d-studios (shrek lässt grüßen)

    och doch, das siehst du, dein auge kann zwar nicht direkt 4,3 mrd farben unterscheiden, aber erkennen wenn klare farbabstufungen vorhanden sind (beispiel gif bilder). und bei spielen mit sehr vielen licht effekten siehst du garantiert den unterschied von 16 zu 32 bit...

    außerdem sind heute grafikkarten teilweise in 32 bit schneller als in 16, weil alles auf 32 optimiert wird, ebenso in hohnen auflösungen. es gibt doch sogar grafikkarten die intern in 48 bit rechnen, weil 32 zum mischen der farben nicht reichen (zwischen-rechenschritte werden sosnt durch rundungsfehler verfälscht)

    weiß gar net mehr wie das teil hieß, war nicht nvidia und nicht ati, war irgendwas anderes *g*
     
  8. ThadMiller

    ThadMiller Guest

    Registriert seit:
    9. Januar 2001
    Beiträge:
    396

    Spiel doch mal FrarCry mit deiner 4200er. Da wirst du weinen. Selbst die von dir als überdimensioniert bezeichneten GF5 und 6 kannst du da locker an ihre Grenzen bringen.



    Meine Wohnung hat 60qm. Das reicht vollkommen, alle Wohnungen die größer sind, sind unsinn. Du siehst schon, so einfach läßt sich das nicht sagen.



    Es ist nicht nur so das die Entwickler die Roadmap der GK-Hersteller (bzw, Hardwarehersteller im Allgemeinen) sehr gut kennen und kommende Features in ihrer Spieleentwicklung berücksichtigen können. Die heute entwickelten Engines zollen natürlich auch der schnellen Entwicklung Tribut und sind sehr gut skalierbar. Sieh dir zum Beispiel die Q3-engine an. Jahre alt, aber wenn sie will (bzw. der Spieleprogrammierer) bring sie deine 4200er noch mächtig zum rauchen...



    richtisch



    Sicher wird auf der nächsten cbit das ein oder andere Dualsystem vorgeführt werden. Aber sicher nicht um aussschließlich solche
    http://www.nzone.com/object/nzone_downloads_nvidia.html
    Sachen drauf laufen zu lassen.


    Ich denk da eher an Firmen wie autodesk, descreed, Newtek, alias usw. die auf diese Entwicklung geradezu angewiesen sind.



    gruß
    Thad
     
  9. --ZerO--

    --ZerO-- Byte

    Registriert seit:
    5. August 2003
    Beiträge:
    30

    Hmm... seit wann gibts jetzt GIF-Bilder mit 16Bit? Ich kenn
    nur welche mit 8Bit(256Farben)
     
  10. ThadMiller

    ThadMiller Guest

    Registriert seit:
    9. Januar 2001
    Beiträge:
    396
    Das war bzw. ist die Matrox Parhelia-512

    Aktueller Standard für die Farbdarstellung auf dem Desktop eines PCs sind 24bit. Jedes einzelne Pixel bzw. seine Farbe setzt sich aus den sogenannten RGB-Werten zusammen (Rot-Grün-Blau), wobei jeder der drei Farbwerte durch eine 8bit-Zahl (0-255) repräsentiert wird. Stehen alle drei RGB-Werte auf 255, ergibt sich als Ergebnis die Farbe Weiß. Sind alle drei auf Null, wird das Pixel schwarz angezeigt. Mit allen Zwischenstufen ergeben sich insgesamt 256x256x256=16.777.216 Farben.

    Matrox erweitert die Farbtiefe mit dem Parhelia-512 nun auf 10bit pro Kanal. Hört sich für den Ungeübten nicht viel mehr als 8bit an, ist aber trotzdem ein großer Schritt. Während eine 8bit-Zahl maximal die Dezimalzahl 256 darstellen kann, ist es bei einer 10bit-Zahl immerhin 1024, also eine viermal so große Zahl.
    Bei 10bit pro Farbkanal (30bit Farbtiefe) ergibt sich damit eine Gesamtzahl der darstellbaren Farben von 1.073.741.824 (=1024x1024x1024), mehr als eine Milliarde Farben und insgesamt 64mal soviele Farben wie bei 24bit Farbtiefe!

    guckst du hier:
    http://www.hartware.net/report_399_6.html

    Wenn die mehr Dampf bei 3D machen würde, wärs mein Favorit. :rock:

    gruß
    Thad
     
  11. Aquaba84

    Aquaba84 Kbyte

    Registriert seit:
    14. November 2001
    Beiträge:
    475
    @ Thad
    naja und dazukommen noch n paar bit zwecks alpha-kanal, sieht man zwar nicht aber wird ja zwecks farbmischung mit einberechnet


    @ zero
    war mir klar das sowas kommt, is mir auch klar das gif nur 256 farben haben, ich meinte damit eigentlich nur, das man nicht sieht wenn alle farben da sind, sondern man sieht wenn welche fehlen, also z.b. unterschied jpg - gif. und wenn du im schönsen lichteffekt bei thief 3 plötzlich n paar farbkanten drn hast weil man nur auf 16 bit spielt dann weiß man was fehlt *g*


    @ thad
    naja is mir klar das es immer irgendwelche spiele gibt die noch mehr hardware brauchen, ich kenne auch nicht alle spiele
    meine beispiele sind sicherlich dehnbar, meine meinung auch
    dein beispiel mit der wohnung: für MICH reicht im moment meine ti 4200, für DICH deine 60 qm, simmer uns doch einig *g* (in meinem text stand nämlich bewusst "ich persönlich")
    hm ok bei der spiele-entwicklung hab ich net so ganz die ahnung, bin selber (noch) keiner. ich weiß nur das die spieletechnik oft hinter den gakas hinterherhingt, das wollte ichd amit sagen. aber ist irgendwie auch logisch, die leute müssen ja erstmal zeit ham sich hardware zu kaufen bis es spiele gibt die sie nutzen :-)
    an die firmen hab ich ja auch gedacht, irgendsowas hatte ich ja auch geschrieben (3d-firmen oder so, oder eben cad-studios), aber privatleute werden sich sicher gaaaaanz selten son dualdings hinstellen, es sei denn aldi verbaut die *g*

     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen