1. Bitte immer die Rechnerkonfiguration komplett posten!
    Vollständige Angaben zur Konfiguration erleichtern die Hilfestellung und machen eine zügige Problemlösung wahrscheinlicher. Wie es geht steht hier: Klick.
    Information ausblenden

Radeon Problem ?

Dieses Thema im Forum "Grafikkarten & Monitore" wurde erstellt von fragik, 29. Dezember 2004.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    Hallo,

    ich habe eine Radeon 7500 Retail GK.
    Nach zwei Jahren bin ich endlich in den Genuss eines zweiten Analog-Monitors gekommen und habe diesen über einen Adapter auf dem DVI Anschluss gelegt.
    Problem: Bild am DVI ist total unscharf.
    Erst bei einer Auflösung von 800 x 600 und einer Frequenz von 60Hz ist das Bild scharf.
    Damit kann ich natürlich nicht arbeiten.
    Ich habe zwei 19“ Monitore von IIyama und wollte mindestens für beide Monitore die Einstellungen 75Hz und 1152 x 864 realisieren.
    Ich habe das Gefühl, das kein defekt vorliegt.
    Habe alle neuen Treiber und Einstellungen ausprobiert, Übertaktung versucht etc. - ohne Erfolg.
    Welche GK müsste ich haben um für diese Einstellungen ein scharfes Bild auf beiden Ausgängen zu bekommen ?
    Oder liegt es am Adapter und das Bild wäre bei einem TFT besser ?
    Oder habe ich doch etwas übersehen ?

    Danke
     
  2. mahni

    mahni Byte

    Registriert seit:
    11. Dezember 2004
    Beiträge:
    84
    Nein!
    Radeon Karten sind auf 60Hz spezialisiert, so ist zumindest bei meiner 9800pro, mit 75Hz bei 1.024*768 stellt er bei mir auch etwas unschärfer da.
    Da musst du warten, bis die Karte das merkt und auf 75Hz umstellen kann. Das ist zumindest bei mir so und das dauert nach Anschalten des Computers ca. 5 Min.
    Aber stell es lieber auf 60Hz da müsste er es alles gut darstellen.
    Bei meiner Geforce Karte gab es da glaube keine Probleme.
    Du müsstest also eine Geforce Karte kaufen, für deine "Arbeiten" genügt demnach eine 70€ teure Geforce FX5200!!!
     
  3. zoret1985

    zoret1985 Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    14
    Jo haste Recht. In der hinsicht sind die ATI Karten (meiner Meinung nach, nach jeder hinsicht) fürn Popo :)

    Gruss zoReT
     
  4. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    Danke,
    ich habe gehört es könnte auch am Adapter oder Störungen liegen. Die habe ich aber soweit es geht umgangen ( separate Stromquelle für 2. Monitor etc. )
    Nur den Adapter kann ich natürlich nicht tauschen.
    Der Witz ist ja, dass Einstellungen von 1152 x 864 und 1024 x 768 selbst bei 60 Hz nicht annähernd scharf werden.

    Ich benutze hauptsächlich Musiksoftware ( also keine Spiele ) die aber unter anderem DirectX 9 benötigt.
    Habe den auch installiert, obwohl die GK nur 7 kann
    Könnte das auch zu Verwirrungen führen ?

    Welche FX 5200 sollte ich denn nehmen, EP,LP, Albatros, Club 3D etc.
    Ich bin nicht so ein Grafikkreak. Es sollten nur die Einstellungen 75 Hz 1152 x 864 an beiden Ausgängen mit einem CRT scharf dargestellt werden, einen DVI Ausgang haben ( für zweiten CRT ) und Direct X9 können.
    Bitte helft mir
     
  5. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.953
    Ich würde mal behaupten wollen, daß es am Adapter liegt.
    Immerhin gibt es welche für 2€ und welche, die 20€ kosten...
    Mit Sicherheit kann ich es aber auch nicht sagen.
    Die Geschichte mit den 60Hz und daß die Karte nach 5 Minuten irgendwas "merkt", klingt mir jedenfalls zu abenteuerlich. Bei RAMDAC-Frequenzen um die 350..400MHz sollte bei 1152 x 864 und 75Hz auf jeden Fall noch ein scharfes Bild von der Grafikkarte dargestellt werden können - auch wenn die Hersteller nicht alle gleich viel Energie in die Flankensteilheit ihrer Ausgangssignale stecken...

    Gruß, Magiceye
     
  6. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    Hallo Magiceye04
    Also der Adapter hat damals immerhin über 8 Euro gekostet.
    "DVI-A-DAS-AM/VGAF"
    DVI Adapter A-ST auf VGA-HD15-BU
    Ist in blauen Kunststoff vergossener Adapter.
    Ist das wieder kompliziert.
    Demnach müsste ich mir erst einmal einen TFT leihen um zu probieren, ob es ohne Adapter ein scharfes Bild gibt.
     
  7. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.953
    Das wird vermutlich nicht viel bringen. Ein TFT am DVI-Port dürfte theoretisch nie ein unscharfes Bild liefern, immerhin werden die Daten digital übertragen und nicht in einem analogen Signal verpackt.
     
  8. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    Dann muss ich mir den besten Adapter, der dann ja so wie ich das rausgehört habe auch als Treiber agiert und Signale adaptiert mit Rückgaberecht kaufen um das zu testen.
     
  9. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.953
    Der DVI-Port an der Grafikkarte bietet sowohl analoge wie auch digitale Signale. Mit einem normalen DVI-Kabel werden halt nur die digitalen Signale an einen TFT geschickt und mit so einem Adapter kann man eben die analogen Signale per VGA-Kabel zu einem analogen Monitor bringen.
    Der Adapter dient also nur dazu, die entsprechenden Pins mit dem Kabel zu verbinden. Je nachdem, wie hochwertig die einzelnen Leitungen im Adapter abgeschirmt werden, hat man ein mehr oder weniger scharfes Ergebnis.
    (zumindest ist das mein Wissensstand)
     
  10. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    Leider gibt es über die Wertigkeit eines Adapters überhaupt keine Infos bei Onlineshops ( habe gerade mal rumgestöbert ).
    Wie finde ich denn jetzt heraus, wo ich einen guten Adapter finde.
    höherer Preis = gleich besserer Adapter
    stimmt ja auch nicht immer
    Das geht bei 4 Euro los bis 30 Euro.
     
  11. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    So ich habe nochmal im Netz gesucht.
    Bei Nickles heißt es, dass es an den AD Wandlern liegen kann.
    Je schlechter, desto höher der Wischeffekt bei kleineren Auflösungen.
    Das wäre wirklich eine Frechheit.
     
  12. ruckelg

    ruckelg ROM

    Registriert seit:
    9. Dezember 2004
    Beiträge:
    2
    Es ist eigentlich wohl bekannt, dass Gamekartene wie Geforce oder Radeon nicht sehr viel Wert auf gute analoge Signale legen. Die ist aber einem schlechten Layout der Grafikkarten zugrunde gelegt. Überhalb von 1024 wird es unscharf.

    Bei DVI Ausgängen ist das noch ein wenig kritischer, die sind eigentlich nur für diditale Signale gebaut. Analog kann man als Extra sehen, und das nur für geringe Auflösungen.

    Mein Tipp. Entweder eine zweite Karte, oder eine Officekarte wie von Matrox, die bekannt sind für ihre hervorragende analoge Signalqualität.

    Ruckel
     
  13. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    @ ruckelg
    Erst mal ein frohes neues Jahr.
    Welche Matrox GK würde denn da für mich reichen.
    Ich nutze meinen Computer hauptsächlich für Musik-Software.
    Einige Programme verlangen nach DirectX 9.X Treibern.
    Aber das hat glaube ich nichts mit der Darstellung zu tun, die die GK bringen muss.
    Wichtig ist aber, dass die Grafik meine Audiosignale nicht ausbremst und wie gesagt, dass ich zwei analoge 19 Zoll Monitore mit jeweils einer Auflösung von 1152 "fahren" kann.
    Mit zwei Monitoren ist das einfach nicht so stressig.
    Man kann zwar Seitenanordnungen abspeichern und über Tastaturbefehle ( die man auch frei zuordnen kann ) aufrufen, aber ein 2. Monitor ist zusätzlich eine große Erleichterung.
    Angeblich sollen die DVI-VGA Adapter auch sehr unterschiedlich in der Quallität ausfalllen.
    Vielleicht kommen bei mir zwei Faktoren zusammen.
    GK - Layout und Adapter.
    Ich werde wohl testen müssen und mir erst einmal ein paar Komponenten ausleihen müssen.
     
  14. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.953
    Wenn Du mit dem PC keine aufwändigen Spiele spielst, kannst Du im Prinzip jede Karte nehmen, Grafikkarten bremsen jedenfalls meines Wissens keine Soundkarten aus.
    Matrox G400/450/500/550 kämen in Frage, evtl. ist da auch schon ein hochwertigerer DVI-Adapter dabei oder es gibt sogar welche mit 2 analogen Ausgängen.
    Ob es DX9-Treiber dafür gibt, mußt Du mal bei Matrox nachschauen.

    Meine Radeon9600 von Sapphire hat jedenfalls auch recht gute analoge Signalqualität, die c't testet selbiges übrigens immer.
     
  15. fragik

    fragik Byte

    Registriert seit:
    29. Dezember 2004
    Beiträge:
    8
    Ich habe jetzt gehört, das man auch eine 2. GK im PCI-Slot anschließen kann.
    Ist das korrekt ?
    Werden dann von Windows 2 GK erkannt ( PCI - AGP ) und kann auch eine Desktoperweiterung realisiert werden ?
    Die Variante ist dann vielleicht billiger als eine Matrox oder ein teurer Adapter der event. so wie so nix bringt.
     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen