1. Bitte immer die Rechnerkonfiguration komplett posten!
    Vollständige Angaben zur Konfiguration erleichtern die Hilfestellung und machen eine zügige Problemlösung wahrscheinlicher. Wie es geht steht hier: Klick.
    Information ausblenden

höhere auflösung = verschwommenes bild

Dieses Thema im Forum "Grafikkarten & Monitore" wurde erstellt von Crap, 24. Februar 2006.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. Crap

    Crap Byte

    Registriert seit:
    31. Januar 2006
    Beiträge:
    11
    hi leutz
    je höher ich meine auflösung und die herzzahl stelle desto verschwommener wird das bild
    vor allem erkennbar an der schrift
    es scheint so als wäre soetwas wie ein schatten noch im hintergrund
    das nerft und bei 1024x764 kriegt man schon augenkrebs
    je höher mann dann noch stellt desto schlimmer wirds
    hat jemand das problem und eine lösung bitte?

    thx
     
  2. Crap

    Crap Byte

    Registriert seit:
    31. Januar 2006
    Beiträge:
    11
    übrigens
    monitor: medion md1998 röhre
    graka : nvidia 6800gs von club3d
     
  3. @ndi

    @ndi Megabyte

    Registriert seit:
    1. Oktober 2005
    Beiträge:
    1.302
    ist bei mir genauso. das liegt am bidlschirm.
    eine weitere möglichkeit wäre dass du den falschen grafikkartentreiber installiert hast.
     
  4. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.975
    Das ist völlig normal, wenn man noch analoge Grafikkarten (womöglich auch noch mit schlechter Signalqulität) und Röhrenmonitore benutzt.
    Mehr als 85Hz ist eigentlich nicht nötig, um ein flimmerfreies Bild zu haben. Und für jede Monitorgröße gibt es eine maximale Auflösung, die dieser noch einigermaßen brauchabr darstellt.
    Bei einem 17" ist mehr als 1024x768 nur selten möglich, nur mit Pixelabständen von 0,24mm oder kleiner würde sowas noch gehen.

    Also wenn Du eine höhere Auflösung nutzen wills, kauf Dir eine Grafikkarte mit hoher Signalqulalität und/oder einen besseren Röhrenmonitor oder lieber gleich einen TFT.

    Gruß, Andreas
     
  5. iqiq

    iqiq Kbyte

    Registriert seit:
    22. Februar 2004
    Beiträge:
    433
    Es liegt m.E. nicht "immer" am Monitor.

    Ich hatte vor Jahren mal eine GeForce2 Ultra und MX in 2 PCs verbaut, welche ich auch an großen Monitoren betrieb.

    Die GeForce2-Reihe z.B. hatte einen minderwertigen "Low-Pass-Filter" verbaut, welcher bei hohen Auflösungen oberhalb 1024 zu "schwammigen" Anzeigen führten.

    Ich finde es immer wieder erstaunlich, daß es auch noch heute neue Grafikkarten gibt, welche NICHT für den Betrieb an große Monitore bei Auflösungen jenseits der 1240er geeignet sind.

    Ich nutze nun an meinen 3 großen Monitoren (2 * 21" und 1 * 24" - alle 3 Monitore haben eine flache Sony-Bildröhre, Trinitron) Radeon-Karten....8500, 9600XT und 9800XT der Marke Sapphire.

    Ich kaufte mir vor ca. 4 Wochen eine Karte mit Radeon RX850XT - an einem großen Monitor konnte ich diese Karte nicht betreiben - das Bild ist saumäßig schlecht!

    Schade finde ich, daß ich bis dato noch keine Grafikkarten-Tests im Internet fand, bei denen auch Augenmerk auf die Signalqualität gelegt wurde - es zählt wohl nur noch die Leistung...schade.

    Gruß
    IQIQ
     
  6. rudicando

    rudicando Kbyte

    Registriert seit:
    5. Februar 2005
    Beiträge:
    490
    Bei NVIDEA kannst du im Treiber unter Farbkorrektur auch Bildschärfung einstellen. Das hilft ein wenig.
     
  7. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.975
    Die c't testet regelmäßig die Qualität von Grafikkarten. Die Beiträge und Tests sind zwar nicht frei verfügbar, aber für 1€ kann man sich einzelne Artikel kaufen oder man läßt sich gleich ein ganzes Heft nachliefern. Meine Sapphire hatte ich damals auch wegen der guten Signalqualität gekauft.
     
  8. Crap

    Crap Byte

    Registriert seit:
    31. Januar 2006
    Beiträge:
    11
    half alles nix bis ein freund geraten hat die grafikkarte an den dvi anschluss mit dem adapter dranzustecken
    beim ausstecken vom kabel aus der graka
    (ich habe ein verlängerungskabel benutzt da das monitorkabel zu kurz war)
    habe ich bemerkt dass in dem verlängerungskabel eine pin fehlt;
    das war denn auch der grund für die misäre
    musst meinen pc zwar umschieben und das verlängerungskabel wegtung aber dafür ist jetzt volle schärfe garantiert :D
    danke für eure hilfe
     
  9. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.975
    Bei meinen Monitoren fehlen am VGA-Kabel grundsätzlich 2 Pins, die sind vermutlich gar nicht belegt.
    Ist wohl eher so, daß am anderen Ausgang der Grafikkarte etwas mehr Wert auf einen ordentlichen Signalpegel gelegt wurde.
     
  10. Crap

    Crap Byte

    Registriert seit:
    31. Januar 2006
    Beiträge:
    11
    neeeeeeeeeee, bei meinem monitor sind alle pins belegt und bei dem verlängerungskabel waren sie auch einst alle belgt.
    anscheinent bin ich da nich pfleglich mit umgegangen eine fehlte zum schluss auf jedenfall,
    wer weiß vllt steckt die noch in meiner alten graka drinn ;)
     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen