Kühlung von Computer-Chips durch Nanofluid

Dieses Thema im Forum "Ihre Meinung zu Artikeln auf pcwelt.de" wurde erstellt von hilbernate, 22. April 2006.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. hilbernate

    hilbernate Byte

    Registriert seit:
    28. Januar 2005
    Beiträge:
    24
    Statt auf die Kühlung sollen die sich eher auf das Vermeiden von Hitze focussieren. Wie wärs mal mit Chips die nur 3 W Leistung abgeben, bei 10facher Leistungsfähigkeit.
     
  2. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.976
    Selbst Intel scheint ja die nächste Generation endlich mal wieder etwas stromsparender zu bauen.
    Nun müssen nur noch ATI und NVidia ihren Energiehunger zurückschrauben und man kann sich wenigstens die neuen Netzteile sparen.
    Aber da die Chips immer kleiner werden, ist logischerweise auch die Fläche, welche die Wärme abgeben kann, immer kleiner und neue Kühllösungen sind daher trotzdem zu begrüßen.
     
  3. wpasternak

    wpasternak Kbyte

    Registriert seit:
    11. Juni 2001
    Beiträge:
    145
    Sicher brauchen aktuelle Chips ne Menge Leistung, und geben auch ne Menge Wärme ab. In die Richtung die Du anführst gehen ja die Mobilprozessoren mit ihren Stromsparfunktionen usw., da dann auch weniger Wärme entsteht.

    Eine Grenze des machbaren stellt aber immer der aktuelle Stand des technisch möglichen dar, eine absolute Grenze die physikalischen Eigenschaften. Eine Mehrleistung der CPUs/GPUs entsteht in der Regel weniger durch neue Prozessorarchitekturen, als dadurch mehr Schaltkreise zu integrieren. Durch die höhere Dichte komprimiert sich auch die Wärmeabgabe auf eine kleinere Fläche. Die letzte x86-CPU die sich völlig ohne passive oder aktive Kühlung im Dauerbetrieb schadensfrei benutzen ließ war der 486 DX/2 mit 50 MHz.

    Das Wärmeproblem besteht ja nicht nur bei Prozessoren. Auch ein herkömmlicher Motor in einem Auto gibt einen Großteil seiner Leistung in Form von Wärme ab, er hat schlichtweg einen miserablen Wirkungsgrad, wohingegen der Wirkungsgrad eines Elektromotors z. B. wesentlich höher liegt.

    Die Chiphersteller forschen bestimmt in diese Richtung, allerdings wäre hier eine einzige Möglichkeit den "Wirkungsgrad" der CPUs zu erhöhen. Jeder elektrische Leiter hat einen Widerstand, den Widerstand zu überwinden kostet Energie, da Energie nicht verloren gehen kann sondern nur umgewandelt wird entsteht daraus die Abwärme. Eine Lösung böten also nur neue Fabrikationstechniken die es ermöglichen würden Materialien und Techniken zu verwenden die den elektrischen Widerstand reduzieren (z. B. Supraleiter), was aber dann wiederum für den praktischen Einsatz ganz andere Probleme aufwirft. So einfach ist die Sache also nicht.

    Die Grenzen des machbaren diktiert uns hier die Physik, unsere Kenntnis über die Physik, und der technische Stand um Lösungen für den Massenmarkt erschwinglich zu produzieren.
     
  4. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.976
    Man kann die damaligen Keramikgehäuse, in die die Chips gegossen wurden, durchaus schon als eine Art Kühler sehen.
    Denn ohne das Gehäuse hätte man sie auch kleiner bauen können, dann aber mit einem extra Kühlkörper ;)
     
  5. Chacky

    Chacky Megabyte

    Registriert seit:
    30. März 2003
    Beiträge:
    1.024
    Meinst du damit die Nanometer Architektur, sprich dass man diese immer kleiner macht (oder wie sagt man das :D)

    Was ich jedoch im Bericht nicht so verstehe, warum sie nach einer "noch leistungsfähigeren" Kühlmethode suchen, obwohl sie diese Methote mit Nanofluid noch gar nicht ausgeschöpft haben
     
  6. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.976
    Bei Namometern sind wir doch schon seit etlichen Generationen angekommen. 90 und 65nm sind Stand der Technik, 45nm steht kurz vor der Serienreife.

    Ich meinte eher, daß man sich endlich vom Pentium4 mit seiner ineffektiven Architektur verabschiedet. Siehe http://www.pcwelt.de/news/hardware/136159/index.html
     
  7. ThiefMaster

    ThiefMaster Byte

    Registriert seit:
    21. Juli 2003
    Beiträge:
    56
    Sind 10 Megawatt nicht *etwas* viel? ;)
     
  8. magiceye04

    magiceye04 Wandelndes Forum

    Registriert seit:
    1. September 2000
    Beiträge:
    53.976
    Nicht, wenn die CPU einen ganzen Quadratmeter groß ist ;)
     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen