1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

Computer-Vernetzung schafft europäischen Superrechner-Verbund

Discussion in 'Ihre Meinung zu Artikeln auf pcwelt.de' started by rolok, Apr 17, 2007.

Thread Status:
Not open for further replies.
  1. rolok

    rolok ROM

    In den Büros und Haushalten Europas steht viel ungenutze Recherleistung brach. Ich finde, dass man diese Recherleistung besser nutzen sollte durch den Einsatz von Gridcomputing und die Programmierung schlankerer Betriebssysteme. Das wäre auch ganz im Sinne des Umweltschutzes und des Energiesparens, wenn man bedenkt was solche Supercomputer an Energie verschleudern. Wann hält die Energieeffizienz und der Umweltschutz endlich bei den Computern Einzug. Heute heisst es oft bei einem neuen Betriebsystem auch gleich den alten Computer fortwerfen. Was für eine Resourcenverschwendung, was für ein ungenutzes Potential. Die meisten Leute schöpfen die Kapazität ihrer Rechner eh nicht aus. Allein die heutigen Grafikkarten sind kleine Superrechner.
     
  2. Hallo Rolok,

    kann es sein, dass Dir nur PC bekannt sind? Wir reden hier über Maschinen mit extremen Rechenleistungen. Das kann man nicht damit vergleichen.

    Apropos Umweltschutz, informiere Dich doch ersteinmal wofür diese Rechenpower benötigt wird, dann rede/schreibe.
     
  3. rolok

    rolok ROM

    Ja, Monsieur Neunmalklug :D,
    ich habe mich mit einem Spezialisten für Parallelcomputing darüber ausgiebig unterhalten. Er sieht ebenfalls ein Riesenpotential in ungenutzten PC-Rechnerkapazitäten. Es ist mir klar dass die Rechenpower unter anderem für die Berechnung von Klimamodellen benötigt wird, das liesse sich auch mit Gridnetzen lösen. Du hast aber insofern Recht, dass es noch einige Probleme zu bewältigen gibt, gemäss den Aussagen des Spezialisten. Das Problem mit dem hohen Energieverbrauch bei Superrechnern bleibt bestehen.
     
  4. enschman

    enschman Megabyte

    Und du meinst das wäre umweltfreundlicher? Da gibts auch einige Argumente gegen:

    a) Man braucht weiterhin einen Rechner, der die anderen zentral steuert und Aufgaben verteilt
    b) Es fällt unmengen an Traffic an, dafür muss die Netzanbindung des zentralen Rechners sehr (!) gut sein, entsprechendes dürfte auch einiges an Strom schlucken
    c) Wenn JEDER bei so einem vernetzten Supercomputer dabei ist, darf man davon ausgehen, dass gefälscht wird (z. B. Umweltsimulationen können "verbessert" werden), d. h. es ist geschickter, entsprechende Aufgaben an mehrere Rechner zu schicken und die Ergebnisse zu vergleichen --> mehr Stromverbrauch, da weitaus mehr gerechnet werden muss

    mfg Tenschman
     
  5. kadajawi

    kadajawi Megabyte

    Es müssen keine weiteren PCs hergestellt werden... schont die Ressourcen. Supercomputer bestehen heutzutage oftmals aus vernetzten normalen PCs. Platz 1 der Weltrangliste basiert auf PowerPC Prozessoren, Platz 2 auf AMD Opteron Prozessoren, ein paar weitere auf PowerPC (halt IBM Systeme), Platz 6 Intel Xeon, 7 und 8 verwendet Itanium2, 9 und 10 wieder Opteron.
    Also alles wohl recht normale Prozessoren bekannt aus PCs und Macs, mit Ausnahme der Itanium Systeme. Zwar die Workstation/Serverversionen, aber die unterscheiden sich auch nicht großartig.

    Sprich man könnte genauso gut Büro PCs dafür nehmen (es macht jetzt keinen Sinn irgendwelche ineffizienten lahmen Enten dafür zu verwenden, aber modernere Systeme?). Es kommt sicherlich auf die Aufgaben an... aber es gibt ja einige Distributed Computing Netze wie Folding@Home die Heim-PCs nutzen.

    Wenn das System anständig programmiert wurde denke ich nicht das man so leicht fälschen kann...
     
  6. plofre

    plofre Byte

    @Tenschmann
    Punkt c) deiner Kritik halte ich für irrelevant. Das Verfälschen von Ergebnissen ist da gar nicht so einfach, da die Berechnungen in Millionen von Einzelteilen zerlegt werden, die nur Zwischenergebnisse liefern, die auch dann weiterberechnet werden. Da etwas verfälschen zu wollen, ist fast unmöglich, besonders wenn die User, die ihren PC damit in den Zeiten, da diese sonst stillliegen, überhaupt nicht wissen, was für ein Programm und Problem da überhaupt auf ihrem System berechnet wird. Das größere Problem ist eigentlich, das die ganzen Berechnungen sich ziemlich hinziehen, und auf dem Übertragungsweg kann die eine oder andere Berechnung verloren gehen. Besonders dann, wenn der jeweilige User es sich in der Zwischenzeit wieder anders überlegt. Und relativ zum Stromverbrauch eines einzelnen PCs dürfte der Energieverbrauch pro Berechnung auch nicht so hoch sein. Schließlich und endlich haben diese Supercomputer auch eine entsprechende Rechenleistung. Ein Supercomputer, der aus 50 000 vernetzten Einzel-PCs besteht, braucht eben 50 000 mal mehr Strom als ein einzelner PC, ist ja ganz logisch.
    Bei einem Grid netz wird der Strom eben nicht im Rechenzentrum verbraten, sondern bei den entsprechenden Usern zu Hause.
    Allerdings könnten vor allem auch die PCs in Firmen und Behörden genutzt werden, die eh nur ca. 40 Stunden in der Woche laufen, während die Supercomputer in der Regel eien 7 Tage Woche mit je einem 24 Stunden Tag haben. Zusammen mit den Privat-PCs stellen diese in der Tat eine beträchtliche ungenutzte Reserve an Rechenzeit dar, welche bei den Großcomputern immer Mangelware ist.
    Und gerade dieser Superrechner-Verbund funktioniert eh nicht anders, als das ungenutzte Rechenzeit, so sie sei vorhanden, effektiver genutzt wird, d.h. daß nicht mehr jeder vor sich hin werkelt, sondern das ganze besser koordiniert wird. Trotzdem werden immer neue Superrechner gebraucht werden, da die Rechenzeit auf den bisher vorhandenen durch immer kompliziertere Berechnungen immer knapper wird.
    MfG Uli
     
  7. enschman

    enschman Megabyte

    Soweit ich weiß gings in meinem Post um umweltfreundliche, möglichst hohe Rechenleistung. Der Computer im Büro z. B. wird einen hohen Anteil im Leerlauf verbraten (weil man im Normalfall nicht alles elektronisch machen muss), ein gutes System muss im Leerlauf nur minimal gekühlt werden.

    Wenn jetzt die verlagerte Rechenleistung den Punkt erreicht hat, ab wann des System ohne ausreichende Kühlung zu warm wird - werden die Lüfter etc. angeschaltet. Die CPU braucht bei mehr Aufgaben natürlich auch mehr Strom. Dazu kommt der Schutz von Fehlberechnungen - mehrere Rechner prüfen sich gegenseitig. Zuletzt kommen noch die Rechner, die die verlagerte Leistung koordinieren sollen.

    Unterm Strich dürfte ein solcher "vernetzter Supercomputer" weitaus mehr Strom verbrauchen als ein Rechenzentrum dafür benötigt.

    mfg Tenschman
     
  8. kadajawi

    kadajawi Megabyte

    Quatsch Tenschman. Mein PC idle: 100 Watt. PC Volllast (Prozessor): 130 Watt. Übertaktet. Ohne zu übertakten isses 90 Watt zu 105 Watt. Es ist also eine riesen Verschwendung den PC Idle zu lassen. Die ganzen Komponenten wie Netzteil, Grafikkarte, Mainboard, Festplatten etc. brauchen ja Strom, auch wenn der Computer nix macht. Das bisschen, was ein Lüfter verbraucht... egal.
     
  9. enschman

    enschman Megabyte

    Deswegen schalt ich ihn meistens aus, wenn grad nix zum tun ist... :D

    mfg Tenschman
     
  10. kadajawi

    kadajawi Megabyte

    Ja, aber du wirst den Computer ja kaum vollständig auslasten die ganze Zeit, oder? Und gerade in Büros ist es ja noch extremer. Da würde es doch Sinn machen die verschwendete Rechenzeit für wissenschaftliche Zwecke zu nutzen.
     
  11. enschman

    enschman Megabyte

    Sinn sicherlich. Verursacht für den Netzwerkadmin allerdings nur Arbeit und fürs Unternehmen zusätzlicher Stromverbrauch. Nenn doch mal ein finanzielles Argument, warum ein Chef sowas unterstützen sollte!

    mfg Tenschman

    PS: War auf Büros bezogen...
     
  12. Hallo,

    projekte wie seti oder folding sind auf verteiltes berechnen ja von vornherein ausgelegt und haben keine (mir bekannte) zeitliche limitierung. der prof am IFF in jülich, der muss innerhalb bestimmter zeiten resultate vorweisen um projekte in zeitlichen rahmen zu halten. wenn dieser prof sein z.B. fortranprogramm laufen lässt, wie lange soll/will er warten? jetzt bekommt er antwort in minuten/stunden.

    weiterhin frage ich nach der sicherheit des ganzen, wie sollen berechnungen von hochsensiblen daten verteilt werden?

    nur mal so als einen von vielen aspekten.

    mfg

    der hamster
     
  13. zwilling

    zwilling Viertel Gigabyte

    Neben Seti@home werden von BOINC zur Zeit noch 20 weitere Projekte verteilt. Wer sich dafür interessiert, kann sich unter den 21 Projekten selbst welche aussuchen. Ich habe zwei gewählt, Seti und Climateprediction.net. Jetzt laufen meine beiden AMD-Kerne ununterbrochen mit 100% Auslastung. Beim restlichen Betrieb merkt man normalerweise nichts; nur PC-Welt ist etwas lahmer geworden. Man kann selbst bei Bedarf, wie beim Musik Hören oder Film Gucken, "Pause" drücken, wenn man etwas Wichtigeres durchführt. Stromverbrauch ist natürlich etwas höher, aber früher liefen die Rechner auch mindestens 8 bis 10 Stunden am Tag mit nur minimaler Auslastung.
     
  14. kadajawi

    kadajawi Megabyte

    @Kampfhamster: Sicherlich können solche Projekte nicht alle Supercomputer ersetzen, aber sie können entlastet bzw. der Bedarf gesenkt werden. Und das ist ja auch schon was.
     
  15. plofre

    plofre Byte

    @rolok
    In einem gewissen Sinne hast Du schon recht. Es gibt sicher genügend Forschungsaufgaben, die weder zeitkritisch noch sicherheitssensibel sind. Und die ohne weiteres auch auf Computer anderer Behörden ausgelagert werden können, denn bei Projekten, die sowieso vom Staat gefördert werden, dürfte es egal sein, in welchem Bereich des Staates die Computer stehen, auf denen die Berechnungen laufen.
    Frage: Machst Du inzwischen bei einem der Projekte für verteiltes Computing mit?
    Gruß Uli
     
  16. enschman

    enschman Megabyte

    FALSCH! In Behörden MUSS auf Datenschutz etc. aufgepasst werden, jede Verbindung mehr ins Internet stellt da ein potentielles Risiko dar (je mehr Programme Verbindung aufnehmen, bei desdo mehr Programmen sind Sicherheitslücken zu vermuten)

    Du wirst es mir nicht Glauben, aber in Behörden wird da WIRKLICH drauf geachtet, wenn jemand über solche Lücken rein kommt wird erst mal richtig über Beamte geschimpft, das Zeug wieder öffentlich verteufelt UND die geklauten Daten werden sicher auch verwendet...

    Dass ein Behörden-Rechner gehackt wird, wäre imho nicht das Schlimme, nur dass man es so interpretieren könnte: DE ist pleite, die Superrechner entsprechen schon Stromspar-Beamten-PCs...

    mfg Tenschman
     
  17. rolok

    rolok ROM

    Ich habe auch an Universitäten gedacht. Dort sind viele Computer laufend in Betrieb. Es kommt dabei sehr darauf an, in welcher Fakultät ein Computer steht. Während im chemischen Institut und im Institut für Klimatologie die Rechnerleistung schon für kleinere Simulationen und Darstellung von Molekülen usw. kaum reicht, laufen die Computer an der juristischen Fakultät quasi auch den ganzen Tag, aber nur um Texte zu schreiben, Emails zu lesen und im Internet zu surfen. Hier müsste man anknüpfen. Die Universitäten mit einem Institut für Informatik haben jede Menge Knowhow um die Computer geschickt zu vernetzen und die Rechnerleistung sinnvoll zu benutzen.
     
Thread Status:
Not open for further replies.

Share This Page