| |
|
Veröffentlicht durch maradong am Montag 21. Juni 2004, 17:04
Aus der megalomanie Abteilung
|
|
|
|
|
Die Top500 Liste wurde vor kurzem upgedated und, oh Wunder, der Virginia Tech Cluster (Symlink-Bericht) ist nicht mehr zu finden, da die Desktop G5s gegen 'XServe's ausgetauscht werden. Dafür haben 2 neue Cluster den Weg in die Top 5 gefunden.
|
|
|
|
|
|
Neuer zweiter ist ein auf 4096 Itanium 2 Prozessoren basierendes Cluster der 19,94 TFlops, und neuer vierter ist ein Prototyp des Bluegene/L das es auf circa 11,68 TFlops bringt. Das Bluegene/L Cluster ist zwar im Moment noch Phantasie, doch soll er in der nahen Zukunft, mit mehr als 65'000 Prozessoren, mehr als hundert TFlop leisten können, in einem Datenblatt (PDF) wird sogar von unvorstellbaren 367 TFlop geredet.
Slashdot berichtet auch in einem Artikel von der ganzen Sache.
|
|
|
|
< Sicherheitslücken in div. Linuxtreibern | Druckausgabe | Skype für GNU/Linux > | |
|
Diese Diskussion wurde archiviert.
Es können keine neuen Kommentare abgegeben werden.
|
|
|
|
|
|
|
|
|
Der Datenblattlink ist defekt...
|
|
|
|
|
|
|
|
|
|
|
|
|
|
danke, fixed --
Some people drink from the fountain of knowledge, others just gurgle.
|
|
|
|
|
|
Linux (Score:1, Informativ)
|
|
|
|
Von Anonymer Feigling am Monday 21. June 2004, 17:32 MEW (#2)
|
|
|
|
|
Nummer 2, 4 und 5 laufen auf Linux; Nummer 3 vermutlich auf OSF 1 (könnte aber auch auf Linux laufen); da hab ich keine Informationen gefunden.
Die Schweizer Cluster liegen abgeschlagen auf 210 und 385.
|
|
|
|
|
|
|
|
|
|
|
|
|
Die 367 TFlops des Bluegene/L sind nur ein theoretischer Maximalwert. Er entsteht, indem man schlicht die theoretische Maximalleistung der einzelnen Prozessoren zusammenzählt. In der Praxis wird dieser Wert mit realen Applikationen nicht erreicht, weil man noch mit der Kommunikation und der Parallelisierbarkeit der Algorithmen kämpfen muss.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Also ist eben doch 100 TFlops etwa real, wies im Artikel ja steht.
|
|
|
|
|
|
|
|
|
|
|
|
|
Ich frage mich bei dieser Liste immer, was diese Firmen/Institute mit diesen Riesenrechnern anstellen? Was läuft für Software drauf, programmieren die alles eigene Applikationen? Ist es nicht einfach nur ein Wetrennen um zu zeigen wer schneller ist, so zwischen X86 und PowerPC, zwischen Japan und den USA? /* Nur wer schneller ist als der Strom hat die Kontrolle! */
|
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Friday 25. June 2004, 14:00 MEW (#7)
|
|
|
|
|
atombombensimulationen? crash simulationen? statistiken? wettervorhersagen? riesige datenmengen speichern und verarbeiten (so vom teilchenbeschleuniger oder so)?
nein, word werden sie wohl knapp nicht drauf laufen lassen. aber wer sich einen supercomputer für millions of $$ leisten kann, wird sicher noch 'n armen alten programmierer anstellen können, um hocheffiziente, hochoptimierte, parrallelle, korrekt laufende und möglichst bug freie software für diese teils codet. vielleicht sogar mehr als einer.
"hey, shit, usa hat einen neuen supercomputer, kaufen wir auch einen, wir brauchen ihn zwar nicht, aber es sieht in der top500 statistik besser aus"
"oki, hier sind 10Mille..."
check mal da reality...
|
|
|
|
|
|