Da soll also der bisherige Standardmasstab des Top500, der Linpack plötzlich nicht mehr richtig sein, weil viel zu einseitig, akademisch und durch einen der sich an 'real-world results' orientiert. Der neue Masstab enthält außer dem Linpack noch den SPEC FP für eine bessere Beurteilung der CPU und den Stream für die I/O Messung.
An und für sich eine gute Idee, währen da nicht zwei Sachen die mich stutzig machen:
A) Es geht beim Top 500 eben nicht darum zu sagen wo die schnellsten Rechner bei irgendwelchen künstlich zusammengesetzten 'real world' Benchmarks sind, sondern ganz einfach um die rohe CPU Leistung (Bzw. CPU/Speicherperformance innerhalb des Hochleistungsteils). In dem Bereich, um den es hier geht setzt niemand irgendeine Aufgabe von der Stange ein, sondern die Algos der Jobs werden spezifisch entwickelt und dabei natürlich an die Gegebenheiten angepasst. Das Einzige was man definitiv nicht über eine Algoanpassung beheben kann ist fehlende CPU Leistung (Und wer mit Excel arbeitet braucht eh keinen Supercomputer sondern ernsthafte psychologische Betreuung).
B) wird der neue Benchmark bei IDC entwickelt, welche nicht dafür bekannt sind solche Sachen für Lau zu machen. Soll hier eine biherige Open Source Sache in die gewinnbringenden Ecke der (Marketing)Studien gezogen werden ?
IDC hat auf jeden Fall ein ernstzunehmendes Interesse daran Geld zu machen. Und die bisher eher schwach aussehenden GPC Hersteller natürlich auch. IBM hat es vorgemacht wie sehr sich ein guter Eintrag in der Top500 auszahlen kann.
Ein sehr ähnlich aufgebauter Artikel bei ZDNet lässt vermuten das beide von einer IDC Pressemitteilung abgeschrieben sind. Also erstmal abwarten, und Tee trinken.
|