Diese Diskussion wurde archiviert.
Es können keine neuen Kommentare abgegeben werden.
|
|
|
|
|
Von Anonymer Feigling am Thursday 30. December 2004, 12:04 MEW (#1)
|
|
|
|
|
mir fällt auf, dass Wikipedia Begriffe immer besser auf dem englischen Google indiziert werden (obwohls ziemlich lange gedauert hat). Das freut mich sehr, denn Wikipedia ist eine sehr gute Infoquelle.
ich sehe eine Medienrevolution kommen! Freie Inhalte (creative commons, GNU Document License, ...) werden dominieren.
|
|
|
|
|
| |
|
|
|
|
Von Anonymer Feigling am Thursday 30. December 2004, 18:47 MEW (#3)
|
|
|
|
|
Ich frage mich, ob die dort wirklich wissen, was die tun. Als ich letztens Mediawiki in der Hand hatte, habe ich eklatante Programmierfehler gefunden, welche die Performance der Software so richtig in den Keller drückten. Zum Beispiel ist mir nicht verständlich, wie man bei jedem Aufruf den Wikitext neu übersetzen kann. Da wäre es sinnvoller gewesen, einmal die Wikitext- und einmal die HTML-Version in der Datenbank zu speichern. Dann müsste man nur einmal und nicht bei jedem Aufruf den Wikitext konvertieren. Auch wäre es sinnvoller, das Caching direkt auf Applikations- oder maximal Webserver-Ebene zu applizieren. Das lässt sich viel besser als mit Squid steuern. Für lighttpd gibt es sogar ein spezielles Caching-Modul, das dank Benutzung von HTTP-Features sogar richtig Traffic spart. Wenn ich dann noch im Heise-Artikel lesen muss, dass 83 Prozent der CPU-Zeit für das Erzeugen von Bytecode verwendet wird, greife ich mir endgültig an den Kopf. Es gibt seit Jahren Bytecode-Caches für PHP, sogar freie. TurckMMCache, der jetzt eAccelerator heisst, ist GPL und sogar schneller als die Zend-Software. Performance-Gewinne um 400 bis 500 Prozent, ohne sich gross anstrengen zu müssen. Die sollten das Geld lieber in gute Programmierer und Admins anstatt in Server pumpen.
|
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Thursday 30. December 2004, 22:51 MEW (#4)
|
|
|
|
|
Wikipedia verwendet TurckMMCache.
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Thursday 30. December 2004, 23:07 MEW (#5)
|
|
|
|
|
Wie können dann 83 Prozent der CPU-Zeit für Bytecode-Erzeugung verwendet werden? Die werden doch nicht wie die Irren ihre Scripte verändern?
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Friday 31. December 2004, 05:51 MEW (#6)
|
|
|
|
|
Technische Veränderungen, pah! Die sollten erst
mal lizenztechnische Änderungen einbauen und die
GNU "Free" Documentation License durch eine freie
Lizenz ersetzen, sodaß jeder die Inhalte nutzen
kann, auch die, deren Browser temporäre Kopiën
der Inhalte mit chmod 0600 auf einer Multiuser-
Maschine erstellen.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Das wird ungefähr so einfach, wie den Linux-Kernel unter eine BSD-Lizenz zu bringen. Was viel eher passieren wird, ist, daß die nächste Generation der GNU FDL dieses Problem nicht mehr haben wird.
Denn an dieser Stelle hat Wikipedia angeblich mehr Macht gegenüber GNU als z.B. Debian. Denn Wikipedia ist das "Vorzeige-Projekt" der FDL, während die Meinung des Debian-Projektes den GNU-Leuten recht schnuppe scheint. Die haben nämlich auch das GNU-FDL-Problem und die GNU-Leuten meinten nur "Was geht uns das an?".
--
There is no place like $HOME
|
|
|
|
|
|
|
|
|
|
|
|
|
Also der Squid-Cache ist doch nix neues! Den gibt's doch schon seit mind. 'nem halben Jahr, eher länger. Jedenfalls war der in der Server-Dokumentation von Wikipedia schon dokumentiert als ich das letzte Mal reingesehen habe. Und das ist eine ganze Weile her.
--
There is no place like $HOME
|
|
|
|
|
|