Diese Diskussion wurde archiviert.
Es können keine neuen Kommentare abgegeben werden.
|
|
|
|
|
|
|
|
|
Spontan fallen mir dier diverse "Download Manager" ein, welche "bis zu 200% mehr aus ihrer Internetverbindung" machen.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Etwa aus der gleichen Ecke lzip.
|
|
|
|
|
|
|
|
|
|
|
|
|
also, lzip -0 /boot/vmlinuz und sich freuen dass jetzt jeder WOLK auf eine diskette passt :)
|
|
|
|
|
|
|
|
|
|
|
|
|
Fuer win9x gibt es noch Programme welche das machen, was ein OS eigentlich von sich aus tun sollte, nämlich Idle-Tasks wenn die CPU nichts zu tun hat. Die nennen sich so weit ich noch weiss Waterfall und CPU-Idle. Aber es gibt auch sinnvolles. Wie z.b. Downloadmanager die von sich aus erkennen wenn es eine Datei auf mehreren Quellen gibt, und sich dieser auch bedienen, wenn es eine allein nicht schafft die Leitung auszulasten.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Öffnen nicht viele «böse» Downloadmanager mehrere Slots um bei ausgelasteten Servern schneller an die Daten zu kommen?
|
|
|
|
|
|
|
|
|
|
|
|
|
Doch, grundsätzlich schon. Aber das Feature 'von mehreren Servern ziehen' find ich nicht schlecht, aber für Linux kenn ich nur 'prozilla' der das kann...
|
|
|
|
|
|
|
|
|
|
|
|
|
hauptsaechlich kenn ich das feature von BitTorrent und Fedora :)
|
|
|
|
|
|
|
|
|
|
|
|
|
Der beste Weg, einem User vorzugaukeln, etwas sei schnell (bzw. schneller als vorher) ist, ihn während er wartet mit netten Statistiken und Animationen zu versorgen. Er sieht dann, daß etwas passiert. Und natürlich hat er vorher nie die Zeit gemissen.
Das klappt aber nicht nur unter Windows gut. Weshalb animieren Browser ihr Logo? Warum erscheint bei manchen Web-Seiten erstmal nur ein Teil und dann nach Ewigkeiten der Rest? Warum machen KDE und Gnome so tolle Effekte beim Starten? Warum zeigt Win XP so früh den Desktop, obwohl da noch nicht viel geht, weil noch nicht viel läuft?
Ich mach es doch nicht besser, bei eigenen Programmen wird jetzt sofort was gezeigt statt erst alles rein zu laden. Allerdings dauert das laden jetzt sogar länger, weil eben ständig was gezeigt wird - aber es wirkt schneller. Ist doch toll.
--
ok> boot net - install
|
|
|
|
|
|
|
|
|
|
|
|
|
|
so richtig aufgefallen sind mir diese animationen erstmals bei einem AOL Browser:
Seite wird geladen: 10%...20%...30%...40%...50%
bis 50% gings bei einem hoffnungslos ueberlasteten Server in Rekordzeit (5 Sekunden etwa) dann bliebs ewig stehen.
|
|
|
|
|
|
|
|
|
|
|
|
|
z.b http://marc.theaimsgroup.com/?l=linux-kernel&m=107578395903735&w=2
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Interessant. Die haben wenigstens einen soliden technische Ansatz, soweit ich das verstehe.
Dieser RAM Defragger macht ja seinen Job scheinbar indem er Windows alles in den Swap-Sepicher schreiben laesst. Dann soll Windows einfach das benoetigte wieder zurueckpagen, ist ja _sehr_ auf Geschwindigkeit optimiert, gerade bei Multitasking ;)
|
|
|
|
|
|
|
|
|
|
|
|
|
Da beschaeftige ich mich schon dauernd mit alten Rechnern, ab komme nicht auf so eine geniale Idee.
Speicherdefagmentierer ... Wahhhhhhhh-haha ... ist das cool.
Nee, im ernst, das ist die Loesung zu einem Problem von vor 25 Jahren. Genaugenommen ist die Loesung genauso alt, aber das Problem gibt es nicht mehr.
Speicherfragementierung spielte bei geswapten systemen eine Rolle. Als Unix noch jung war, war wurde die virtuelle Speicherverwaltung per Segment gemacht, d.h. ein Prozess bekahm n Bytes RAM ab einer Basisadresse, welche in einem entsprechenden Basisadressregister gehalten wurde (*1). Wenn da oft genug Prozesse mit unterschiedlich grossem Speicherbedaft gestartet und beendet wurden, ergab sich eine Speicherzerstueckelung, die dazu fuehrte das nicht der ganze Speicher genutzt werden konnte und viel zu oft geswapt (*2) wurde. Und gerade die unixeigene Filosofie des fork() wo iemmr es geht, ist dazu gemacht solche Szenarien zu schaffen.
Bei stark (ungleich) belasteten Systemen ist man damals von 25-30% _nicht_nutzbaren_ Speicher ausgegangen, und Speicheroptimierer waren ein wichtiges Thema ... Der Nachteil war nur das eine Speicheroptimierung immer sehr Zeitaufwaendig war, da die Bereiche ja echt verschoben wurden im Hauptspeicher, was jede Menge CPU-Zeit kostete.
Die meist angewante Variante war, Prozesse die Speicher blokierten (weil davor und dahinter unbelegter Speicher war), vorzeitig rauszuswapen, und darauf zu vertrauen, dass sie, wenn sie dann gleich wieder in den Speicher geladen wurden, eben optimaler liegen (so nicht zwischenzeitlich wieder ein anderer die Speichermap zur Sau gemacht hat). Das Vorgehen hatte 3 grosse Vorteile: Zum einem musste man keinerlei neue Funktionen schreiben, ein kleiner Daemon der die Prozesse zum rausswappen markierte reichte, zum anderen war der Swapdaemon selbst erwiesenermassen Funkionsfaehig, man holte sich damit also keine neuen Instabilitaeten ins System. Und zu guter letzt gab es keinen allgemeinen Sytemstillstand, sondern nur ein individuelles 'ruckeln' fuer die einzelnen Anwender.
Auf Grossrechnern (aka /370) war das nie ein Thema, da dort von anfang an mit seitenorientiertem Speicher gearbeitet wurde, also pageing betrieben. Pageing hat zwar den Nachteil das man bis zu Seitengroesse-1 Bytes je zugewiesenem Adressbereich verschenkt (was bei den Winzigen Unixkisten der Anfangszeit ein echtes Manko war), dafuer ist es aber voellig egal in welcher Reihenfolge (und ob zusammenhaengend oder nicht) die Seien den Prozessen zugeordnet sind. Die Umsetzung der logischen Adressen in Physikalische ist dabei immer gleich schnell, egal ob die Seiten im Hauptspeicher hintereinander stehen oder nicht.
Tscha, bei modernen Betriebssystemen ist es witzlos, aber da jeder schonmal von Plattendefragmentierung gehoert hat klingt es einfach gut. Der erste Teil der Erklaerung (mmit Prozess und zerstueckelung in Pages) klingt einfach zu aehnlich.
Und, hier sollten wir fairniss walten lassen, Win 9x (und 3.1 sowiso) haben den Speicher segmentiert verwaltet. Nur war, auf einem Einzelplatzsystem (fuer mich), die Behinderung duch einen Defragmentierer groesser als der nachteil das der Speicher vieleicht nicht optimal genuetzt war, weil schon damals galt:
Speicher kann man nur durch mehr Speicher ersetzen.
Gruss
H.
---
*1 - wem das jetzt von der ach so heiss geliebten 8086 her bekannt vorkommt: Ja, genau das die haben mit ihrer Segmentierung nicht nur die Adressraumerweiterung im Hinterkopf gehabt, sondern auch Unix. Genau so wie es DEC vorgemacht hat. Und es gab auch passende Implementierungen. Die 286 hat das ganze dann mit Speicherschutz perfektioniert.
*2 - Swapping schreibt ein ganzes Speichersegment auf die Platte im Gegensatz zu Pageing, das feiner aufgeloest auf Seitenebene, ohne Ansicht des Prozesses arbeitet. Der Name Swap fuer die Pageingarea auf der Platte ist auch noch so ein Relikt.
|
|
|
|
|
|