| |
|
Mutierende Scheduler für Linux 2.6 |
|
|
Veröffentlicht durch XTaran am Samstag 08. Januar 2005, 20:13
Aus der Gen-Manipulation Abteilung
|
|
|
|
|
florolf schreibt: "Wie Kerneltrap.org berichtet, hat Jake Moilanen einen Patch für den 2.6.9er Kernel veröffentlicht, welcher Funktionen für genetische Algorithmen zum Kernel hinzufügt.
Diese werden im Prozess und IO Scheduler verwendet, so kann sich das System immer wieder neu an die aktuelle Lage anpassen.
Bleibt nur zu hoffen, dass sich der Code nicht verselbstständigt ;)"
|
|
|
|
< Sober.I fertig? | Druckausgabe | Open Source Forschung > | |
|
Diese Diskussion wurde archiviert.
Es können keine neuen Kommentare abgegeben werden.
|
|
|
|
|
|
|
|
|
soll ja sowiso was bringen. z.B. auf deadline wenn man einen desktop pc hat.
Hab als ichs probiert hab keine Änderung bemerkt.
Allo
|
|
|
|
|
|
|
|
|
|
|
|
|
Hi,
in einer Vorlesung über neuronale Netze wurde mir 'beigebracht', dass Genetische Algorithmen eigentlich nur ein besseres Ratespiel sind. Es ist mathematisch nicht beweisbar, das in endlicher Zeit irgendein ein Optimum gefunden wird.
Jake Moilanen sagt in seinem Artikel: (Man beachte die zwei should ;) ).
"over time the tunables should converge toward the optimal settings for that workload. If the workload changes, the tunables should converge to the new optimal settings[...]"
Das Problem bei (ich glaube sogar allen) selbstlernenden Algorithmen ist, das wenn ein Optimum gefunden wird, es sich um ein sog. lokales Optimum handeln kann. Man stelle sich dazu ein Gebirge vor. Auf der Suche nach dem tiefsten Tal (globales Optimum), kann es passieren, dass man sich in einem anderen Tal umschaut und denkt: Mei, is des ein schönes Tal. Hier fühle ich mich wohl. Ich glaube das ist das Optimum. Je nachdem wie die Firnessfunktion implementiert ist, kann es passieren, dass man sich nicht mehr aus dem lokalen Optimum lösen kann.
Aber interessant ist der Ansatz allemal und wenns nicht schadet kann man es ja mal versuchen.
Viel Spass beim Evolutionieren, oder so. Case
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Evolution ist nach Darwin ein Ratespiel, ja :)
Um gegen lokale Minima (so heißt das jedenfalls bei Neuronalen Netzen) vorzugehen gibt es eben den zuffals (oder bei GAs "Mutations"-)Faktor, also es kippen ab und zu bits (je nach den wie man es darstellt) um, um vielleicht aus so etwas rauszulaufen.
Kann funktionieren, muss aber nicht, Zufall halt.
mfg,
florolf
|
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Sunday 09. January 2005, 11:05 MEW (#5)
|
|
|
|
|
Ich kennen keinen Suchalgorithmus, der das Optimum zu 100% findet.. aber Genetische Algorithmen gehören zum Suchen von globalen Optima von nicht näher bekannten Modellen wohl zu den besten. Die Mutation ist ja dabei im wahrsten Sinne des Wortes der springende Punkt!
|
|
|
|
|
|