Diese Diskussion wurde archiviert.
Es können keine neuen Kommentare abgegeben werden.
|
|
|
|
|
|
|
|
|
Und wär hats ärfunden? :) die schweizer ;)
Naja nicht ganz, aber ageia ist der neue amerikanische Besitzer der kleinen ETH Spin-Off Firma NovodeX geworden. Ageia vertreibt das gleichnamige Physik API seit einiger Zeit unter ihrem Namen, aber einen Teil der Entwicklung fand und findet immernoch hier statt. Spiele wie UT2007, auf das ich schon sehnsüchtig warte, werden dieses API unterstützen.
Der PhysX Chip ist schon zum letzten Weihnachtsgeschäft angekündigt gewesen, hoffen wir mal das es zu diesem Weihnachtsgeschäft auch tatsächlich in unseren Landen zu haben ist.
Wenn UT2007 zu haben ist werd ich mir so eine Karte ganz bestimmt kaufen, nach den 3D Beschleunigern nun Physik beschleunigung. Ich hab gesehen was NovodeX schon mit purere Software machen kann, da freuen wir uns auf die Hardware beschleunigung. 10 bis 100 mal mehr Objekte werden uns versprochen, wir werden sehen wie die Softwarehersteller darauf reagieren. Ich bin sicher das Physikbeschleunigung bald so normal wie 3D beschleunigung ist.
Max OS Aqua 3000 und Windows Wista XP Premium pro 2010 werden sicher auch anwendungen für den Alltag haben, herunterstürtzende Buchstaben in Word, Fenster die verbrennen... und Reibung damit die Fenster nicht aus dem Bildschirm rausfliegen :) die Anwendungen sind zahllos.
Heute lacht ihr noch,in 5 Jahren müsst ihr dann mit der Realität leben :)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Mal sehen, ob sich die Probleme;
- Hardware- (_schneller_ Austausch von _vielen_ Daten und umfangreiche Berechnungen, abwärtskompatibilität),
- Software- (braucht neue Games, wie ist das Game verhalten mit/ohne PPU, SDK's)
- und User-mässig ("brauch ich das, ohnein schon wieder eine neue karte, ich wart lieber...")
lösen lassen.
Die alternativen wie Multi Core CPUs und GPUs sind auf jeden fall schon vorhanden und damit billiger.
Den nutzen für Anwendungen und 2D UI seh ich weniger, deine erwähnten Beispiele beschäftigen nicht mal die CPU sonderlich, und sind eher ein Gag wie Force-Feedback Mäuse (gab ja mal sowas wo die Maus vibriert, wenn man 'n Fenster verlässt oder so).
Ich vermisse aber Technische Dokumentation dazu, die von der Page Whitepapers strotzen nur so von Eigenwerbung.
Anyone?
|
|
|
|
|
|
|
|
|
|
|
|
|
I am sorry ich dachte der letzte Absatz sei eindeutig Sarkasmus pur und war eine Anspielung darauf das die modernen GUIs 3D Beschleuniger vorraussetzen.
1) Hardware: der Austausch der Daten ist nicht das Problem, es geht hier um relatiav wenig Daten, die Berechnung ist einfach aufwändig (Differentialgleichungen (bzw deren numerische Lösung mit Quadraturverfahren, und test ob zwei Objekte überhaupt interagieren) übermittelt werden ja nur die Positionsdaten, grösse, reibung von Objekten, du siehst auch die Karte benutzt nur eine PCI Schnittstelle, Grund es braucht wirklich nicht mehr)
2) Genau wie mit verschiedenen Grafikkarten wirst du die Physikeinstellunegn zwischen Low / Normal / High einstellen können. Als ob es das Problem nicht überall schon immer gab
3.) Multi Core: wie gesagt, es geht hier um mindestens einen Faktor 10, die PhysX CPU ist für ihr Gebiet optimiert, Matrixoperationen, Quadratur verfahren und ist kein General Purpose Prozessor. Umd die gleiche Leistung mit einem Generalpurpose Prozessor zu machen müsste man wohl einen 8 Core oder gar einen 16 Core CPU haben.
Oder warum haben wir 3D beschleuniger wenn doch alles multicore CPU's lösen können? Weil spezialisierte Chips bei gleicher Technik einfach VIEL schneller sind. Siehe dazu zum Beispiel die neuen Versuche Raytracing in Hardware zu realisieren.
Wenn du technische Details willst lade dir die API herunter, ich nehme an da hat es auch Dokumentation dazu. Für private Projekte ist die Lizenz kostenlos.
Hier gibts das PhysX 2.4 SDK
http://ageia.com/developers/downloads.html
|
|
|
|
|
|
|
|
|
|
|
|
|
Hm, mein Sarkasmusfilter hat wohl wegen dem "die Anwendungen sind zahllos." nicht ganz angeschlagen, dachte du wärst da überexcited :)
zu 1):
Gut, ich bin in diesem Bereich ein noob.
Aber die PPU ist ja genau dafür da, mit mehr und _sehr_ vielen Objekten und Partikel umzugehen. Demgemäss steigt automatisch auch die nötige Bandbreite (im vergleich zu jetzt). Ausserdem sind die Objekte nicht statisch, sondern bewegen sich ja ständig. Aber scheinbar reicht die Bandbreite und Latenz des PCI Bus dazu :)
2) Physik != Grafik
Da liegt imho das Problem, dass man diese PPU nur für "optionale" Komponenten brauchen kann (realistischer Staub und so 'n Zeug).
Toll wären z.B. realistisch einstürzende Wände, oder auch wenn man Einschusslöcher (Grosskalibrige Munition gegen dünne/schwache Materialien) als "Schiessscharten" nutzen könnte (bei UT2007 vielleicht weniger, aber sagen wir mal Battlefield 3...).
Man kann also die Physik nicht für relevante Sachen nutzen, in Multiplayer spielen ist der Einsatz noch mehr eingeschränkt, damit es fair bleibt. Schade :(
Die Beispielsanwendungen auf der Agaia Page sind nice to have, mehr aber nicht. und drum komm ich zu Punkt
3) Natürlich ist spezialisierte Hardware schneller, steht ja nicht zur Debatte. Was ich sagen wollte ist, dass jetzt (genau jetzt) bei allen Dualcore CPU's eine CPU brachliegt. Das währen dann so 2-3GHZ brachiale Rechenleistung, und es stellt sich nicht so das Problem mit dem Datenaustausch/Synchronisation. Auch die Grafikkarten entwickeln sich weiter, mit DirectX 10 wird wohl abschied von den fest aufgeteilten Vertex/Pixelshadern genommen (wie schon bei der Geforce 7900 zu sehen). Evntl wärs gar nicht so ne Sache, um die GPU mehr "Physik Kompatibel" zu machen.
So eine PPU wäre evntl auf einer Grafikkarte sogar besser aufgehoben, da sowieso schon die nötigen Daten dort sind, reichlich (mehr oder weniger) schneller Speicher zur verfügung steht und man sowieso jedes Quartal ne neue GraKa braucht :)
Ein wenig realistischeres flattern von Kleidern wird niemand dazu veranlassen, so ne PPU zu kaufen, wenn man den fast gleichen Effekt gratis mit schon vorhandener Hardware machen kann.
Nicht dass du mich falsch verstehst, bei mir ist schon ein PCI Slot für so ein Ding reserviert :)
Aber ich sehe das ganze ein wenig nüchterner, es riecht nach Hype...
mal sehen wie's kommt
|
|
|
|
|
|
|
|
|
|
|
|
|
Natürlich muss es erst mal einschlagen, damit es irgendwann alle haben und dann kann man es auch als gegeben voraussetzen. Ein Grund mehr Geld früh zu investieren, sonst stirbt es bestimmt wie andere Technologien auch.
Und ja natürlich wäre es in ferner zukunft sicher schön die PPU direcht neben der GPU zu liegen zu haben. Aber die guten Grafikkarten sind heute schon recht teuer, da noch einen jetzt noch teuren zusätzlichen Chip drauf zu löten ist vielleicht nicht so toll.
Warum kauf ich mir eine Radeon X1800 und keine X1600? der Unterschied ist kaum zu sehen, höchstens im Portemonnaie. Und genau die gleiche Gruppe muss auf dir die PPU angesprochen werden, die Leute die das letzte bisschen ausreitzen wollen.
Wenn das nicht klappt werden wir wohl ohne PPU leben müssen. Aber da es bald schon einige dutzend Spiele geben wird darunter einige recht bekannte, stehen die Chancen nicht schlecht das eine genug grosse Gruppe Technophile angezogen werden :)
Für Wordbenutzer ist es sicherlich wenig Sinnvoll, aber die brauchen auch keinen 3GHz Dualcore und ne Highend Graphik karte. Der Preis wird das schon regeln. 400 Franken sind sicherlich kein Pappenstil neben 600 Franken für die Grafikkarte, geht das Spielen ganz schön ins Geld.
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Thursday 23. March 2006, 18:34 MEW (#9)
|
|
|
|
|
Fuer Vista brauchst du das sehr wohl und da quasi jeder Heim-PC auch fuers Daddeln genutzt wird, ist die Frage, ob man dies oder das fuer Word braucht muessig. Uebrigens sagte man frueher Textverarbeitung, deshalb erwaehne ich hier einfach mal OpenOffice.
|
|
|
|
|
|
|
|
|
|
|
|
|
> So eine PPU wäre evntl auf einer Grafikkarte sogar besser aufgehoben, da sowieso schon die nötigen Daten dort sind [..]
Ist IMHO falsch. Zur Berechnung von Physik nützen dir allein die Vertices des Objekts nicht viel. Da werden noch ganz andere Dinge herangezogen die normalerweise auf der Grafikkarte nichts zu suchen haben.
|
|
|
|
|
|
|
|
|
|
|
|
|
Du hast recht.
Hätte schreiben [ws]ollen "da sowieso schon nötige Daten dort sind".
Man hat immerhin schon ein Teil der Daten dort, und bei einem x8/x16 PCIE Slot hats noch genug Platz für andere Daten. Ob sie dort hin gehöhren, ist eine andere Frage ...
... appropos hingehöhren, da fällt mir grad ein, warscheinlich ist das ganze PPU Zeugs eh überflüssig, wenn es erst mal den Cell Prozessor für PCIE zum einstecken gibt.
Gegen die 9 Vektorprozessoren wird die PPU warscheinlich alt aussehen...
Prozessoren und Games dafür wird dann durch die PS3 ja reichlich geben.
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Friday 24. March 2006, 15:16 MEW (#11)
|
|
|
|
|
Ich weiss nicht wirklich, was fuer Berechnungen eine PPU durchfuehrt und wie stark diese Parallelisierbar sind. Aber die PS3 hat ja trotzdem eine GPU, die mit 1.8 TFLOPS wohl durchaus dem 3.2 GHz Cell mit 8 Einheiten noch davonrennt. Waere Cell so universal und toll, haette man doch auf die GPU verzichten koennen und stattdessen einfach noch ein paar mehr Cells hineingesteckt, oder nicht?
Heutige Software (d.h. Spiele) sind bei physikalischen Berechnungen sicherlich noch zurueckhaltend, so wie die ersten Spiele auch nur Gouraud-Shading oder gar einfache Polygone fuer 3D genutzt haben. Sobald es Hardwarebeschleunigung und eine Standard-API gibt, werden die Ansprueche da sicher sehr schnell steigen, zumindest wenn es sich als sinnvoll erweist. VR-Brillen und Force-Feedback beispielsweise haben sich ja nur sehr begrenzt durchgesetzt, was aber vor allem auch eine Kostenfrage ist.
|
|
|
|
|
|
|
|
|
|
|
|
|
*g*
Wie soll ich das Kommentar nur bewerten?
Erster Teil: Informativ
Zweiter Teil: Interessant
Dritter Teil: Lustig
Wha, toll :) --
Some people drink from the fountain of knowledge, others just gurgle.
|
|
|
|
|
|
|
|
|
Von Anonymer Feigling am Thursday 23. March 2006, 17:08 MEW (#5)
|
|
|
|
|
|
|
|
|
|