Ageia PhysX Physikbeschleuniger (Hard- und Software)

Ageia PhysX Physikbeschleuniger (Hard- und Software)

Guten Abend,

Wollt mal fragen wieviel der Physikbeschleuniger von Ageia Performance bringt. Ich mein kostet ja nicht wenig Geld.
Der bringt nix! Lass die Finger von der shice, Multimedia, steck dein Geld lieber in ne X1900 von ATI oder halt inne Nvidia, aber glaub mir, es unterstützen nur sehr wenige Spiele den Pysik-Beschleuniger... das bringt echt nur ein Paar zusätzliche Effekte ....ne Superflotte Graka + Conroe bringen wesentlich mehr!


Außerdem kostet n`Physikbeschleuniger sehr viel Strom!
Jop dann kannste zwar sachen wie CellFactor astrein zocken, aber mit normalen spielen wie Fear, Oblivion, oder das kommende Gothic 3 (Crysis hab ich jetzt bewusst weggelassen) kannste dann vergessen..

Also wie SmartWoRkZ schon gesagt hat: Las die Finger davon
Wie war das? Echtzeit Blob-Meshing? Weiß nicht mehr so genau, aufjedenfall eine wahre Bereicherung. Muss sich nur erstmal richtig durchsetzten, allein schon die Möglichkeit Flüssigkeiten in Echtzeit berechnen zu können ist genial! Keine Fake Sprite Texturen mehr sondern echte Polygonen-Flüssigkeiten. Ihr wisst schon was ich meine :)

Halte für so ein Teil schon einen 2ten PCIe 16x Steckplatz frei.
Erstmal abwarten wie sich das allerdings entwickelt, Aegia Karten laufen auch nur mit der Aegia Physikengine. Die Jungs von der Havokengine wollen ja ihre Berechnungen auf die 2te Graka in einem Nvidia SLI System legen. Ich hoffe die einigen sich mal. Wobei ich die Aegia Methode bevorzuge ansonsten wäre ich mit meinem Crossfire Board wohl ziemlich über dran.
hmm weiß nicht, aber wenn er sich jetzt eine neue Graka holt, dann auf keinen fall nen physikbeschleuniger..
SmartWoRkZ hat echt nur eines im Kopf: Strom
@pie; wo soll das noch enden? Erst Grafikbeschleuniger, jetzt Physikbeschleuniger, was kommt dann wohl morgen? Festplattenbeschleuniger? :P

Außerdem ist man mit ner guten Graka viel besser bedient und meine Meinung ist folgende:

Der core 2 Quadro ist ja nicht zum Spaß da, irgendwann werden solche zusätzlichen Cores dann halt die Physik berechnen, aber doch nicht Karten die man zusätzlich kaufen muss. Und ja: Es ist nun man die Welt @ pie, Eine Ageia Karte kostet ca. 30-40 Watt mehr im System. Nutzen? Beinahe Null (noch)... Letztlich muss der User selbst wissen, was er kauft. Ich verzichte auf PPU-Beschleuniger (Physik-Prozessor-Unit) :P...

Noch was: Wenn diese Karten sich wirklich etablieren sollten, stehen wir morgen schon im Kampf mit 3D-Karten (die ja viel wichtiger sind) und es gibt einen Performancestreit wegen PPU-Karten *Ohgott* <<< sich das mal vorstellt
Prozessoren sind wegen dem Flaschenhals zum RAM weniger dazu geiegnet. Grafikkarten haben, ob mans glaubt oder nicht, die bessere Architektur Physikalberechnungen vor zu nehmen. Desshalb auch die andere SLI Methode, eine Grafikkarte macht die Grafik die andere die Physik. Außerdem kann amn dann auch mal Physikalberechnungen gescheit im Netzwerk ausführen, jeder der Garry's Mod mal Online gespielt hat weiß was ich meine.
das ist schon klar, @ Hawk001, aber wer kauft sich schon ne Grafikkarte für sagen wir mal akzeptable 300 €, dann noch n´Physikbeschleuniger für "günstige" 250 € und dann noch ne CPU für 300 € wenn die Grafik nicht viel besser ist? :P
Ich würde mir auch keine "Physikbeschleuniger-Karte" kaufen, was ich auch übrigens nirgends gesagt habe. Frage mich nur, warum bei dir immer nur der Verbrauch ausschlaggebend ist...
gut so, Pie...naja Strom ist halt die halbe Miete, gerade wenn ich den selbst bezahlen muss @ pie...und der wird immer teurer!

Naja, Tatsache ist, meine Nächste Grafikkarte sollte passiv gekühlt sein (weniger Stromverbrauch durch Lüfter...etc) und nicht so teuer (max. 250)...mal gucken was es da gibt in 2-3 Monaten @ pie!
@SmartWoRkZ:

Komisch, bei uns wird Strom nicht teurer...

Eine CPU und andere Hardware verbrauchen nunmal Strom! Die eine etwas mehr, die andere etwas weniger! Das sollte aber nicht ausschlaggebend zum Kauf sein! Das ich jetzt nicht vom D 805 spreche sollte klar sein. Und mit einer Passivgekühlten Graka sparst du eh am falschen Ende! Und eine Grafikkarte über 250€ würde ich mir eh nie kaufen, da der Werteverlust zu groß ist.

"(weniger Stromverbrauch durch Lüfter...etc)"

Nun übertreib aber mal nicht! Am besten du klemmst die LED am Gehaüse auch noch ab, die verbraucht nämlich auch! Wenn du allgemein Strom sparen willst, dann solltest du mal bei anderen Geräten anfangen!
@Pie:
Naja. Der Strom ist bei uns in den letzten Jahren sehr wohl teurer geworden. Und das nicht zu knapp.

Allerdings verbraucht eine passiv gekühlte Grafikkarte auch nicht weniger Energie als eine aktiv gekühlte des gleichen Chipsatzes (mal das halbe Watt für den Kühler aussen vorgelassen), nur dass Sie diese verbratene Energie (und es gibt nun mal kaum was Ineffizienteres als einen Prozessor) eben auf eine andere Weise als Wärme wieder an die Umwelt abgibt. Der Lüfter beschleunigt doch im Endeffekt nur den Wärmeaustausch, mehr nicht.

Im High-End Bereich wird man wohl auch in nächster Zukunft keine 'passiv' gekühlten Karten bekommen. Wichtig ist, wieviel die Karte an Leistung aufnimmt (und damit in Wärme umwandelt) und nicht, wie sie diese Leistung wieder abgibt. Denn abgeben muss sie sie ja irgendwie. Deshalb sollte man natürlich auch mal ein wenig auf die Effizienz und nicht nur auf die Frameraten schauen.
So ich hab mal ein wenig in Google geschnüffelt. Diese ganze Physik Zeug geht recht lautlos von statten. ATI hat angekündigt das auch ein Crossfire Syystem eine Karte zum Physikberechnen abstellen kann. Also stehts wohl derzeit Aegia vs. Nvidia vs. ATI
Da tut es gut zu sehen das MS schon seit geraumer Zeit eine Physik API entwickelt http://www.golem.de/0606/46030.html

Ich sehe es schon kommen Vista, Direct3D10 und Direct Physics. Ich hab das Gefühl das die aktuelle Next-Gen Konsolen Generation brutal schnell vom PC überholt sein wird...

Ach und als nächstes stehen wohl die "KI Beschleuniger" vor der Tür. http://www.golem.de/0609/47696.html
Spezialprozessor für künstliche Intelligenz in Spielen (Upd)

Nicht, solange z.B. EA Games 'Need for Speed ' produziert. Denen reicht die Gummiband-KI völlig aus. Um diesen Trivialeffekt zu beschleunigen reicht auch ein auf die CPU zusätzlich aufgequetsches Fliegenhirn.
Genau das meinte ich ja mit meinem vorherigen Thread. Argh.... Künstliche IntelligenZ? Wie weit soll die noch ansteigen? Ich mein die ist ja schon teilweise sehr gut, aber stellt euch mal vor in 3 Jahren oder so, werden wir da am PC sitzen mit 20 Ghz (im Vergleich dazu: EIn COre 2 Duo E 6600 hat ca. 10 Ghz Leistung!) und werden wir da gegen menschliche Gegner kämpfen? Also müssen wir da schlauer sein als der virtuelle Mensch? Das ist doch bescheuert. Wenn das so ist, dann stimmt es wirklich was ich mal in einem Referat bringen musste. Es stand in P.M. Dort stand: Eines Tages wird der PC so schnell wie unser Gehirn (und noch viel schneller sein) und er könnte uns gefährlich werden <<<

Und apropos künstliche Intelligenz: Lest mal den Satz hier, davon wird mir jetzt schon übel (!)

512 agents can be checked against 512 agents in 0.02s

^^ Dies ist ein Originalzitat der Homepage vom Spezialprozessor für A.I. in Spielen!

Was die CPU dann noch nützt, wenn sie nur warten muss:

na den Energie-Erzeuger das Geld in die Tasche bringen... die unnötigen 60-120 Watt extra, selbst bei Office-Arbeiten macht sich übers Jahr durch x100000e PCs in diesem Land bemerkbar
Über diesen Unfug mit der KI mache ich mir eigentlich weniger Gedanken. Manche Dinge sind nämlich mit purer Logik einfach nicht nicht lösbar.

Mal ein Beispiel:
Wie entwickeln eine Menge Software. Darunter auch (als Nebenprodukt) ein Programm für die Pflasterverlegung auf z.B. Wegen und Strassen. Dabei handelt es sich um Natursteine in verschiedenen Grössen und Farben. Jetzt stehen Mathematiker und Programmierer vor folgendem Problem:

Verlegebedingungen
- Es muss zufällig aussehen, also keine Symetrieen, Muster. Wiederholungen usw. ('Wilder Verband')!
- Es dürfen bestimmte Fugenlängen nicht überschritten werden (anschliessende Längskanten)
- Es können Öffnungen auftreten (Kanaldeckel)
- Der Verlauf des Weges kann unregelmässig sein (Umriss)

Das Material
- Es existieren insgesamt 24 mögliche Steingrössen (2 Plattenformen, getrennt in Klein- und Grossteine)
- Die grösseren und kleineren werden mit fester Stückzahl palettenweise ausgeliefert (Sortiment)
- Es wird farbrein geliefert (alle Steine einer Palette sind gleichfarbig)
- Das angestrebte Flächen-Verhältnis von groß zu klein ist ca. 70% / 30%
- Steine dürfen gedreht werden (sie sind ja nicht alle quadratisch)
- Es soll z.B. 3-farbig verlegt werden (33% / 33% / 34%)
- Es sollen möglichst nicht mehr Paletten geliefert werden, als qm-mäßig benötigt werden

Das Problem mit der Logik
Wickelt man jetzt nach der Logik hin ab und hält sich an die Verlegevorschriften (Fugen, Größen, Farbanteil), so benötigt man eine wesentlich grössere Anzahl von Paletten als angestrebt. Um z.B. eine Fläche von 30 qm sauber zu verlegen, wären ca. 48 qm Stein auf Paletten zu liefern. Die Palettensortimente enthalten nun mal leider eine bestimme, fest vorgegeben Anzahl von Steinen einer Grösse. Wird nun ein Stein benötigt, der nicht mehr auf der Palette drauf ist oder dessen Farbe nicht mehr verfügbar ist, dann wird die nächste betreffende Palette angerissen, von der eine Menge Steine nicht zwar am Schluss nicht gebraucht aber trotzdem geliefert werden müssen. Das kostet Zeit und Geld und ist so nicht praktikabel.

Das Auge lässt sich betrügen (der Kunde auch)
Fragt man jetzt einen Pflasterverleger, wie das Ganze funktioniert, dann zuckt der mit der Schulter. Er macht das unbewußt aus Erfahrung heraus und wird sich über bestimmte Vorgaben einfach hinwegsetzen (Größe, Farbe), wenn es nicht augenscheinlich auffällt. Dann können schon mal mehr kleinere Steine oder Steine einer bstimmten Farbe verbaut werden - ohne dass der Kunde es optisch wahrnehmen kann und wird.

Ein Programm, auch wenn es nichtlinear nach Lösungen sucht, wird jetzt locker an seine Grenzen kommen. Der Verleger sieht und weiss, dass es nicht aufgeht - der Computer wird solange alle möglichen Varianten berechnen, bis auch er sicher ist, dass es zu 100% nicht geht. Zwing jetzt mal den Computer zu mogeln und sich über Bedingungen hinweg zu setzen! Selbst wenn man dies im Programm vorsehen würde, wann weiss ein Computer, dass ein Mensch das Ergebnis der Schummelei nicht wahrnimmt?

Die Lösung
Da sich das Ganze so nicht lösen lässt, muss man halt den Pflasterverleger 'emulieren'. So musste während der Entwicklungsphase das Programm an jeder Stelle stoppen, wo es nicht weiter wusste. Jedes Problem wurde manuell gelöst und Problem und Lösung verallgemeinert abgespeichert. Dies ist ein einfacher Lernprozess, der natürlich sehr aufwändig zu programmieren ist. Somit können jetzt viele Probleme ignoriert werden, da sich unterm Strich vieles wiederholt bzw. ähnelt. Es ist noch nicht perfekt, aber erstaunlichereise minimiert sich die Rechenzeit im Gegesatz zur exakten Berechnung unter Berücksichtigung aller Vorgaben auf 1/10!. Das ergebnis sieht subjektiv nicht schlechter aus und die Anzahl vorab zu liefernder Steine hat sich drastisch reduziert.

Fazit
Der Mensch ist dem PC demnach vor allem darin überlegen, dass er bewusst Fehler macht und in Kauf nimmt und sich dabei von anderen Menschen nicht erwischen lässt. Macht das mal mit dem heimischen PC (ich rede hier mit Absicht von normalen PCs und nicht über elitäre Forschung).
öhm @ FormatC, was willst du mit diesem Post von dir da oben sagen? :P Versteh absolut nur Bahnhof...
Dass das Wort 'künstliche Intelligenz' für die bisher geschaffenen Modelle eine Frechheit und Übertreibung ist. Viele Probleme bestehen ja genau darin, dass sie in der Endkonsequenz (mathematisch) nicht lösbar sind. Bring das mal dem PC bei. Man ist sogar (im obigen Fall) mit weniger Rechenleistung schneller. Lustig, nicht war?

Ich würde mir für ein Spiel einfach mal eine KI wünschen, die lernt, nachvollziehbare Fehler macht (und nicht, weil bei einer bestimmten Spielstufe von der KI soundsoviel Prozent Scheisse zu bauen sind). Der Computer wird dies nicht durch eine zusätzliche CPU, sondern durch 'menschennahere' Programmierung erreichen können. Es gibt nämlich auch in dieser Richtung interessante Ansätze und Lösungen. Das kann man zwar nicht absolut verallgemeinern, aber oft wäre weniger mehr. Aber sag das mal den Hardwareproduzenten und Spieleherstellern....
oh, stimmt da geb ich dir Recht. Hmm. Naja, Mein core 2 duo E 6600 ist eh zu schnell - für mich :P

Aber machen Manche Spielfiguren nicht schon naja, sagen wir "nachvollziehbare, lustige" Fehler?
Mit nachvollziehbar meine ich z.B. ein vor mir fahrendes Fahrzeug, dass genauso wie meines den Gesetzen der (Fahr-)Physik unterliegt und nicht deswegen eine Klümpchenbildung provoziert, weil es die Spielstärke grade so vorsieht oder sich im Gegenzug nicht per Wharp-Antrieb an meine Fersen heftet, weil 500 m vor dem Ziel mal eben schnell 30 Sekunden Rückstand in 5 Sekunden Spiel zu 3 Sekunden Vorsprung werden müssen.

Die Fehler sollten also schon realistisch sein und nicht statistisch bedingt.
hmmm @ FormatC...naja, deine Sprache ist schwer zu verstehen, aber ich versuche damit klarzukommen :)So einigermaßen hab ichs verstanden was du meinst. Und ich stimme dir da auch zu. Hauptsache ist halt für mich, dass die Gegner nicht unendlich schlau werden. Irgendwann hat man dann eben Probleme den Gegner /die 100 "menschlichen" Gegner zu besiegen. Dann macht es auch kein Spaß mehr, oder?
Ich hätte da weniger Bedenken - solange Computer nur schlau (meinetwegen auch unendlich) sind, aber nicht gerissen, habe ich da eher weniger Bauchschmerzen. Es ist doch wie im wahren Leben - Frechheit siegt, nicht Intelligenz. Und dem Chip Frechheit und Hinterfotzigkeit beizubringen, dürfte recht schwer werden.

naja, deine Sprache ist schwer zu verstehen,
Ich habe NFS:MostWanted und dessen KI auch nicht verstanden. Verstehe es heute noch nicht, wie man eine AI so debil programmieren kann. Genau daraus folgt ja meine Erklärung des Nichtnachvollziehbaren
ja, Need for Speed MW find ich auch nicht grad doll, die Künstliche INtelligenz. Naja, ist halt E.A. sagt doch alles oder? :) :P Selbst C&C gab es schon solche Intelligenz - da hüpften die Gegner über Brücken etc. und versanken...oder schossen sich gegenseitig ab, weil was im Weg stand!
Also in nem dumpfen Arcade-Racer wie NFS kann man nicht von KI reden. Ob so ein Chip sinvoll wäre? Hmnm... Oblivion z.B. Tausende NPC's die aber alle atmospärisch überzeugen müssen, ist ja imemrhin ein RPG, wenn die Charaktere mich nicht durch ihr Handeln überzeugen komm ich mir auch nicht vor wie in einer Fantasywelt. Ich kann mir schon vorstellen das durch so ein Chip vieles besser und realer wird. So könnten alle NPC's nicht nur stur ihrem gescripteten Tagesablauf nachgehen sondern auch richtig unter einander agieren und auf Umweltbedingungen sowie andere NPC's entsprechend reagieren. Mein Ansehen wird nicht mehr aufgrund einer globalen Variablen bestimmt, sondern die NPC's unterhalten sich wirklich über den Charakter.

Wenn ich etwas an Ort A tue und ich zu Ort B gehe muss(oder besser darf) keiner davon wissen solange nicht jemand von Ort A mit jemanden aus Ort B darüber gesprochen hat. Ich fühl mich irgendwo verarscht wenn ich in einer Taverne einen Apfel ausversehen angepackt habe und dafür eine Strafe von 2 Gold bekomme und dass sofort jede Wache auf der Welt davon weiß. So ein, im Prinzip absoluter Schwachsinn, begegnet einem in jedem Spiel.

Genau so wie ich mich aufrege wenn ich mit einem Panzer in Battlefield in einem Stacheldrahtzaun stecken bleibe. Hallo!? Das ist ein Panzer! Der fährt auch zu Not durch ein Haus! (mit genügend Schwung). Ich will das sich Materialien realistisch verhalten, wenn ich mit meiner Laserkanone auf diese Stahltüre schieße, erwarte ich dass diese eben schmilzt. Wenn ich einen Schlüssel nicht finde möchte ich die Tür oder Wand zerstören können. Vor allem in Shootern, man kann sich sogar mit normalen Waffen durch Beton arbeiten. Wenn ich mit einer MG hunderte von Kugel auf den selben Fleck auf eine Backstein Mauer baller ist da früher oder später ein Loch drin.

Ich will in Zukunft nicht mehr in SDK's sehen das ein Tisch "Lebensenergie" hat und eine Waffe "Schadenspunkte". Ich will das der Tisch ein Material hat und die Waffe eine Mündungsenergie, das die Spielwelt eine Luftzusammensetzung und daraus resultiernden Luftwiderstand etc...

Wenn die Rechenpower in Zukunft wirklich weiter so ansteigt und es extra Beschleuniger für die Physik geben wird hoffe ich das es bald soweit sein wird.

btw: http://www.golem.de/0609/47972.html
ist doch bescheuert. Naja mir gehts nur um die Tatsache, dass ein gescheiter PC dann in Zukunft wieder sauteuer wird (man erinnere sich an 1980 wo ein PC noch 10000 DM kostete teilweise!)

Mein 1. Richtiger PC hat auch 2500 DM gekostet:

Pentium III, 500 Mhz, 128 MB Ram, Grafik ATI TNT 2,
Festplatte 19 GB

sackteuer! Heute kaufen sich Leute für weniger als die Hälfte des Preises (2500 DM : 2 = 1250 € ca) einen SUPER-PC!
Logge dich ein um einen Beitrag zu schreiben.