GeForce FX - ein Flop? (Hard- und Software)

GeForce FX - ein Flop? (Hard- und Software)

nachdem schon ende november 2002 der g-fx (nv30) vorgestellt wurde und nach langer wartezeit nun endlich test-grafikkarten verschickt wurden, sehen wir die ersten ECHTEN benchmarks der hoch gelobten g-fx. aber hält sie ihr versprechen?

--> http://www.tecchannel.de/hardware/1109/index.html

eine zusammenfassung:
--> http://www.onlinekosten.de/news/artikel.php3?id=11015


tja, nun bin ich echt gespannt wie nVidia das mit der lautstärke des lüfters beheben will. und sonst, nunja, ein 500MHz (g-fx) gpu schlägt einen mit 325MHz gpu (radeon9700 pro) nich mal deutlich. da hätt man sich aber mehr leistung versprochen. ABER die karte ist noch nicht fertig und ich denke selber das da noch potential drin ist.
wartet doch erstma bis ihr euch ein urteil drüber macht, auf die treiber...
Um selbst einen Urteil über die Karte zu machen, müsste man sie kaufen. Das wäre doch etwas kostspielig. Daher sind die o.g. Tests sehr interessant, um sich beraten zu lassen.
Die Geforce FX scheint ein Flop zu sein,zu schwer,zu laut und zu teuer heisst es.Gamestar hat eine Geforce FX von Terratec getestet diese schnitt eigentlich noch gut ab,aber nicht so gut wie erwartet.
Bald wird Asus mit der Produktion der Platinen beginnen, diese werden viel schneller sein und leisere Kühler heben(Kupferkühler).Der Preis wird sich hoffentlich in Grenzen halten!
Aktuell kostet die Geforce FX 5800 Ultra von Terratec 650 Euro(!!!).
Und noch was;ATI wird zur Cebit-Messe in Hannover einen veränderten Radeonchip vorstellen der Radeon 9900 heissen wird(Codename350).
NVidia wird dann eine Dualchip Geforce FX als Gegenschlag bringen, das heisst das sich zwei Geforce FX Chips auf einer Platine befinden.
Das mit dem R350, da hast du recht.
aber einen Dual-Chip von nVidia? Davon habe ich noch nichts gelesen. nicht mal spekulationen drüber. nVidia setzt nicht auf Dual-Chips. diese technik hat 3dfx angewandt. Mit 2 chips wird nVidia probleme mit der kartenlänge bekommen, weil sie dann nicht in alle gehäuse passen kann. und wie wollen sie die 2 chips den kühlen??? wenn sie nich mal einen gescheit kühlen können ohne dass er total riesig und total laut ist???
Das mit dem Dualdesign stimmt schon, das wollen sie beim NV35 anwenden, ich frag mich grad wie sie das kühlen wollen (Vielleicht liefern sie ein Gehäuse mit Kompressorkühlung dazu? ;-))

Desweiteren gibt es immer mehr paralleln zu 3DFX, hatten die nicht auch mit nem Hersteller zu kämpfen, der bessere Karten herstellte? ;)
Doch in der PC Games steht was von einem möglichen Dual-Chip oder in der Gamestar.
klar die fx war ja 50% Arbeit von 3DFX. BEI Voodoo war das so das jeder chip jede zweite Zeile berechnet.Es ist aber nicht anzunehmen das,dass die Karte doppelt so schnell macht. Wegen dem großen performacunterschied zwischen R300 und NV30: Ati hat in letzter Zeit sehr an Treibern nachgelegt. NV steht noch ganz am Anfang. Ich nehme an, dass in einem der nächsten Treiber dieser Flaschenhals ausgehebelt wird.
ati rulez
hey, LOL - stimmt ja, dass bei der voodoo5 das so war, dass sich die 2 gpus die texturberechnung geteilt haben. fakt ist aber auch, dass es seine vorteile hat, z.b bei dem Hardware FSAA. kein chip dieser zeit konnte an diese qualität kommen.
ati hat auch ein modell mit 2 gpu übrigends mal gebaut.
naja, bei der fx haben 3dfxingeneure mitgearbeitet... aber ob die soviel einfluss haben?

nunja, es dauert nicht mehr lang bis nun die offiziellen f-fx karten kommen und die non-ultra karten scheinen im low-cost bereich sich ganz gut zu behaupten.


@Mr. X
stimmt ja gar nicht, sie hatten nicht immer mit besseren zu kämpfen!
mit der voodoo1 waren sie vorne, konnten sich 1 1/2 jahre zeit lassen mit der voodoo2. mit sli waren sich wieder 1 1/2 jahre unerreichbar! erst mit der voodoo3 hat 3dfx dann eine karte geschaffen, die 2d+3d leistung hat und die v2 sli übertrumpft.
dann kam die TNT2 ultra, die dann etwas schneller als die v3 war.
die geforce war der v5 dann unterlegen, auch die g2mx karten sind zu schwach. die g2 gts war dann schneller.
@Free: Ich wollte damit eigentlich auf den Endkampf zwischen Nvidia und 3DFX anspielen ;)
Logge dich ein um einen Beitrag zu schreiben.