Ist es sinnvoller (und ich meine Leistungsfähiger) ein SLI-System aus jeweils zwei XFX GF8800GT XXX oder aus GF9600GT Alpha Dog Edition (ebenfalls XFX) zusammenzustellen? In Benchmarks sind die 8800GTs ja einzeln besser als die 9600er. Habe gehört, dass die 9600GTs durch neue Treiber einen enormen Leistungszuwachs erlangt haben sollen. Reicht das aber aus die 8800GT in den Schatten zu stellen?
Wie gesagt, es geht um ein SLI-Verbund, was Leistungsfähiger ist.
^^
Wie gesagt, es geht um ein SLI-Verbund, was Leistungsfähiger ist.
^^
SLI ist in den meisten Fällen Unfug. Eine ordentliche Einzelkarte ist allemal sinnvoller. Wenn Du nicht grade 1900x1200 und höher mit 4xAA und 16AF zockst, ist es eh sinnfrei. Und Microruckler beim SLI / CF sind ebenfalls ein Thema.
Was für ein Mainboard + CPU hast Du eigentlich?
Was für ein Mainboard + CPU hast Du eigentlich?
Nein, das hat Igor doch grade gesagt, dass es Microruckler gibt und dass SLI meist sinnlos ist.
Ok, zugegeben, SLI kommt zwar "cooler" rüber als eine Einzelkarte, ist aber wie schon von Igor gesagt meist kein Vorteil.
Ok, zugegeben, SLI kommt zwar "cooler" rüber als eine Einzelkarte, ist aber wie schon von Igor gesagt meist kein Vorteil.
SLI ist auch Quatsch.Eine Karte ist oftmals besser als 2.
@McMonk:
Ohne deine Systemdaten können wir dir aber nicht helfen.
@McMonk:
Ohne deine Systemdaten können wir dir aber nicht helfen.
Ich habe vor mir einen kompletten neuen PC zusammenzubauen. Geplant ist ein Quadcore Q6700 oder 9450 auf einem nForce750i Board. Also sollte ich lieber eine 9800GTX reinbauen (liegt ja etwa in derselben Preisklasse) als zwei 9600GTs oder 8800GTs. Zu den Microrucklern: davon habe ich schon gelesen und auf diversen Seiten steht dass das nVIDIA mit Treibern behoben hat bzw. noch beheben will. Wie seht ihr das?
nForce750i
Der kastrierte kleine nVidia-Chipsatz mag (a) keine Quadcores (d.h. zumindest das spätere Übertakten geht nicht) und (b) wirst Du trotz PCI-E 2.0 mit lächerlichen 2 x 8 Lanes (statt 16) die Karten bös ausbremsen. Entweder, man hat die Kohle fürs SLI, dann kauft man auch den richtigen Chipsatz und ein wirklich SLI-taugliches Board (ab ca. 200€) oder man investiert die 100€ Aufpreis lieber in eine bessere Einzelkarte. Intel-Quads gehören auf ein Board mit Intel-Chipsatz (P45, X48).
Es wird treiberseitig kaum zu beheben sein. Karte 1 rendert Frame 1, Karte 2 rendert in der gleichen Zeit Frame 2. Ist die Karte 2 jedoch noch nicht fertig, nachdem der 1. Frame angezeigt wurde, gibts nach dem 1. Bild einen Mikroruckler. Zumal beim SLI beide Karten den Video-Speicher jeweils für sich selbst brauchen, d.h. die Inhalte alle doppelt gespeichert werden müssen. Sinnfrei. Sowas lohnt erst ab 24" Monitoren aufwärts, wenn 4x AA benötigt wird. Ansonsten sind Single-Karten meist sogar schneller.
Der kastrierte kleine nVidia-Chipsatz mag (a) keine Quadcores (d.h. zumindest das spätere Übertakten geht nicht) und (b) wirst Du trotz PCI-E 2.0 mit lächerlichen 2 x 8 Lanes (statt 16) die Karten bös ausbremsen. Entweder, man hat die Kohle fürs SLI, dann kauft man auch den richtigen Chipsatz und ein wirklich SLI-taugliches Board (ab ca. 200€) oder man investiert die 100€ Aufpreis lieber in eine bessere Einzelkarte. Intel-Quads gehören auf ein Board mit Intel-Chipsatz (P45, X48).
Es wird treiberseitig kaum zu beheben sein. Karte 1 rendert Frame 1, Karte 2 rendert in der gleichen Zeit Frame 2. Ist die Karte 2 jedoch noch nicht fertig, nachdem der 1. Frame angezeigt wurde, gibts nach dem 1. Bild einen Mikroruckler. Zumal beim SLI beide Karten den Video-Speicher jeweils für sich selbst brauchen, d.h. die Inhalte alle doppelt gespeichert werden müssen. Sinnfrei. Sowas lohnt erst ab 24" Monitoren aufwärts, wenn 4x AA benötigt wird. Ansonsten sind Single-Karten meist sogar schneller.
Lass das mit dem SLI sein. Man bekommt nicht die doppelte leistung, verbraucht massig Strom, es wird viel mehr Hitze im Gehäuse produziert, der PC ist lauter, man brauch ein teueres mainboard, ein stärkeres netzteil und dann noch diese microruckler.
nVIDIA wollte die microruckler schon lange mal mit treibern beheben, aber passiert ist bis heute nichts. In nem bericht steht:
Auf die leichte Schulter nehmen sowohl ATi als auch Nvidia das Problem der Mikroruckler nicht. Dies ist vor allem wichtig, da es in Zukunft voraussichtlich immer mehr Multi-GPU-Lösungen geben wird. Dennoch ist derzeit zumindest noch keine baldige Lösung in Sicht
Nimm lieber eine starke 9800GTX oder sogar eine 8800GTS 512.
Die 9800GTX ist ja nichts weiter als eine übertaktete 8800GTS 512 und kostet auch noch 30€ mehr.
nVIDIA wollte die microruckler schon lange mal mit treibern beheben, aber passiert ist bis heute nichts. In nem bericht steht:
Auf die leichte Schulter nehmen sowohl ATi als auch Nvidia das Problem der Mikroruckler nicht. Dies ist vor allem wichtig, da es in Zukunft voraussichtlich immer mehr Multi-GPU-Lösungen geben wird. Dennoch ist derzeit zumindest noch keine baldige Lösung in Sicht
Nimm lieber eine starke 9800GTX oder sogar eine 8800GTS 512.
Die 9800GTX ist ja nichts weiter als eine übertaktete 8800GTS 512 und kostet auch noch 30€ mehr.
Übertakten hatte ich eigentlich nicht vor. Meiner Meinung nach haben Quads so schon genug Leistung.
Ok dann werde ich wohl die 8800GTS 512 nehmen, aber es gibt ja noch das sog. Splitframe-Rendering. Hierbei berechnet Karte 1 das obere Halbbild und Karte 2 das untere. Kommt es dabei auch zu Bildfehlern oder ähnlichem?
Die nForce680-Boards bringen doch 2x16 Lanes. Sind die noch einigermaßen Up-To-Date und für Quads und diese GraKa-Generation geeignet?
Ok dann werde ich wohl die 8800GTS 512 nehmen, aber es gibt ja noch das sog. Splitframe-Rendering. Hierbei berechnet Karte 1 das obere Halbbild und Karte 2 das untere. Kommt es dabei auch zu Bildfehlern oder ähnlichem?
Die nForce680-Boards bringen doch 2x16 Lanes. Sind die noch einigermaßen Up-To-Date und für Quads und diese GraKa-Generation geeignet?
Nein. Nvidia-Chipsätze sind generell nichts für Intels Quads. Und es ist ein Board mit PCI-E 1.0. Vergiss SLI und warte noch 2 Wochen auf die neue 4870 (ATi) bzw. GTX260 (Nvidia). Da hast Du mehr fürs Geld.
@ McMonk:
Ja, viele 680i (Nvidia Nforce Chipsatz) Boards sind Quad geeignet. Vor allem sind auch einige Penryn-ready. Aber sie brauchen verdammt viel Strom und werden sehr heiß (die Chipsätze an sich, die Boards eher nicht). 680i Boards sind nur zu empfehlen, wenn man wirklich SLI nutzen will. Sie haben fast immer 2x 16 PCI-Express Lanes.
Sie haben allerdings fast nie einen PCI Express 2.0 Steckplatz (also die neuere noch schnellere x16 Anschlüsse) und sind deshalb etwas langsamer mit neueren Grafikkarten!
Ja, viele 680i (Nvidia Nforce Chipsatz) Boards sind Quad geeignet. Vor allem sind auch einige Penryn-ready. Aber sie brauchen verdammt viel Strom und werden sehr heiß (die Chipsätze an sich, die Boards eher nicht). 680i Boards sind nur zu empfehlen, wenn man wirklich SLI nutzen will. Sie haben fast immer 2x 16 PCI-Express Lanes.
Sie haben allerdings fast nie einen PCI Express 2.0 Steckplatz (also die neuere noch schnellere x16 Anschlüsse) und sind deshalb etwas langsamer mit neueren Grafikkarten!
Und wieso haben dann viele Gamer oder ihr SLI, wenn es so schlecht sein soll?`
Nur picklige Cheater und Leute, die nicht wissen, wohin mit der Kohle, haben SLI, herzallerliebstes Kellerkind.
Versuche zu lesen und zu verstehen, was ich schrieb - es lohnt nur bei Monitoren oberhalb 24" und Full-HD oder mehr. Ok, ich habe die ganzen pimmellängenvergleichenden Benchmarker vergessen. Das wars dann aber auch schon.
Meine Güte, wenn man sich mit einem Kühlschrank unterhält, stößt man auf mehr Intelligenz.
Versuche zu lesen und zu verstehen, was ich schrieb - es lohnt nur bei Monitoren oberhalb 24" und Full-HD oder mehr. Ok, ich habe die ganzen pimmellängenvergleichenden Benchmarker vergessen. Das wars dann aber auch schon.
Meine Güte, wenn man sich mit einem Kühlschrank unterhält, stößt man auf mehr Intelligenz.
So jetzt mal Schluss mit dieser SLI verschwörung! Es gibt auch Maßnahmen um diese zu verhindern. Man kann mit Programmen die Ausgabeanzahl der Bilder pro Sekunde fest einstellen. Dazu muss das System nur auch konstant mindestens so viele Bilder wie eingestellt liefern.
Sowas nennt man Frame-Limitierer. Das hat absolut nichts mit SLI zutun. Außerdem funktioniert das leider nur nach oben raus (60 FPS auf 30 FPS runterregeln).
Hast Du noch eine Röhrenfunzel? Dann investiere das Geld lieber in einen ordentlichen TFT :)
Ich habe auch noch einen Röhren-Monitor neben einem LCD. Und nutze nVIDIA Dual-View was schon eine sehr klasse sache ist, da Filme zu schauen oder zu spielen auf dem Röhren-Screen viel besser aussieht als auf dem LCD-Monitor. Dafür ist der LCD eben viel besser für Internet, ICQ, Office usw. weil man dort besser lesen kann.
Aber das Board unterstützt doch 2x PCIe2.0
Auch wenn dann beide nur mit 8 Lanes arbeiten, wären sie doch immernoch so schnell wie normale PCIe16x Controller.
Aber zum zusammenfassen: Ich soll mir lieber eine GF8800GTS holen als zwei 8800GTs oder 9600GTs.
Wie sehen diese Micro-Ruckler denn aus? Ich kann mir da nicht gerade was darunter vorstellen.
Karte 1 rendert Frame 1, Karte 2 rendert in der gleichen Zeit Frame 2. Ist die Karte 2 jedoch noch nicht fertig, nachdem der 1. Frame angezeigt wurde, gibts nach dem 1. Bild einen Mikroruckler.
Passiert doch nicht nach jeden Frame. Und vor allem: Wenn beide Karten über jeweils 8 Lanes (also mit der Gleichen geschwindigkeit) angebunden sind, und zudem noch Absolut identisch sind (gleicher Hersteller, gleicher Grafikchip, absolut gleiches Modell) dann dürfte es doch nur mit geringster wahrscheinlichkeit zu Differenzen kommen.
Auch wenn dann beide nur mit 8 Lanes arbeiten, wären sie doch immernoch so schnell wie normale PCIe16x Controller.
Aber zum zusammenfassen: Ich soll mir lieber eine GF8800GTS holen als zwei 8800GTs oder 9600GTs.
Wie sehen diese Micro-Ruckler denn aus? Ich kann mir da nicht gerade was darunter vorstellen.
Karte 1 rendert Frame 1, Karte 2 rendert in der gleichen Zeit Frame 2. Ist die Karte 2 jedoch noch nicht fertig, nachdem der 1. Frame angezeigt wurde, gibts nach dem 1. Bild einen Mikroruckler.
Passiert doch nicht nach jeden Frame. Und vor allem: Wenn beide Karten über jeweils 8 Lanes (also mit der Gleichen geschwindigkeit) angebunden sind, und zudem noch Absolut identisch sind (gleicher Hersteller, gleicher Grafikchip, absolut gleiches Modell) dann dürfte es doch nur mit geringster wahrscheinlichkeit zu Differenzen kommen.
Fürs Intenet und Office benutz ich ja auch einen guten 17" TFT.
Aber bei Spielen und so ist mir der Röhrenmonitor lieber.
Vorallem will ich dann das maximale aus der Graka herausholen.
1280x1024 fordert eine Graka längst nicht so wie 2048x1536
und große Tfts gibts ja in der "normalen "Preisklasse nur mit max. 1920x1200
Aber bei Spielen und so ist mir der Röhrenmonitor lieber.
Vorallem will ich dann das maximale aus der Graka herausholen.
1280x1024 fordert eine Graka längst nicht so wie 2048x1536
und große Tfts gibts ja in der "normalen "Preisklasse nur mit max. 1920x1200
Ich würde auch von SLI abraten und lieber auf die HD4870 warten. Die wird wohl auch bei hohen Auflösungen mit AA und AF ordentlich abgehen (512 Bit Speicherinterface + 1GB flotter DDR5).
hey leute ich sage es nur eins crossfire und ATI HD 4870
4 ever
ich sage es euch die dinger sind der hamma der jenige der sich g force kauft ist meiner mienung nach echt hirlos echt ich rate jedem eine ati sich zu kaufen
4 ever
ich sage es euch die dinger sind der hamma der jenige der sich g force kauft ist meiner mienung nach echt hirlos echt ich rate jedem eine ati sich zu kaufen
schön für dich...
btw: mal wieder nur gelaber.
Als ob die 8er Serie von nVIDIA nicht gut war.
btw: mal wieder nur gelaber.
Als ob die 8er Serie von nVIDIA nicht gut war.
Mit der HD4870 hat AMD aber echt wieder mal gezeigt was alles geht. Vorallem stempeln sie nicht immer den gleichen GDDR3 rein... nVidia ist verwendet den ja auch noch bei den GTX.
Jo.Derzeit produziert ATI entlich mal wieder karten,die mit nVidia mithalten können.
Die HD 4870 hat GDDR5 und hängt die nVidia's locker ab(Preis/Leistung)
@ SE Michi:
Bist du dir sicher, dass es sich da tatsächlich um den ultraschnellen und verdammt teuren GDDR 5 Speicher handelt? Oder ist es doch "nur" GDDR 4? ;) Mit GDDR 5 sind ja schon fast 2 Ghz (x2 => DDR) möglich, aber das ist ja schon fast krank...
Bist du dir sicher, dass es sich da tatsächlich um den ultraschnellen und verdammt teuren GDDR 5 Speicher handelt? Oder ist es doch "nur" GDDR 4? ;) Mit GDDR 5 sind ja schon fast 2 Ghz (x2 => DDR) möglich, aber das ist ja schon fast krank...
Ja die HD4870 haben GDDR 5 und einen fairen Preis.
Aber so überragend finde ich die karte auch nicht, die hat schon mühe gegen die GTX 260. Aber der Preis ist wirklich fair. P/L top.
Da muss nVIDIA noch nachziehen.
Und gegen eine GTX 280 kommt sie niemals an. Die ist dafür aber auch viel teuerer .
Aber fakt ist nVIDIA hat es wieder geschafft, die mit abstand schnelleste singel GPU graka auf den markt zu bringen. Und zudem sind sie mit der GTX 260 auch richtig gut im rennen. Die GTX 280 wird bei den momentanen preisen noch nicht viele abnehmer finden.
Dazu hab sich ja auch noch die 8er und 9er Serie, die auch richtig gute Preise (und P/L) haben.
ATI hat schon gute grakas rausgebracht, nVIDIA aber auch.
Die ATIs können halt in sachen P/L die nVIDIDAs unterbieten, aber in sachen leistung kommen sie immernoch nicht ganz mit (siehe GTX 280).
Aber ATI ist auf einem guten weg und ich bin froh das es sie gibt. Bieten high-end grakas zum fairen preis und machen nVIDIA konkurrenz. Und davon profitieren letzendlich wir Käufer, weil sie beide mit den Preisen runtergehen, damit sie mehr verkaufen als der andere.
Und welcher speicher auf den grafikkarten verbaut ist, ist mir letzendlich egal. Hautpsache sie ist schnell. Und das sind die nVIDIA karten auch mit dem GDDR3 allemal. Die verbessern die leistung ihrer karten eben durch andere dinge, nicht durch den VRam.
Wartet mal ein bisschen ab bis die GTX 260 noch etwas mit dem Preis runtergeht und dann wird die wahrscheinlich eher gekauft als die HD4870. Würde die nVIDIA auch vorziehen, wenn sie nicht mehr als 20€ aufpreis kostet.
Aber so überragend finde ich die karte auch nicht, die hat schon mühe gegen die GTX 260. Aber der Preis ist wirklich fair. P/L top.
Da muss nVIDIA noch nachziehen.
Und gegen eine GTX 280 kommt sie niemals an. Die ist dafür aber auch viel teuerer .
Aber fakt ist nVIDIA hat es wieder geschafft, die mit abstand schnelleste singel GPU graka auf den markt zu bringen. Und zudem sind sie mit der GTX 260 auch richtig gut im rennen. Die GTX 280 wird bei den momentanen preisen noch nicht viele abnehmer finden.
Dazu hab sich ja auch noch die 8er und 9er Serie, die auch richtig gute Preise (und P/L) haben.
ATI hat schon gute grakas rausgebracht, nVIDIA aber auch.
Die ATIs können halt in sachen P/L die nVIDIDAs unterbieten, aber in sachen leistung kommen sie immernoch nicht ganz mit (siehe GTX 280).
Aber ATI ist auf einem guten weg und ich bin froh das es sie gibt. Bieten high-end grakas zum fairen preis und machen nVIDIA konkurrenz. Und davon profitieren letzendlich wir Käufer, weil sie beide mit den Preisen runtergehen, damit sie mehr verkaufen als der andere.
Und welcher speicher auf den grafikkarten verbaut ist, ist mir letzendlich egal. Hautpsache sie ist schnell. Und das sind die nVIDIA karten auch mit dem GDDR3 allemal. Die verbessern die leistung ihrer karten eben durch andere dinge, nicht durch den VRam.
Wartet mal ein bisschen ab bis die GTX 260 noch etwas mit dem Preis runtergeht und dann wird die wahrscheinlich eher gekauft als die HD4870. Würde die nVIDIA auch vorziehen, wenn sie nicht mehr als 20€ aufpreis kostet.
@ Last Mission:
wollte gerade editieren doch bemerkt es ging nicht mehr. Fehler im System ;)?
Naja ich bezweifel dass die Nvidias schneller sein werden. Aber das geht ja echt zackig, 3,6 Ghz Speicher. Das ist wahrscheinlich ein Realtakt von 1,8 Ghz gell? Echt krank. Mich würde mal interessieren wieviel Strom die HD 4870 braucht.
Wollte noch sagen. Klar verbessert Nvidia die Leistung derer Karten durch andere Dinge. Aber abwarten. Das sind immerhin 50 % mehr Speichertakt. Also ich glaub dass das wohl ein neues Flaggschiff wird...
wollte gerade editieren doch bemerkt es ging nicht mehr. Fehler im System ;)?
Naja ich bezweifel dass die Nvidias schneller sein werden. Aber das geht ja echt zackig, 3,6 Ghz Speicher. Das ist wahrscheinlich ein Realtakt von 1,8 Ghz gell? Echt krank. Mich würde mal interessieren wieviel Strom die HD 4870 braucht.
Wollte noch sagen. Klar verbessert Nvidia die Leistung derer Karten durch andere Dinge. Aber abwarten. Das sind immerhin 50 % mehr Speichertakt. Also ich glaub dass das wohl ein neues Flaggschiff wird...
schaus dir an, es exsistieren ja schon benchs:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
die HD4870 hat schon mühe mit der GTX 260. Und die GTX 280 ist ja noch mal ein stück vor der GTX 260.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
die HD4870 hat schon mühe mit der GTX 260. Und die GTX 280 ist ja noch mal ein stück vor der GTX 260.
Logge dich ein um einen Beitrag zu schreiben.