Hab heut gesehn dass die HD2900Pro 320 Unified Shader und die 8800 "nur "96".
Dazu hat die ATI noch ne viel größere Speicheranbindung als die 8800 und ist um ein ganzes Stpck günstiger.
Ist die HD2900 stärker als die 8800?
Was bedeutet die Anzahl der Unified Shader?
Dazu hat die ATI noch ne viel größere Speicheranbindung als die 8800 und ist um ein ganzes Stpck günstiger.
Ist die HD2900 stärker als die 8800?
Was bedeutet die Anzahl der Unified Shader?
In irgendeinem Thread hat FormatC mal gesagt das die HD2900pro rotze ist, und ich kann das auch von 'nem Freund bestätigen, dass die Karte bei AA&AF einbricht, dann hat meine 8800er mehr FPS xD. Naja, der gibt sie wohl auch zurück, und kauft sich dafür lieber eine gts 320/640 (eher letzteres).Lass die Karte lieber im Regal.
(Ich hoffe es lag wirklich an der Karte, dass er so eingebrochen ist, und nicht am prozzi oder so ^^).
(Ich hoffe es lag wirklich an der Karte, dass er so eingebrochen ist, und nicht am prozzi oder so ^^).
Ich will mir die Karte garnicht kaufen, habe die 8800GTS 640 Variante.
Drei Freunde von mir haben sich die HD2900 bestellt für 209€. Ich hab dann aus Interesse mal geschaut was die drauf hat.
Drei Freunde von mir haben sich die HD2900 bestellt für 209€. Ich hab dann aus Interesse mal geschaut was die drauf hat.
Hmm, so wies aussieht^^
Heute hat einer der dreien erzählt dass die halt so richtig geil ist. Mit diesen 320Shadern und der großen Speicheranbindung.
Jetz is mir dann auch klar warum die nVidia locker 1/3 teurer ist.
Heute hat einer der dreien erzählt dass die halt so richtig geil ist. Mit diesen 320Shadern und der großen Speicheranbindung.
Jetz is mir dann auch klar warum die nVidia locker 1/3 teurer ist.
@ Lash/LockLock:
Quatsch, die Karte ist gut. Die Treiber sind nur schlecht umgesetzt. Wie immer halt. Wartet 3 Monate, dann siehts wieder ganz anders aus. Außerdem ist die Karte halt günstig. Tja, in Punkto Stromverbrauch hat zwar momentan Nvidia die Nase vorn, aber wirklich viel Unterschied ist das nicht! Die HD 2900 Pro/XT hat übrigens von der Technik her (Rohleistung) die bessere Technik drauf. Sie wird nur nicht optimal ausgenutzt momentan. Das kann sich aber schnell ändern.
Leider hab ich im Moment nich das Geld mir eine HD 2900 XT zu kaufen. Die Pro gibts ja nicht mehr :( Ich werd aber dann nach Weihnachten ne neue schnelle holen und die HD 2600 XT die ich jetzt in 2-3 Tagen endlich kriegen sollte, wird dann in meinen 2.PC wandern...
Quatsch, die Karte ist gut. Die Treiber sind nur schlecht umgesetzt. Wie immer halt. Wartet 3 Monate, dann siehts wieder ganz anders aus. Außerdem ist die Karte halt günstig. Tja, in Punkto Stromverbrauch hat zwar momentan Nvidia die Nase vorn, aber wirklich viel Unterschied ist das nicht! Die HD 2900 Pro/XT hat übrigens von der Technik her (Rohleistung) die bessere Technik drauf. Sie wird nur nicht optimal ausgenutzt momentan. Das kann sich aber schnell ändern.
Leider hab ich im Moment nich das Geld mir eine HD 2900 XT zu kaufen. Die Pro gibts ja nicht mehr :( Ich werd aber dann nach Weihnachten ne neue schnelle holen und die HD 2600 XT die ich jetzt in 2-3 Tagen endlich kriegen sollte, wird dann in meinen 2.PC wandern...
@ All: Und übrigens hier mal Benchmarks der aktuelleren Treiber. Man sieht deutlich wie hier die 8800 GTS 640 MB geschlagen wird, oder? ;)
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/
Also ich glaube den Werten, allein schon weil die Rohleistung einfach viel höher ist. Sie wird eben noch nicht gut ausgelastet, das wirkt sich halt auf die AA/AF Einstellung und Leistung aus.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/
Also ich glaube den Werten, allein schon weil die Rohleistung einfach viel höher ist. Sie wird eben noch nicht gut ausgelastet, das wirkt sich halt auf die AA/AF Einstellung und Leistung aus.
Na dann aktiviere mal AA/AF mal kucken wie es dann aussieht.
Genau dafür ist eine High-end Grafikkarte doch da oder kaufst du dir eine mehr als 220Watt verschleudernde Karte bei der du kein AA/AF ohne massive Leistungseinbrüche aktivieren kannst? Na dann Mahlzeit.
Genau dafür ist eine High-end Grafikkarte doch da oder kaufst du dir eine mehr als 220Watt verschleudernde Karte bei der du kein AA/AF ohne massive Leistungseinbrüche aktivieren kannst? Na dann Mahlzeit.
Da gabs die Karte noch gar nicht von wegen aktuellster Treiber und seriöser Benchmark. Arbeitest du bei AMD oder was?
Die AMD-Karte ist nach wie vor benchmarkoptimiert. 320 mediamarkt-werbewirksame "Shader" darfst Du im Vergleich der Architekturen mal gern durch 4 teilen. Bleiben faktisch 80 über. Und was sollen massig Vertexshader ohne die dazugehörigen Pixelshader? Daher übrigens auch der totale Einbruch bei AA/AF. Fehlende Pixelshader kann man durch Treiber nicht ersetzen. Die Karte ist eine komplette Fehlkonstruktion.
@ Igor: Sie ist geringfügig langsamer als eine 8800 GTS 320 bzw. 640 MB Karte, noch, ja. Aber das Blatt wird sich mit Sicherheit noch mal wenden. Und wenn nicht, kommt halt die HD 2950 XT gegen die 8900 xxx-Karte von Nvidia ;) Außerdem darf man den Preis ja nicht vergessen. Vor wievielen Jahren gab es schon mal eine High-End Karte (ich rede von der 2900 Pro) die grade mal 220 EUR kostet? - Nun, um genau zu sein, nie. Das gabs noch nie. Doch demnächst wird sich das wohl ändern, wenn AMD wieder grüne Zahlen haben will. Das ist mit Sicherheit ihre Taktik.
Was ich damit will, ist:
Ich kenne bis jetzt keinen Käufer dieser Karte der den Kauf bereut hat. Wieso nur?
@ Sisyphos: Ok, hast wohl Recht, der Benchmark ist wohl veraltet. Trotzdem stimmt es, was da steht. Kannst ruhig deine Glubschaugen aufmachen :D
Sisyphos: Mit Rohleistung der Karte ist gemeint => Die Karte schafft mehr Frames, ohne AA/AF als jede 8800 GTS. Das ist Rohleistung. Weil die Architektur eigentlich schon besser ist. Was FormatC da sagt, stimmt nicht. Er kennt die Technik nicht. Die Architektur der Karte ist nicht ausgereift, das ist alles. Aber abwarten sag ich da nur. FormatC weiß genauso wie ich, dass die Karte von den Rohdaten wesentlich flotter als jede andere ist, gell, FormatC? Kannste mal das Inet durchforsten, da findet man genug Seiten wo das aufgeführt ist. Die Karte ist nur so langsam beim AA/AF weil eben die Architektur dafür nicht optimal ausgelastet ist (Idealfall) wie es eigentlich sein sollte. Ich denke schon, dass sich da noch was tun wird.
Was ich damit will, ist:
Ich kenne bis jetzt keinen Käufer dieser Karte der den Kauf bereut hat. Wieso nur?
@ Sisyphos: Ok, hast wohl Recht, der Benchmark ist wohl veraltet. Trotzdem stimmt es, was da steht. Kannst ruhig deine Glubschaugen aufmachen :D
Sisyphos: Mit Rohleistung der Karte ist gemeint => Die Karte schafft mehr Frames, ohne AA/AF als jede 8800 GTS. Das ist Rohleistung. Weil die Architektur eigentlich schon besser ist. Was FormatC da sagt, stimmt nicht. Er kennt die Technik nicht. Die Architektur der Karte ist nicht ausgereift, das ist alles. Aber abwarten sag ich da nur. FormatC weiß genauso wie ich, dass die Karte von den Rohdaten wesentlich flotter als jede andere ist, gell, FormatC? Kannste mal das Inet durchforsten, da findet man genug Seiten wo das aufgeführt ist. Die Karte ist nur so langsam beim AA/AF weil eben die Architektur dafür nicht optimal ausgelastet ist (Idealfall) wie es eigentlich sein sollte. Ich denke schon, dass sich da noch was tun wird.
"Die Architektur der Karte ist nicht ausgereift, das ist alles"
Endlich hast du es begriffen. Genau das Gleiche hat FormatC mit anderen Worten auch gerade gesagt. Er hat wahrscheinlich mehr Ahnung als wir beide zusammen hust *schleim* hust. Also
ich wünsche dir viel Spass ohne AA/AF.
Endlich hast du es begriffen. Genau das Gleiche hat FormatC mit anderen Worten auch gerade gesagt. Er hat wahrscheinlich mehr Ahnung als wir beide zusammen hust *schleim* hust. Also
ich wünsche dir viel Spass ohne AA/AF.
Ich kenne bis jetzt keinen Käufer dieser Karte der den Kauf bereut hat. Wieso nur?
Weil sie bis dato kaum lieferbar war. Sehr viele dürftest Du nicht kennen. Selbst die XT hat mit einer normalen GTS so ihre Mühe. Trotz fast doppelt so hohem Stromverbrauch. Und weil nur vernagelte Fanboys so eine Karte kaufen und danach natürlich abgöttisch lieben werden, jedoch kein (öko)logisch denkender Mensch. So einfach ist das.
Ich schrieb:
Und was sollen massig Vertexshader ohne die dazugehörigen Pixelshader? Daher übrigens auch der totale Einbruch bei AA/AF.
Hä? Was soll das dann?
Was FormatC da sagt, stimmt nicht. Er kennt die Technik nicht. Die Architektur der Karte ist nicht ausgereift, das ist alles
Habe ich etwas anderes behauptet? Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie. Ich kenne die Technik übrigens wohl. Und die fehlende Ausgewogenheit von Vertex- und Pixelshadern ist nunmal das von AMD übrigens selbst erkannte und dokumentierte Problem. Die Pixelfüllrate dieser Architektur ist nachgewiesenermaßen zu niedrig. Tu uns bitte einen Gefallen, und verschone uns mit Halbwissen. Es gibt übrigens keine "Rohdaten" (typischer Begriff aus der Trivial-Presse). nVidia setzt beim G80 auf ein aus Erfahrungen resultierendes Shaderverhältnis (Vertex und Pixel), ATI hat auf Teufel-komm-raus Vertexshader implementiert. Ohne fehlende Füllung nutzen die ganzen künstlichen Werte nichts, wenn man es nicht auf den Bildschirm bekommt. Das geht nur in Benchmarks. Und es äußert sich in der schweinischen Hitzeentwicklung. Das Ding ist technisch ein Flop.
Meine anerzogene Höflichkeit vebietet mir an dieser Stelle solche Sätze wie "Wenn man keine Ahnung hat, einfach mal...". Obwohl ich in diesem Fall direkt schwach werden könnte.
Weil sie bis dato kaum lieferbar war. Sehr viele dürftest Du nicht kennen. Selbst die XT hat mit einer normalen GTS so ihre Mühe. Trotz fast doppelt so hohem Stromverbrauch. Und weil nur vernagelte Fanboys so eine Karte kaufen und danach natürlich abgöttisch lieben werden, jedoch kein (öko)logisch denkender Mensch. So einfach ist das.
Ich schrieb:
Und was sollen massig Vertexshader ohne die dazugehörigen Pixelshader? Daher übrigens auch der totale Einbruch bei AA/AF.
Hä? Was soll das dann?
Was FormatC da sagt, stimmt nicht. Er kennt die Technik nicht. Die Architektur der Karte ist nicht ausgereift, das ist alles
Habe ich etwas anderes behauptet? Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie. Ich kenne die Technik übrigens wohl. Und die fehlende Ausgewogenheit von Vertex- und Pixelshadern ist nunmal das von AMD übrigens selbst erkannte und dokumentierte Problem. Die Pixelfüllrate dieser Architektur ist nachgewiesenermaßen zu niedrig. Tu uns bitte einen Gefallen, und verschone uns mit Halbwissen. Es gibt übrigens keine "Rohdaten" (typischer Begriff aus der Trivial-Presse). nVidia setzt beim G80 auf ein aus Erfahrungen resultierendes Shaderverhältnis (Vertex und Pixel), ATI hat auf Teufel-komm-raus Vertexshader implementiert. Ohne fehlende Füllung nutzen die ganzen künstlichen Werte nichts, wenn man es nicht auf den Bildschirm bekommt. Das geht nur in Benchmarks. Und es äußert sich in der schweinischen Hitzeentwicklung. Das Ding ist technisch ein Flop.
Meine anerzogene Höflichkeit vebietet mir an dieser Stelle solche Sätze wie "Wenn man keine Ahnung hat, einfach mal...". Obwohl ich in diesem Fall direkt schwach werden könnte.
@TLS:
Falls es Dich interessiert, hier zunächst mal ein klein wenig abgeschwächte Theorie zu den vewendeten Unfified Shadern beider Karten und was DX10 eigentlich ausmacht: Direct3D10 und Unified Shader
Was beide Karten jetzt unterscheidet?
Die werbewirksam verkauften 320 "Streamingprozessoren" der 2900XT existieren in dieser Form gar nicht! Tatsächlich besitzt die R600-GPU lediglich ganze 64 Streamingprozessoren (also weniger als eine 8800GTS). ATI's Marketingstrategen multiplizieren nun einfach die Anzahl dieser Streamingprozessoren mit der Anzahl der Processing Units und voilá: es werden kundenwirksame 320.
Der Lösungsansatz bei der Vereinigung der Recheneinheiten für Vertex- und Pixel-Shader (Unified Shader, die effizientere Berechnungen ermöglichen) ist bei beiden Karten ein völlig anderer. Und da ist die Wichtung zwischen beiden Aufgaben bei der 8800 einfach ausgewogener ausgefallen. Und deswegen ist es auch treibertechnisch nicht möglich, die Leistungseinbrüche der 2900XT/Pro einfach so "wegzuoptimieren". Da müsstest Du schon mit den Transistoren Halma spielen und ein paar Millionen an eine andere Stelle schieben.
Falls es Dich interessiert, hier zunächst mal ein klein wenig abgeschwächte Theorie zu den vewendeten Unfified Shadern beider Karten und was DX10 eigentlich ausmacht: Direct3D10 und Unified Shader
Was beide Karten jetzt unterscheidet?
Die werbewirksam verkauften 320 "Streamingprozessoren" der 2900XT existieren in dieser Form gar nicht! Tatsächlich besitzt die R600-GPU lediglich ganze 64 Streamingprozessoren (also weniger als eine 8800GTS). ATI's Marketingstrategen multiplizieren nun einfach die Anzahl dieser Streamingprozessoren mit der Anzahl der Processing Units und voilá: es werden kundenwirksame 320.
Der Lösungsansatz bei der Vereinigung der Recheneinheiten für Vertex- und Pixel-Shader (Unified Shader, die effizientere Berechnungen ermöglichen) ist bei beiden Karten ein völlig anderer. Und da ist die Wichtung zwischen beiden Aufgaben bei der 8800 einfach ausgewogener ausgefallen. Und deswegen ist es auch treibertechnisch nicht möglich, die Leistungseinbrüche der 2900XT/Pro einfach so "wegzuoptimieren". Da müsstest Du schon mit den Transistoren Halma spielen und ein paar Millionen an eine andere Stelle schieben.
@ Igor:
Wird das mal wieder ein typischer Streit zwischen uns? Ich weiß sehr wohl alles über die Karte, sowohl dass die Shader quasi nur multipliziert wurden, das ist eben auch die Architektur der ATI/AMD-Karten. Eine X1600 Pro hat laut Datenblatt auch nur 3 Shadereinheiten, die aber halt mal 4 multipliziert werden wegen Shader 3.0-Technik wo das so geregelt ist, deswegen hat eine X1950 Pro ja auch effekte 36 Pixelshader und eine XT-Version hiervon satte 48. Das ändert aber nichts an der Tatsache, dass die Karte die bessere Rohleistung liefern kann. Und wenn doch noch bessere Treiber kommen, was dann, hm? Die Karte hat 512-bit Anbindung, mehr Speichertakt, mehr GPU-Takt, da kann selbst eine 8800 Ultra mit der Rohleistung nicht mithalten, merk dir meine Worte, wenn es so weit ist, wird AMD/ATI schon nachbessern. Es dauert vielleicht noch bis Dezember bis die Karte ihr volles Leistungspotential ausschöpfen kann. Wird mich das und andere vom Kauf abhalten? Mitnichten, denn ich hab mir schon immer ne High-End Karte für 220 EUR "herbeigesehnt". Früher hab ich eine X850 XT gekauft. Rate was die gekostet hat. 200 EUR? Klar, lol, nein, falsch, die hat 450 EUR gekostet. Und meine X800 Pro davor auch über 300 EUR. Vor dieser X800 Pro hatte ich noch kurze Zeit eine X800 Se, die auch nicht langsam war, hauptsächlich günstig. Und ob es eine Rohleistung gibt:
Die misst man übrigens, falls du es nicht weiß, in Gigaflops/S. Die R600-GPU hat jedenfalls nach den Datenblättern mehr mögliche Leistung als eine kastrierte 8800 GTS 320. Und ich hoffe du willst jetzt nicht noch bestreiten, dass eine 8800 GTS 320 MB kastriert ist ;)
Übrigens toller deutscher Satz, und so sinnfrei:
"Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie." - Das ist der Widerspruch in einem Satz ;)
@ Sisyphos: Du hast keine Ahnung. Ein Top-Aktuelles Game kann man auch problemlos ohne AA spielen. Gut AF sollte schon drin sein, zumindest ein Teil. Aber die Auflösung kann man immer noch hochsetzen, das ersetzt dann den "Treppeneffekt-Wegzauberer", der eh nur viel Leistung kostet...
Wird das mal wieder ein typischer Streit zwischen uns? Ich weiß sehr wohl alles über die Karte, sowohl dass die Shader quasi nur multipliziert wurden, das ist eben auch die Architektur der ATI/AMD-Karten. Eine X1600 Pro hat laut Datenblatt auch nur 3 Shadereinheiten, die aber halt mal 4 multipliziert werden wegen Shader 3.0-Technik wo das so geregelt ist, deswegen hat eine X1950 Pro ja auch effekte 36 Pixelshader und eine XT-Version hiervon satte 48. Das ändert aber nichts an der Tatsache, dass die Karte die bessere Rohleistung liefern kann. Und wenn doch noch bessere Treiber kommen, was dann, hm? Die Karte hat 512-bit Anbindung, mehr Speichertakt, mehr GPU-Takt, da kann selbst eine 8800 Ultra mit der Rohleistung nicht mithalten, merk dir meine Worte, wenn es so weit ist, wird AMD/ATI schon nachbessern. Es dauert vielleicht noch bis Dezember bis die Karte ihr volles Leistungspotential ausschöpfen kann. Wird mich das und andere vom Kauf abhalten? Mitnichten, denn ich hab mir schon immer ne High-End Karte für 220 EUR "herbeigesehnt". Früher hab ich eine X850 XT gekauft. Rate was die gekostet hat. 200 EUR? Klar, lol, nein, falsch, die hat 450 EUR gekostet. Und meine X800 Pro davor auch über 300 EUR. Vor dieser X800 Pro hatte ich noch kurze Zeit eine X800 Se, die auch nicht langsam war, hauptsächlich günstig. Und ob es eine Rohleistung gibt:
Die misst man übrigens, falls du es nicht weiß, in Gigaflops/S. Die R600-GPU hat jedenfalls nach den Datenblättern mehr mögliche Leistung als eine kastrierte 8800 GTS 320. Und ich hoffe du willst jetzt nicht noch bestreiten, dass eine 8800 GTS 320 MB kastriert ist ;)
Übrigens toller deutscher Satz, und so sinnfrei:
"Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie." - Das ist der Widerspruch in einem Satz ;)
@ Sisyphos: Du hast keine Ahnung. Ein Top-Aktuelles Game kann man auch problemlos ohne AA spielen. Gut AF sollte schon drin sein, zumindest ein Teil. Aber die Auflösung kann man immer noch hochsetzen, das ersetzt dann den "Treppeneffekt-Wegzauberer", der eh nur viel Leistung kostet...
Nur blöd, wenn man einen TFT besitzt :-/
Die wenigen Spiele, die ich in AA geniessen kann, reichen schon aus um darauf nicht mehr verzichten zu wollen.
UNd denkst du, dass AMD eine High-End Karte für 200€ verkaufen würde? Wäre doch völliger Blödsinn und widerspricht jeglicher Wirtschaftlichkeit.
Die wissen schon, dass ihre Karte schrott ist :-)
Mit der X850XT kannst du das nicht vergleichen. Die war ihrerzeit unschlagbar und hatte deshalb auch ihren Preis.
Die wenigen Spiele, die ich in AA geniessen kann, reichen schon aus um darauf nicht mehr verzichten zu wollen.
UNd denkst du, dass AMD eine High-End Karte für 200€ verkaufen würde? Wäre doch völliger Blödsinn und widerspricht jeglicher Wirtschaftlichkeit.
Die wissen schon, dass ihre Karte schrott ist :-)
Mit der X850XT kannst du das nicht vergleichen. Die war ihrerzeit unschlagbar und hatte deshalb auch ihren Preis.
"Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie."
Das ist der Widerspruch in einem Satz ;)
So, nun erkläre doch bitte mal für den Rest den gefunden Widerspruch. Und hier steht, was z.B. ein Wortspiel so alles sein kann. Die Karte ist nicht ausgereift, nicht gereift, auch nicht früh- oder überreif. Sie ist maximal überflüssig.
Es gibt keine theoretische "Rohleistung", in der man die einzelnen Maximalwerte aufaddiert. Sowas ist Unfug, da die Gesamtleistung eines Produktes immer von irgendeinem Flaschenhals abhängt und sich auf diesen zusammenreduziert. Die höhere Bitzahl sagt noch lange nichts über die tatsächliche Qualität einer Speicheranbindung aus, sondern nur etwas über deren theoretische maximale Bandbreite. Die aber von dieser Karte eh nicht ausgenutzt werden kann. Die Multiplikation der "Unified Shader" mit den "Processor Units" kann man nicht im Mindesten mit den Multiplikationsspielchen einer X1600 vergleichen, weil die Architektur nicht die gleiche ist. Das Problem dieser Karte liegt in ihrer Entstehungsgeschichte und der viel zu späten Implementierung des gemeinsam genutzten Rechenwerks. Und es wird auch nicht dasselbe multipliziert. Das Ding mit dem höheren GPU-Takt lässt sich mit den notwendigerweise höheren Taktraten der Netburst-Architektur vergleichen. Der G80 bringt mehr Rechenleistung pro Takt und Transistor. Und ist logischerweise damit auch kühler. Die höheren Taktraten sind ein Nachteil. Nur die Hausfrauen-Gilde lässt sich durch sowas beeindrucken. Und es ist schlichtweg peinlich, trotz DDR4 derartig abzustinken.
Bitte akzeptiere, dass der RV600 nicht mehr weiterentwickelt, sondern komplett umgestrickt und ersetzt wird. Das ist übrigens nicht meine Ansicht, sondern die Einsicht und Absicht von AMD selbst. Demnächst werden nämlich die 3000er Karten die 2000er ersetzen, die der selbe Griff ins Klo waren, wie seinerzeit die FX5xxx von nVidia. Der Die wurde nicht nur geshrinkt, sondern relativ umfangreich geändert. Wer sich jetzt noch so eine stromfressende Loserkarte kauft, der wird spätestens beim Erscheinen des RV670 abkotzen wie ein Tier. Dieser Chip hat dann möglicherweise das Zeug zu einem Renner, der RV600 dagegen ist jetzt schon Geschichte. Zu Recht übrigens.
Und streiten kann man sich nur über Argumente. Dieses Wischi-Waschi ohne technisches Hintergrundwissen langweilt mich zu Tode. Da wirst Du also wenig Glück haben.
Das ist der Widerspruch in einem Satz ;)
So, nun erkläre doch bitte mal für den Rest den gefunden Widerspruch. Und hier steht, was z.B. ein Wortspiel so alles sein kann. Die Karte ist nicht ausgereift, nicht gereift, auch nicht früh- oder überreif. Sie ist maximal überflüssig.
Es gibt keine theoretische "Rohleistung", in der man die einzelnen Maximalwerte aufaddiert. Sowas ist Unfug, da die Gesamtleistung eines Produktes immer von irgendeinem Flaschenhals abhängt und sich auf diesen zusammenreduziert. Die höhere Bitzahl sagt noch lange nichts über die tatsächliche Qualität einer Speicheranbindung aus, sondern nur etwas über deren theoretische maximale Bandbreite. Die aber von dieser Karte eh nicht ausgenutzt werden kann. Die Multiplikation der "Unified Shader" mit den "Processor Units" kann man nicht im Mindesten mit den Multiplikationsspielchen einer X1600 vergleichen, weil die Architektur nicht die gleiche ist. Das Problem dieser Karte liegt in ihrer Entstehungsgeschichte und der viel zu späten Implementierung des gemeinsam genutzten Rechenwerks. Und es wird auch nicht dasselbe multipliziert. Das Ding mit dem höheren GPU-Takt lässt sich mit den notwendigerweise höheren Taktraten der Netburst-Architektur vergleichen. Der G80 bringt mehr Rechenleistung pro Takt und Transistor. Und ist logischerweise damit auch kühler. Die höheren Taktraten sind ein Nachteil. Nur die Hausfrauen-Gilde lässt sich durch sowas beeindrucken. Und es ist schlichtweg peinlich, trotz DDR4 derartig abzustinken.
Bitte akzeptiere, dass der RV600 nicht mehr weiterentwickelt, sondern komplett umgestrickt und ersetzt wird. Das ist übrigens nicht meine Ansicht, sondern die Einsicht und Absicht von AMD selbst. Demnächst werden nämlich die 3000er Karten die 2000er ersetzen, die der selbe Griff ins Klo waren, wie seinerzeit die FX5xxx von nVidia. Der Die wurde nicht nur geshrinkt, sondern relativ umfangreich geändert. Wer sich jetzt noch so eine stromfressende Loserkarte kauft, der wird spätestens beim Erscheinen des RV670 abkotzen wie ein Tier. Dieser Chip hat dann möglicherweise das Zeug zu einem Renner, der RV600 dagegen ist jetzt schon Geschichte. Zu Recht übrigens.
Und streiten kann man sich nur über Argumente. Dieses Wischi-Waschi ohne technisches Hintergrundwissen langweilt mich zu Tode. Da wirst Du also wenig Glück haben.
@ Igor und TLS
Wie wärs mit ein bisschen Courage...? Wieso entbrennt dauernd Streit zwischen euch? Irgendwas kann echt nicht stimmen, scheint in euren Genen eingewurzelt zu sein^^
Vielleicht mal ein Machtwort? Allein von der Kompetenz ist Igor dir, TLS, weit überlegen. Lichtjahre. Wenn ich manchmal so deine Postings lese kommt mir nur ein Gedanke: "Wie kann jemand soetwas schreiben?". Haarsträubend. Ich zitiere:
"Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie." - Das ist der Widerspruch in einem Satz ;)"
Das ist KEIN Widerspruch. Nur eine Vertärkung des ersten Satzes mit einer Umformulierung im zweiten. Rhetorik nennt man sowas ;-)
Und was soll man zu dir, Igor, sagen? Du hebst teilweise echt über deine Rolle ab. Sicherlich scheinst du zu denen zu gehören, die echt Ahnung haben. Aber man muss damit nicht gleich klotzen. Dumme Sprüche helfen auch nicht. Beharlichkeit ist angesagt. Es hat keinen Sinn hier die Architektur des RV600 auswendiggelernt aufzusagen. Verstehen muss man das. Ich zweifle nicht daran, dass du es verstehst. Aber wenn ich deine Formulierungen manchmal lese finde ich, dass du viele DInge unnötig kompliziert darstellst. Wahre Kunst ist es einen Sachverhalt zu vereinfachen. Wie wäre es also mit einer sinnvolleren Diskussion, die TLS auch nachvollziehen kann? Niemand hats hier nötig mit WIssen zu prahlen. Und du TLS: Du erst recht nicht.
Vielleicht wurde ich ja erhört...^^
Beste Grüße,
Marcel
Wie wärs mit ein bisschen Courage...? Wieso entbrennt dauernd Streit zwischen euch? Irgendwas kann echt nicht stimmen, scheint in euren Genen eingewurzelt zu sein^^
Vielleicht mal ein Machtwort? Allein von der Kompetenz ist Igor dir, TLS, weit überlegen. Lichtjahre. Wenn ich manchmal so deine Postings lese kommt mir nur ein Gedanke: "Wie kann jemand soetwas schreiben?". Haarsträubend. Ich zitiere:
"Natürlich ist sie nicht ausgereift. Noch nicht einmal gereift ist sie." - Das ist der Widerspruch in einem Satz ;)"
Das ist KEIN Widerspruch. Nur eine Vertärkung des ersten Satzes mit einer Umformulierung im zweiten. Rhetorik nennt man sowas ;-)
Und was soll man zu dir, Igor, sagen? Du hebst teilweise echt über deine Rolle ab. Sicherlich scheinst du zu denen zu gehören, die echt Ahnung haben. Aber man muss damit nicht gleich klotzen. Dumme Sprüche helfen auch nicht. Beharlichkeit ist angesagt. Es hat keinen Sinn hier die Architektur des RV600 auswendiggelernt aufzusagen. Verstehen muss man das. Ich zweifle nicht daran, dass du es verstehst. Aber wenn ich deine Formulierungen manchmal lese finde ich, dass du viele DInge unnötig kompliziert darstellst. Wahre Kunst ist es einen Sachverhalt zu vereinfachen. Wie wäre es also mit einer sinnvolleren Diskussion, die TLS auch nachvollziehen kann? Niemand hats hier nötig mit WIssen zu prahlen. Und du TLS: Du erst recht nicht.
Vielleicht wurde ich ja erhört...^^
Beste Grüße,
Marcel
Ich bin zu 100% auf Igors seite.
@Checkdisc:
Was soll er denn sonst sagen wenn TLS nicht anders verstehen will? Da hilft nur noch, die ganze Architektur mal aufzuzählen, denn alle
"Argumente" die man dadrauf noch bringen kann sind Fanboy-gelaber und Unsinn.
"Wie wärs mit ein bisschen Courage...? Wieso entbrennt dauernd Streit zwischen euch? Irgendwas kann echt nicht stimmen, scheint in euren Genen eingewurzelt zu sein^^"
Vielleicht hat TLS das ATI-Gen und Igor das Nvidia-Gen ^^.
@Checkdisc:
Was soll er denn sonst sagen wenn TLS nicht anders verstehen will? Da hilft nur noch, die ganze Architektur mal aufzuzählen, denn alle
"Argumente" die man dadrauf noch bringen kann sind Fanboy-gelaber und Unsinn.
"Wie wärs mit ein bisschen Courage...? Wieso entbrennt dauernd Streit zwischen euch? Irgendwas kann echt nicht stimmen, scheint in euren Genen eingewurzelt zu sein^^"
Vielleicht hat TLS das ATI-Gen und Igor das Nvidia-Gen ^^.
Da hab ich ja n schönes Thema angeschnitten. ;)
Find des aber echt cool dass die Leute sich so gut auskennen und sich auch damit beschäftigen.
[Sprüche-Modus_on]
ATI ist günstiger, aber Qualität hat immernoch seinen Preis find ich.
Find des aber echt cool dass die Leute sich so gut auskennen und sich auch damit beschäftigen.
[Sprüche-Modus_on]
ATI ist günstiger, aber Qualität hat immernoch seinen Preis find ich.
Ich versuche mich eigentlich immer so einfach wie möglich auszudrücken. Manche Dinge kann man nun leider nicht wie bei der Maus beschreiben. Oder vielleicht doch?
...Das ist der Klaus. Der Klaus hat eine neue Grafikkarte. Und weil der Klaus ein Fanboy ist, stehen auf der Karte drei statt 6 Buchstaben. A, T und I. Außerdem hat der Klaus gehört, das in der Karte 320 kleine Rechenzentralen mit kleinen Männchen eingebaut sind, welche die Grafik berechnen und die Farbe der Punkte, die der Klaus dann am Monitor sieht.
Und das ist der Igor. Der Igor erklärt dem Klaus, dass es ja nicht wirklich 320 unabhängige Rechenzentralen sind, die selbständig und parallel verschiedene Aufgaben erledigen können, sondern nur insgesamt 320 Arbeitsplätze, die sich jedoch auf 80 Rechenzimmer verteilen. Wobei sich also in jedem Raum dann 4 Männchen den Platz teilen und gemeinsam an einer Aufgabe tüfteln. Somit können nicht 320, sondern nur 80 Dinge parallel erledigt werden. Jede Aufgabe kann zwar theoretisch schneller erledigt werden, aber oft genug sind, wie im wahren Leben auch, nicht alle Kollegen für eine Aufgabe voll ausgelastet. Und während bei den Karten mit den 6 Buchstaben, 96 Rechenzimmern und einem Männchen pro Zimmer jeder solange arbeitet, bis er fertig ist und dann sofort was neues anfängt, wird bei der Karte mit den 3 Buchstaben der Sozialismus wiederbelebt.
Jedes der 80 Rechenkollektive bekommt eine gemeinsame Aufgabe, so dass jeweils 4 Männchen mit der gleichen Aufgabe schäftigt sind. Da kann es natürlich passieren, dass sich 2 oder 3 von den 4 Männchen langweilen, obwohl sie eigentlich schon was anderes machen könnten. Aber man gibt die Arbeit ja gemeinsam ab. Solange können die 3-Buchstaben-Männchen die Beine hochlegen und aufschnaufen.
Das gefällt dem Klaus aber nicht, weil der Igor seine neue Karte so schlecht macht. Und deshalb ist der Klaus jetzt bockig...
Technisch gesehen auch nicht ganz korrekt und viel zu grob beschrieben, aber wenn das jetzt auch keiner versteht, dann fällt mir auch nichts mehr ein.
Vielleicht hat TLS das ATI-Gen und Igor das Nvidia-Gen ^^.
Ich habe jetzt maximal das Nachhause-Ge(h)n, da jetzt endlich Feierabend ist. Ich habe übrigens kein Problem mit ATI Karten als solchen (hatte selbst mal sowas), aber ich denke leistungsorientiert und selbständig. Das schließt ein, dass ich nicht alles glaube, was auf Schachteln steht, sondern viele Dinge erst mal hinterfage. Und dann wirds für das eine oder andere produkt eben eng. Aus die Maus.
...Das ist der Klaus. Der Klaus hat eine neue Grafikkarte. Und weil der Klaus ein Fanboy ist, stehen auf der Karte drei statt 6 Buchstaben. A, T und I. Außerdem hat der Klaus gehört, das in der Karte 320 kleine Rechenzentralen mit kleinen Männchen eingebaut sind, welche die Grafik berechnen und die Farbe der Punkte, die der Klaus dann am Monitor sieht.
Und das ist der Igor. Der Igor erklärt dem Klaus, dass es ja nicht wirklich 320 unabhängige Rechenzentralen sind, die selbständig und parallel verschiedene Aufgaben erledigen können, sondern nur insgesamt 320 Arbeitsplätze, die sich jedoch auf 80 Rechenzimmer verteilen. Wobei sich also in jedem Raum dann 4 Männchen den Platz teilen und gemeinsam an einer Aufgabe tüfteln. Somit können nicht 320, sondern nur 80 Dinge parallel erledigt werden. Jede Aufgabe kann zwar theoretisch schneller erledigt werden, aber oft genug sind, wie im wahren Leben auch, nicht alle Kollegen für eine Aufgabe voll ausgelastet. Und während bei den Karten mit den 6 Buchstaben, 96 Rechenzimmern und einem Männchen pro Zimmer jeder solange arbeitet, bis er fertig ist und dann sofort was neues anfängt, wird bei der Karte mit den 3 Buchstaben der Sozialismus wiederbelebt.
Jedes der 80 Rechenkollektive bekommt eine gemeinsame Aufgabe, so dass jeweils 4 Männchen mit der gleichen Aufgabe schäftigt sind. Da kann es natürlich passieren, dass sich 2 oder 3 von den 4 Männchen langweilen, obwohl sie eigentlich schon was anderes machen könnten. Aber man gibt die Arbeit ja gemeinsam ab. Solange können die 3-Buchstaben-Männchen die Beine hochlegen und aufschnaufen.
Das gefällt dem Klaus aber nicht, weil der Igor seine neue Karte so schlecht macht. Und deshalb ist der Klaus jetzt bockig...
Technisch gesehen auch nicht ganz korrekt und viel zu grob beschrieben, aber wenn das jetzt auch keiner versteht, dann fällt mir auch nichts mehr ein.
Vielleicht hat TLS das ATI-Gen und Igor das Nvidia-Gen ^^.
Ich habe jetzt maximal das Nachhause-Ge(h)n, da jetzt endlich Feierabend ist. Ich habe übrigens kein Problem mit ATI Karten als solchen (hatte selbst mal sowas), aber ich denke leistungsorientiert und selbständig. Das schließt ein, dass ich nicht alles glaube, was auf Schachteln steht, sondern viele Dinge erst mal hinterfage. Und dann wirds für das eine oder andere produkt eben eng. Aus die Maus.
"Vielleicht hat TLS das ATI-Gen und Igor das Nvidia-Gen ^^.
Ich habe jetzt maximal das Nachhause-Ge(h)n, da jetzt endlich Feierabend ist. Ich habe übrigens kein Problem mit ATI Karten als solchen (hatte selbst mal sowas), aber ich denke leistungsorientiert und selbständig. Das schließt ein, dass ich nicht alles glaube, was auf Schachteln steht, sondern viele Dinge erst mal hinterfage. Und dann wirds für das eine oder andere produkt eben eng. Aus die Maus."
Das war ja auch nicht ernst gemeint.
Ich habe jetzt maximal das Nachhause-Ge(h)n, da jetzt endlich Feierabend ist. Ich habe übrigens kein Problem mit ATI Karten als solchen (hatte selbst mal sowas), aber ich denke leistungsorientiert und selbständig. Das schließt ein, dass ich nicht alles glaube, was auf Schachteln steht, sondern viele Dinge erst mal hinterfage. Und dann wirds für das eine oder andere produkt eben eng. Aus die Maus."
Das war ja auch nicht ernst gemeint.
@ Igor: Und schon geht die Diskussion wieder los...
Ich habe deine Argumente schon verstanden. Und genauso hab ichs auch gemeint :) Gut, warten wir ab, was mit der HD 3800-Serie wird ok? ;)
Ich habe deine Argumente schon verstanden. Und genauso hab ichs auch gemeint :) Gut, warten wir ab, was mit der HD 3800-Serie wird ok? ;)
*g* des mit dem Klaus und dem Igor ist gut :) würde sogar mein Bruder verstehen. Naja, vllt nich ganz aber ich verklicker des mal so weiter.
@ all
Geht doch^^ Sowas will ich sehen: Saubere Diskussionen, keine billigen Schlammschlachten und Weiberorgien.
Greets,
Marcel
Geht doch^^ Sowas will ich sehen: Saubere Diskussionen, keine billigen Schlammschlachten und Weiberorgien.
Greets,
Marcel
Logge dich ein um einen Beitrag zu schreiben.