Hi ihr computerspezies^^
ich würde gerne wissen welcher der folgenden beiden Prozessoren besser/leistungsstärker ist:
core2 duo xtreme x-87 e8400 bis zu 2x 3,6 ghz
oder
core2 quad prozessor q6700 4x 2,66ghz
Dann hätt ich noch ne frage bezüglich zweier grafikkarten:
1024mb nvidia geforce 9800gx2
oder
radeon HD4870 512mb gddr-5
welche wär den von denen die bessere?
ich danke euch für die antworten
ich würde gerne wissen welcher der folgenden beiden Prozessoren besser/leistungsstärker ist:
core2 duo xtreme x-87 e8400 bis zu 2x 3,6 ghz
oder
core2 quad prozessor q6700 4x 2,66ghz
Dann hätt ich noch ne frage bezüglich zweier grafikkarten:
1024mb nvidia geforce 9800gx2
oder
radeon HD4870 512mb gddr-5
welche wär den von denen die bessere?
ich danke euch für die antworten
@ Tazz2:
Also es kommt auf den Einsatzzweck an!
Aber brauchst du einen zukunftsfähigen Rechner, solltest du eindeutig zum Q6700 greifen! Denn der taktet schneller als ein Q6600 und Quadcore wird in vielen kommenden Spielen (u.a. Alan Wake, Far Cry 2, Crysis schon längst, UT 3 etc) unterstützt und bei Alan Wake sogar Pflicht für volle Effekte sein.
Es wird demnächst dann sogar Spiele geben, die die ersten 8Kerner unterstützen und auch ordentlich nutzen können. Man darf gespannt sein.
Es war schon immer so, dass die Software der Hardware immer um 2-3 Jahre hinterherhinkt. Wenn du jetzt noch einen Dualcore kaufst, brauchst du in ca. 2 Jahren einen neuen Rechner. Selbst wenn er mit 3,6 Ghz läuft!
Wenn du lieber jetzt nochmal richtig Gas geben willst und auf die Zukunftsfähigkeit pfeifst, dann holste dir halt den schnellen Dualcore.
Aber denk dran. Nach 2 Jahren brauchste dann nen neuen, weil Quad auch irgendwann für Spiele zur Pflicht wird für gute Effekte!
Spätestens dann, wenn erste 16 Kerner herauskommen (ca. Mitte 2010!), und du dann noch mit nem Dual rumgurkst, wirste nicht mehr weit kommen! Dann wird es nämlich so ähnlich aussehen für Spiele:
Singlecore: Keine Unterstützung mehr /zu langsam!
Dualcore: Nur mit minimalen Effekten ruckelfrei
Quadcore: Mit fast allen Effekten ruckelfrei spielbar
Octocore: Mit vollen Effekten ruckelfrei spielbar
16-Core: Wird schon unterstützt, läuft aber auch nur mit 8 Kernen
So in etwa wird es dann auf den Spielepackungen aussehen. Nix mehr mit AMD Athlon 3000+ benötigt. Das gibts dann nicht mehr. Viele Spiele werden als Minimum einen Dualcore fordern.
Und wenn man jetzt nochmal die 2-3 Jahre Verzögerung der Software zur Seite zieht, sieht man, dass diese Zeit fast schon abgelaufen ist, was bedeutet, dass in wenigen Monaten die Revolution beginnt. Schließlich kam der erste Quad vor ca. 2 Jahren raus! Im Jahre 2006, im November war es glaub ich. Und das ist fast 2 Jahre her, also noch wenige Monate, dann kommen auch schon bald die ersten Octocores!
Also es kommt auf den Einsatzzweck an!
Aber brauchst du einen zukunftsfähigen Rechner, solltest du eindeutig zum Q6700 greifen! Denn der taktet schneller als ein Q6600 und Quadcore wird in vielen kommenden Spielen (u.a. Alan Wake, Far Cry 2, Crysis schon längst, UT 3 etc) unterstützt und bei Alan Wake sogar Pflicht für volle Effekte sein.
Es wird demnächst dann sogar Spiele geben, die die ersten 8Kerner unterstützen und auch ordentlich nutzen können. Man darf gespannt sein.
Es war schon immer so, dass die Software der Hardware immer um 2-3 Jahre hinterherhinkt. Wenn du jetzt noch einen Dualcore kaufst, brauchst du in ca. 2 Jahren einen neuen Rechner. Selbst wenn er mit 3,6 Ghz läuft!
Wenn du lieber jetzt nochmal richtig Gas geben willst und auf die Zukunftsfähigkeit pfeifst, dann holste dir halt den schnellen Dualcore.
Aber denk dran. Nach 2 Jahren brauchste dann nen neuen, weil Quad auch irgendwann für Spiele zur Pflicht wird für gute Effekte!
Spätestens dann, wenn erste 16 Kerner herauskommen (ca. Mitte 2010!), und du dann noch mit nem Dual rumgurkst, wirste nicht mehr weit kommen! Dann wird es nämlich so ähnlich aussehen für Spiele:
Singlecore: Keine Unterstützung mehr /zu langsam!
Dualcore: Nur mit minimalen Effekten ruckelfrei
Quadcore: Mit fast allen Effekten ruckelfrei spielbar
Octocore: Mit vollen Effekten ruckelfrei spielbar
16-Core: Wird schon unterstützt, läuft aber auch nur mit 8 Kernen
So in etwa wird es dann auf den Spielepackungen aussehen. Nix mehr mit AMD Athlon 3000+ benötigt. Das gibts dann nicht mehr. Viele Spiele werden als Minimum einen Dualcore fordern.
Und wenn man jetzt nochmal die 2-3 Jahre Verzögerung der Software zur Seite zieht, sieht man, dass diese Zeit fast schon abgelaufen ist, was bedeutet, dass in wenigen Monaten die Revolution beginnt. Schließlich kam der erste Quad vor ca. 2 Jahren raus! Im Jahre 2006, im November war es glaub ich. Und das ist fast 2 Jahre her, also noch wenige Monate, dann kommen auch schon bald die ersten Octocores!
vielen dank für diese sehr informative antwort thelastsmurf. ich hoffe natürlich auf noch mehr antworten.
kannst du zufällig auch was zu den grafikkarten sagen?
"Wenn du lieber jetzt nochmal richtig Gas geben willst und auf die Zukunftsfähigkeit pfeifst, dann holste dir halt den schnellen Dualcore."
also heißt das, dass im direkten vergleich und vom jetzigen stand der dual schneller ist?
kannst du zufällig auch was zu den grafikkarten sagen?
"Wenn du lieber jetzt nochmal richtig Gas geben willst und auf die Zukunftsfähigkeit pfeifst, dann holste dir halt den schnellen Dualcore."
also heißt das, dass im direkten vergleich und vom jetzigen stand der dual schneller ist?
TLS, da kann man keine Routine anwenden. Mann kann bei sowas nicht einfach die Zeit hochrechnen. Und UT3 oder Crysis spiel ich auf (für XP) höchsten Einstellungen, also da brauchts keinen Quad. Btw würde ich aber auch zum Quad tendieren, ist einfach Zukunftssicherer.
Imo ist der dualcore dank des höheren Takts in Spielen noch besser als der Quad, da noch so gut wie keine Spiele eine Multicore-Unterstützung haben.
Aber der Quad ist halt wie TLS sagt zukunftssicherer, da solche Spiele demnächst kommen werden.
Beim Entpacken und bei der Videobearbeitung ist der Quad jetzt schon schneller als der Dualcore.
Der E8400 hat aber nicht bis zu 3,6GHz. Er hat einen Standardtakt von 3GHz. Man kann ihn lediglich auf 3,6GHz (und mehr) übertakten.
Bei den Grafikkarten würde ich die HD4870 empfehlen.
Aber der Quad ist halt wie TLS sagt zukunftssicherer, da solche Spiele demnächst kommen werden.
Beim Entpacken und bei der Videobearbeitung ist der Quad jetzt schon schneller als der Dualcore.
Der E8400 hat aber nicht bis zu 3,6GHz. Er hat einen Standardtakt von 3GHz. Man kann ihn lediglich auf 3,6GHz (und mehr) übertakten.
Bei den Grafikkarten würde ich die HD4870 empfehlen.
ok danke erst mal
aber warum würdest du zur hd4870 tendieren. gibts da nen großen unterschied zwischen dieser und der 1024mb nvidia geforce 9800gx2. die hat doch immerhin 1024mb
aber warum würdest du zur hd4870 tendieren. gibts da nen großen unterschied zwischen dieser und der 1024mb nvidia geforce 9800gx2. die hat doch immerhin 1024mb
Mehr Speicher bedeutet nicht immer bessere Grafikkarte. Es gibt auch ganz schwache Grakas mit viel Speicher.
Die 9800GX2 ist eine Dual-GPU-Karte. Also eine Grafikkarte mit 2 Grafikprozessoren (GPU). Somit ist sie im Prinzip das gleiche wie ein SLI/Crossfire Verbund. Beim SLI/CF werden 2 einzelne Karten mit Hilfe einer Bridge zusammengeschlossen. Hier sind die beiden GPUs eben nur auf einer Grafikkarte.
Aber das Problem ist das gleiche:
Beim SLI/CF gibt es Probleme ziwschen Kommunikation der beiden GPUs. Dadurch enstehen Mikroruckler. Du hast dann zwar viele FPS (ab 30FPS läuft ein Spiel flüssig) aber das Spiel wird trotzdem ruckeln.
Deswegen rate ich von der 9800GX2 ab. Zudem verbraucht sie massig Strom und wird auch recht heiß.
Es gibt ein Programm welches diese Mikrorukler simuliert, damit man weiß wie sich auswirken: klick
Kannst du ja mal ausprobieren.
Die HD4870 ist ähnlich schnell wie die 9800GX2. Aber sie hat eben nur eine GPU und somit gibts da auch nicht das Problem mit den Mikrorucklern. Außerdem schluckt sie weniger Strom.
EIne weitere Alternative wäre die GTX 260. Diese ist etwa auf einem Level mit der HD4870 (sogar leicht schneller laut CB-Test) und verbaucht weniger Strom (v.a. im Leerlauf). Und kühler ist sie auch noch.
Die GTX 260 ist aber leicht teurer als die HD4870.
Bei der Wahl zwischen HD4870 und GTX 260 würde ich aufjedenfall die GTX 260 empfehlen.
Bevor du die 9800GX2 nimmst, dann lieber die HD4870. Wenn du die Möglichkeit auf eine GTX 260 hast, solltest du diese nehmen.
Die 9800GX2 ist eine Dual-GPU-Karte. Also eine Grafikkarte mit 2 Grafikprozessoren (GPU). Somit ist sie im Prinzip das gleiche wie ein SLI/Crossfire Verbund. Beim SLI/CF werden 2 einzelne Karten mit Hilfe einer Bridge zusammengeschlossen. Hier sind die beiden GPUs eben nur auf einer Grafikkarte.
Aber das Problem ist das gleiche:
Beim SLI/CF gibt es Probleme ziwschen Kommunikation der beiden GPUs. Dadurch enstehen Mikroruckler. Du hast dann zwar viele FPS (ab 30FPS läuft ein Spiel flüssig) aber das Spiel wird trotzdem ruckeln.
Deswegen rate ich von der 9800GX2 ab. Zudem verbraucht sie massig Strom und wird auch recht heiß.
Es gibt ein Programm welches diese Mikrorukler simuliert, damit man weiß wie sich auswirken: klick
Kannst du ja mal ausprobieren.
Die HD4870 ist ähnlich schnell wie die 9800GX2. Aber sie hat eben nur eine GPU und somit gibts da auch nicht das Problem mit den Mikrorucklern. Außerdem schluckt sie weniger Strom.
EIne weitere Alternative wäre die GTX 260. Diese ist etwa auf einem Level mit der HD4870 (sogar leicht schneller laut CB-Test) und verbaucht weniger Strom (v.a. im Leerlauf). Und kühler ist sie auch noch.
Die GTX 260 ist aber leicht teurer als die HD4870.
Bei der Wahl zwischen HD4870 und GTX 260 würde ich aufjedenfall die GTX 260 empfehlen.
Bevor du die 9800GX2 nimmst, dann lieber die HD4870. Wenn du die Möglichkeit auf eine GTX 260 hast, solltest du diese nehmen.
Vielen Dank für die schöne und ausführliche Erklärung LastMission. Dann wär das mal ne überlegung wert zwischen der HD und der GTX.
Aber eines hätt ich da noch:
Welche ist denn z.Z. die beste und schnellste Grafikkarte auf dem Markt. Ist das die GTX 260? Und wenn nicht, inwieweit wär denn die schnellste Karte "schneller" als die GTX 260. Würde man einen Unterschied merken, würde es sich lohnen?
Aber eines hätt ich da noch:
Welche ist denn z.Z. die beste und schnellste Grafikkarte auf dem Markt. Ist das die GTX 260? Und wenn nicht, inwieweit wär denn die schnellste Karte "schneller" als die GTX 260. Würde man einen Unterschied merken, würde es sich lohnen?
die momentan schnellste single-graka (1 GPU) ist die GTX 280. Sozusagen der große Bruder der GTX 260. Mit der kann keine andere Graka mit einer GPU mithalten.
Sie ist schon noch eine Ecke schneller als die GTX 260. Vllt so ~15-20% schneller. Sie kostet jedoch 120€ mehr als die billigste GTX 260 (GTX 280: 320€-GTX 260: 200€). Dieser Aufpreis ist (wie ich finde) für 15-20% Mehrleistung zu hoch. Also ich finde das lohnt sich nicht. Dazu verbraucht sie 40Watt mehr unter Last.
Man wird bei den jetzigen Spielen bei Auflösungen um die 1280x1024 gar keinen Unterschied merken. Denn flüssiger als flüssig geht eben nicht. Man hat mit der GTX 280 zwar etwas mehr FPS aber ab 30FPS läuft sowieso jedes Spiel flüssig. Und ob man nun 90 oder 100FPS hat ist letztendlich egal.
Die GTX 280 hat dann eben für die Zukunft ein paar mehr Reserven.
Den einzigen wirklichen Unterschied zwischen den beiden Karten wirst du auf der Stromrechnung bemerken, denn diese wird mit der GTX 280 höher sein :)
Wenn dann i-wann die grafisch hochwertigen Spiele rauskommen mit denen die GTX 260 Probleme hat zahlt sich die GTX 280 unter Umständen schon aus, weil man mit der das Spiel vllt gerade noch ruckelfrei genießen kann und mit der GTX 260 eben nicht mehr. Aber wenns so weit ist wird wahrscheinlich auch die GTX 280 Probleme haben.
Aber zum jetzigen Zeitpunkt bist du mit einer GTX 260 gut beraten, da der Aufpreis zur GTX 280 doch recht hoch ist. Auch mit der GTX 260 wirst du alle Spiele locker ruckelfrei genießen können und ich denke das wird sich auch nicht so schnell ändern in nächster Zeit. Iwann kommt natürlich auch wieder die Zeit in der eine GTX 260/280 veraltet ist und es wieder neue High-End Modelle gibt. Ist aber immer so auf dem Hardware-Markt.
Hier ist ein Test über die ganzen Grafikkarten: klick
kannst dir ja mal durchschauen.
edit:
btw: Wenn du noch etwas Zeit hast, kannst du noch bist mitte September warten und dann zuschlagen. Denn da will nVIDIA eine verbesserte Version der GTX 260 auf den Markt werfen. Die wird dann noch schneller sein.
Hier nachzulesen: klick
Sie ist schon noch eine Ecke schneller als die GTX 260. Vllt so ~15-20% schneller. Sie kostet jedoch 120€ mehr als die billigste GTX 260 (GTX 280: 320€-GTX 260: 200€). Dieser Aufpreis ist (wie ich finde) für 15-20% Mehrleistung zu hoch. Also ich finde das lohnt sich nicht. Dazu verbraucht sie 40Watt mehr unter Last.
Man wird bei den jetzigen Spielen bei Auflösungen um die 1280x1024 gar keinen Unterschied merken. Denn flüssiger als flüssig geht eben nicht. Man hat mit der GTX 280 zwar etwas mehr FPS aber ab 30FPS läuft sowieso jedes Spiel flüssig. Und ob man nun 90 oder 100FPS hat ist letztendlich egal.
Die GTX 280 hat dann eben für die Zukunft ein paar mehr Reserven.
Den einzigen wirklichen Unterschied zwischen den beiden Karten wirst du auf der Stromrechnung bemerken, denn diese wird mit der GTX 280 höher sein :)
Wenn dann i-wann die grafisch hochwertigen Spiele rauskommen mit denen die GTX 260 Probleme hat zahlt sich die GTX 280 unter Umständen schon aus, weil man mit der das Spiel vllt gerade noch ruckelfrei genießen kann und mit der GTX 260 eben nicht mehr. Aber wenns so weit ist wird wahrscheinlich auch die GTX 280 Probleme haben.
Aber zum jetzigen Zeitpunkt bist du mit einer GTX 260 gut beraten, da der Aufpreis zur GTX 280 doch recht hoch ist. Auch mit der GTX 260 wirst du alle Spiele locker ruckelfrei genießen können und ich denke das wird sich auch nicht so schnell ändern in nächster Zeit. Iwann kommt natürlich auch wieder die Zeit in der eine GTX 260/280 veraltet ist und es wieder neue High-End Modelle gibt. Ist aber immer so auf dem Hardware-Markt.
Hier ist ein Test über die ganzen Grafikkarten: klick
kannst dir ja mal durchschauen.
edit:
btw: Wenn du noch etwas Zeit hast, kannst du noch bist mitte September warten und dann zuschlagen. Denn da will nVIDIA eine verbesserte Version der GTX 260 auf den Markt werfen. Die wird dann noch schneller sein.
Hier nachzulesen: klick
Noch mal ein großes Dankeschön an dich LastMission. Das hast du echt wunderbar ausführlich erklärt. Deine Links sind auch super, hab mir auch schon alles durchgelesen.
Aber beim Test der Grakas schneidet die HD 4870 CF meist immer besser ab als die GTX 280. Naja liegt wohl am Game. Kann ja immer anders sein.
Tja muss sagen das mit der neuen GTX 260 hört sich gut an. Dann werd ich wohl noch ca. 2 Wochen warten.
Aber beim Test der Grakas schneidet die HD 4870 CF meist immer besser ab als die GTX 280. Naja liegt wohl am Game. Kann ja immer anders sein.
Tja muss sagen das mit der neuen GTX 260 hört sich gut an. Dann werd ich wohl noch ca. 2 Wochen warten.
Aufpassen:
"HD 4870 CF" sind 2 HD4870 im Crossfire-Modus.
CF = Crossfire
CF ist das gleiche wie SLI nur das es von ATI ist, SLI ist von nVIDIA.
2 Karten im SLI/CF-Modus und Dual-GPU Karten kannst du schlecht mit Grakas mit nur einer GPU vergleichen.
Du musst in dem Test auf die ganz normale HD4870 schauen, nicht auf die HD4870 CF, wenn du sie mit der GTX 260 vergleichen willst.
Dne Nachteile von CF und SLI hab ich oben anhand der 9800GX2 erklärt.
Die HD4870 gibt es übrigens auch als Dual-GPU Karte. Heißt HD4870X2. Ähnlich wie die 9800GX2.
"HD 4870 CF" sind 2 HD4870 im Crossfire-Modus.
CF = Crossfire
CF ist das gleiche wie SLI nur das es von ATI ist, SLI ist von nVIDIA.
2 Karten im SLI/CF-Modus und Dual-GPU Karten kannst du schlecht mit Grakas mit nur einer GPU vergleichen.
Du musst in dem Test auf die ganz normale HD4870 schauen, nicht auf die HD4870 CF, wenn du sie mit der GTX 260 vergleichen willst.
Dne Nachteile von CF und SLI hab ich oben anhand der 9800GX2 erklärt.
Die HD4870 gibt es übrigens auch als Dual-GPU Karte. Heißt HD4870X2. Ähnlich wie die 9800GX2.
Achso ok^^
Ne das SLI kannte ich ja nur die abk. CF war mir neu. ATI also...
Kannst dir jetzt wohl denken das ich nur Nvidia karten benutzt hab^^
Ne das SLI kannte ich ja nur die abk. CF war mir neu. ATI also...
Kannst dir jetzt wohl denken das ich nur Nvidia karten benutzt hab^^
16er wird es seitens AMD/Intel nie geben. Diese sind eher was für Server.
@$s4rFight3er:
16er was? 16 Kerne oder wie? Oder von was redest du?
16er was? 16 Kerne oder wie? Oder von was redest du?
Soory: Meinte 16 Kerne, hab nur oben davon was gelesen. Wer braucht auch schon sowas?
$t4rFight3r:
Nunja, noch braucht man sowas nicht, klar. Aber man könnte zum Beispiel damit den Berechnungen von Boinc und Co. auf die Sprünge helfen. Das würde schon etwas nützen, aber der Stromverbrauch wäre auch wieder so ne Sache. Man zahlt ja dafür. Und 16 Kerner werden bestimmt die 140-150 Watt Marke sprengen, egal wieviel Takt die haben. Weil 16 Kerne nunmal ca. pro Kern min. 7-8 Watt brauchen werden, also ergibt das schonmal locker 115-120 Watt.
Aber wenn man jetzt sagt: Das braucht man nicht, dann warte mal ab, wie lange es dauert, bis das Standard werden wird. Eventuell in 5-8 Jahren hat jeder 2./3.PC sowas vermutlich schon. Wenns dann die ersten 32/64 Kerner gibt ;) Obwohl das auch noch in den Sternen steht, ob die wirklich rauskommen werden...
Prinzipiell kann man aber nie genug Rechenleistung haben.
Und in Zukunft gibts bestimmt auch bald neue Anwendungsmöglichkeiten dafür.
Vielleicht ist es so gedacht:
Wenn man 16 Kerne hat, könnte man z.B. ein Spiel spielen was Octocore/Manycore optimiert ist, und eben gleichzeitig immer noch die vielen verschiedenen Dinge, die man halt immer offen hat (ICQ, Virenscanner, MSN, etc etc, Internetfenster usw) laufenlassen. Das wäre dann kein Problem mehr.
Mit nem Quadcore wirds da schon eng, wenn das Spiel nämlich alle 4 Kerne für sich beansprucht. Dann bleibt kaum noch Rechenleistung übrig für ICQ, MSN, Virenscanner, Internetfenster/andere Anwendungen... Und dann läuft das halt nicht mehr so flüssig. Eventuell wird das Umschalten der Anwendungen auch zu lange dauern.
Viele sagen ja jetzt noch "Quadcore" braucht man nicht. Es wird nicht lange dauern, da wird genau der Fall eintreffen. Demnächst gibts ja schon erste Spiele, die Quadcore optimal ausnutzen können. Alan Wake steht kurz vorm Start, Far Cry 2 durchläuft schon die letzte Endphase, bevors losgeht. Und Alarmstufe 3 steht ebenfalls in den Startlöchern.
Da wird man mit nem Quad vermutlich nicht mehr ganz so flüssig alles nebenher machen können, wenn man noch nen Topgame laufenhat nebenher, was alle 4 Kerne benutzt. Da muss man dann schon etwas planen und entweder dem Spiel weniger Power zur Verfügung stellen (etwa nur 3 Kerne statt 4) oder aber nur das Spiel laufen lassen und alles andere schließen oder eben alles umgekehrt!
Nunja, noch braucht man sowas nicht, klar. Aber man könnte zum Beispiel damit den Berechnungen von Boinc und Co. auf die Sprünge helfen. Das würde schon etwas nützen, aber der Stromverbrauch wäre auch wieder so ne Sache. Man zahlt ja dafür. Und 16 Kerner werden bestimmt die 140-150 Watt Marke sprengen, egal wieviel Takt die haben. Weil 16 Kerne nunmal ca. pro Kern min. 7-8 Watt brauchen werden, also ergibt das schonmal locker 115-120 Watt.
Aber wenn man jetzt sagt: Das braucht man nicht, dann warte mal ab, wie lange es dauert, bis das Standard werden wird. Eventuell in 5-8 Jahren hat jeder 2./3.PC sowas vermutlich schon. Wenns dann die ersten 32/64 Kerner gibt ;) Obwohl das auch noch in den Sternen steht, ob die wirklich rauskommen werden...
Prinzipiell kann man aber nie genug Rechenleistung haben.
Und in Zukunft gibts bestimmt auch bald neue Anwendungsmöglichkeiten dafür.
Vielleicht ist es so gedacht:
Wenn man 16 Kerne hat, könnte man z.B. ein Spiel spielen was Octocore/Manycore optimiert ist, und eben gleichzeitig immer noch die vielen verschiedenen Dinge, die man halt immer offen hat (ICQ, Virenscanner, MSN, etc etc, Internetfenster usw) laufenlassen. Das wäre dann kein Problem mehr.
Mit nem Quadcore wirds da schon eng, wenn das Spiel nämlich alle 4 Kerne für sich beansprucht. Dann bleibt kaum noch Rechenleistung übrig für ICQ, MSN, Virenscanner, Internetfenster/andere Anwendungen... Und dann läuft das halt nicht mehr so flüssig. Eventuell wird das Umschalten der Anwendungen auch zu lange dauern.
Viele sagen ja jetzt noch "Quadcore" braucht man nicht. Es wird nicht lange dauern, da wird genau der Fall eintreffen. Demnächst gibts ja schon erste Spiele, die Quadcore optimal ausnutzen können. Alan Wake steht kurz vorm Start, Far Cry 2 durchläuft schon die letzte Endphase, bevors losgeht. Und Alarmstufe 3 steht ebenfalls in den Startlöchern.
Da wird man mit nem Quad vermutlich nicht mehr ganz so flüssig alles nebenher machen können, wenn man noch nen Topgame laufenhat nebenher, was alle 4 Kerne benutzt. Da muss man dann schon etwas planen und entweder dem Spiel weniger Power zur Verfügung stellen (etwa nur 3 Kerne statt 4) oder aber nur das Spiel laufen lassen und alles andere schließen oder eben alles umgekehrt!
Stimmt, aber an 16 Kerne glaub ich nicht. 8 Kerne sind angeschrieben. 16 Kerne für einen Heimrechner? Aber auf 8 Kerne freu ich mich irgendwie. Dann sinken die Preise für Quadcore :) Denn ich habe nur einen 3500+ mit nur einen Kern.
@ $t4rFight3er:
Bis 16 Kerne (jetzt noch 8 und danach 12, dann kommt ja schon 16) wird die Entwicklung erstmal problemlos weitergehen. Dann werdens vielleicht aber noch 20/24/32/48 Kerne. Aber dann wirds knapp und es wird wahrscheinlich wieder anders werden.
Außerdem muss man bedenken, dass, je mehr Kerne, desto niedriger muss die Taktfrequenz sein, damit der Stromverbrauch nicht zu hoch wird. Also wird ein 48 Kerner bestimmt "nur" noch mit ca. 1,5 Ghz laufen. Ist in etwa wie jetzt, wo normale Q6600er Quads halt "nur" mit 2,4 Ghz Standard laufen.
Ich schätze mal, dass in 3-4 Jahren das wirklich der Fall sein wird. Man wird zwar mit nem Quad dann noch gut spielen können, aber dann halt nichts mehr nebenher machen können (also keine DVD kodieren/MP3s umwandeln, Filme anschauen/ICQ und Virenscanner laufenlassen etc). Das Spiel wird dann bestimmt die ganze Rechenpower ausnutzen und dann noch gerade so ruckelfrei über den Bildschirm kommen, wenn die Grafikkarte natürlich auch ausreichend Power hat.
Nochmal zu deinem Octocore.
Du freust dich auf den 8Kerner, damit der Quad billiger wird? Ähm, ich will ja nichts sagen, aber allzuviel billiger wirds sicherlich nicht mehr werden. Die Q6600 laufen ja jetzt schon aus, werden nur noch ganz wenige produziert, weil die Nachfolger im Gange sind.
Ich glaube nicht, dass ein Quad später mal 50 EUR kosten wird, wenns dann 8Kerner gibt. Bestimmt kostet er dann immernoch so um die 90-100 EUR. Aktuell liegt er ja noch bei ca. 130 EUR. Ich schätze aber eher, dass der Quad dann wohl entweder a) ausverkauft/nicht mehr vorhanden ist oder b) durch einen sehr günstigen Octocore Billigvertreter ersetzt wird.
Bis 16 Kerne (jetzt noch 8 und danach 12, dann kommt ja schon 16) wird die Entwicklung erstmal problemlos weitergehen. Dann werdens vielleicht aber noch 20/24/32/48 Kerne. Aber dann wirds knapp und es wird wahrscheinlich wieder anders werden.
Außerdem muss man bedenken, dass, je mehr Kerne, desto niedriger muss die Taktfrequenz sein, damit der Stromverbrauch nicht zu hoch wird. Also wird ein 48 Kerner bestimmt "nur" noch mit ca. 1,5 Ghz laufen. Ist in etwa wie jetzt, wo normale Q6600er Quads halt "nur" mit 2,4 Ghz Standard laufen.
Ich schätze mal, dass in 3-4 Jahren das wirklich der Fall sein wird. Man wird zwar mit nem Quad dann noch gut spielen können, aber dann halt nichts mehr nebenher machen können (also keine DVD kodieren/MP3s umwandeln, Filme anschauen/ICQ und Virenscanner laufenlassen etc). Das Spiel wird dann bestimmt die ganze Rechenpower ausnutzen und dann noch gerade so ruckelfrei über den Bildschirm kommen, wenn die Grafikkarte natürlich auch ausreichend Power hat.
Nochmal zu deinem Octocore.
Du freust dich auf den 8Kerner, damit der Quad billiger wird? Ähm, ich will ja nichts sagen, aber allzuviel billiger wirds sicherlich nicht mehr werden. Die Q6600 laufen ja jetzt schon aus, werden nur noch ganz wenige produziert, weil die Nachfolger im Gange sind.
Ich glaube nicht, dass ein Quad später mal 50 EUR kosten wird, wenns dann 8Kerner gibt. Bestimmt kostet er dann immernoch so um die 90-100 EUR. Aktuell liegt er ja noch bei ca. 130 EUR. Ich schätze aber eher, dass der Quad dann wohl entweder a) ausverkauft/nicht mehr vorhanden ist oder b) durch einen sehr günstigen Octocore Billigvertreter ersetzt wird.
Denke die CPUs mit 16 Kernen werden früher oder später auch für die normalen Desktop-PCs geben.
Und i-wann wir die Zeit kommen in der man auch 16 Kerner braucht.
Was glaubst du wo wir in 5-10 Jahren sind? Ich glaube da lacht man über die heutige Hardware. Die Technik schreitet immer weiter voran. Denk doch mal jetzt 5-10 Jahre zurück....
Und i-wann wir die Zeit kommen in der man auch 16 Kerner braucht.
Was glaubst du wo wir in 5-10 Jahren sind? Ich glaube da lacht man über die heutige Hardware. Die Technik schreitet immer weiter voran. Denk doch mal jetzt 5-10 Jahre zurück....
Logge dich ein um einen Beitrag zu schreiben.