Geändert von BeerWulf (11.03.2008 um 21:00 Uhr)
....ich sachs ja, erst die spielebenchmarks zeigen das potential einer karte und diese karte hier ist für eine gtx der neuen generation echt schlecht und da sind wir bei dem interview und bei der beschnittenen speicheranbindung... ich glaub die heben sich das bessere speicherinterface für die dx11 karten auf um gegenüber ati ein besseres kaufargumtent zuhaben, also wirklich alles marketing!
Eine echte neue GPU-Generation von nVidia kommt erst 3-4Quartal (G100), im Juni kommt die HD-4000 und GT200.
Also dauert das wohl noch was bis man endlich mal wieder viel mehr Leistung im Vergleich zu den alten Karten bekommt.
Quelle: Hardware-Infos
Nur zu erklärung die G100 wird besser als der G200? Und das soll mal ein Mensch verstehen!
Edit: Wehe wen da nicht mindesten ein 364 Bit Speicherinterface drin ist sonst drehe ich durch! Kann doch nicht so schwere sein ein größeres Speicherinterface zu entwicklern und einzubaun.
McRib
Geändert von McRib (12.03.2008 um 16:31 Uhr)
Bei dem G100 handelt es sich um einen GPU (Grafikkartenchip). Der momentan gängige ist der G92, der in den neuen 88GT/S zu finden ist und in der neuner Reihe unter anderem (nicht bei allen die 96GT hat den schlechteren G94).
Die GT200 is ne Graka, auf welchem Chipsatz sie basiert weiss ich nicht.
Mit dem G94, der schlechter als der G92 is, das is ne Abzocke. Damit werden die Leute reingelegt, von wegen ultra Chip für weniger Geld.
Geändert von McRib (12.03.2008 um 17:40 Uhr)
Auch merkwürdig, entgegen den Infos auf Hardware-Infos steht hier, dass der GT200 selbst auch als G100 oder D10E gehandelt wird.
Auf Hardware Infos steht, dass es sich bei der GT200 um eine stark aufgewertete GF8/GF9-Karte handelt, der der G100-Chip in Form des wirklichen neuen Next-Generation-Chip im dritten oder vierten Quartal erst folgt.
Wat denn nu?!? :confused:
Weiterhin steht da aber auch, dass auch die GT200 erst im dritten oder vierten Quartal kommen soll...
Son Speicherinterface braucht man überhaupt nicht, solange, wie im Augenblick z.B. 256bit SI aber extremer Speichertakt, da ist das genauso gut. Solange der Speichertakt so hoch bleibt, braucht man kein breiteres Interface als das 256bit.Edit: Wehe wen da nicht mindesten ein 364 Bit Speicherinterface drin ist sonst drehe ich durch! Kann doch nicht so schwere sein ein größeres Speicherinterface zu entwicklern und einzubaun.
Oder glaubst die Radeon HD2900XT ist gut, nur weil die 512bit SI hat?