PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mikroruckler - Sinn von Multi-GPU-Lösungen fraglich



BeerWulf
09.02.2008, 07:39
Seit einigen Monaten hat die IT-Forenwelt ein neues Modewort: "Mikroruckler". Es beschreibt ein gravierendes Manko, welches den Sinn von multiplen GPUs zur Leistungssteigerung ad absurdum führt. Wir erläutern die Symptome.

Mit diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844) im 3D-Center-Forum wurde eine Welle ausgelöst, die mittlerweile fast jede hardwarebezogene Webseite erreichte. Der Tenor des Erstellers: SLI ermögliche zwar höhere Frameraten, das gefühlte Ergebnis liege aber oft nicht über den niedrigeren Fps-Raten einer Solo-Grafikkarte. Mittlerweile ist klar, dass nicht nur (Triple-)SLI, sondern auch Crossfire betroffen ist. Und wie wir im Rahmen unserer Multichrome-Tests (http://www.pcgameshardware.de/?article_id=631158) feststellten, macht es auch S3 Graphics nicht besser als AMD/Ati und Nvidia.

Darüber, wann eine Bewegung für das menschliche Auge "flüssig" erscheint, scheiden sich die Geister. Fakt ist jedoch, dass 30 Frames pro Sekunde (Fps) von fast jedem Menschen als flüssig empfunden werden. Eine Sekunde besteht aus 1.000 Millisekunden, logisch betrachtet sollte man also annehmen, dass alle 33 Millisekunden ein Frame ausgegeben wird (eine Sekunde geteilt durch die Framerate). Die Frames, also Einzelbilder, erscheinen in dieser Rechnung in regelmäßigen Intervallen, wodurch unser Auge eine harmonische, flüssige Bewegung wahrnimmt. Der Rhythmus stimmt.

Das Phänomen
Hier beginnt das offengelegte Problem: Multi-GPU-Systemen gelingt oft keine regelmäßige Ausgabe der Frames; es kommt zu großen Zeitintervallen zwischen Einzelbildern - "Mikrorucklern" -, trotz vermeintlich flüssigen Frameraten. Ein Beispiel: Auf Frame 1 folgt nach 10 Millisekunden Frame 2, was einer Kadenz von 100 Fps entspricht. Frame 3 hingegen erblickt erst nach weiteren 40 Millisekunden den Schirm, gefolgt von Frame 4 nach weiteren 10 ms. Die Folge ist fatal: Die "gefühlte" Framerate eines Multi-GPU-Systems liegt im Ernstfall unter der einer Einzelkarte, und das obwohl die angezeigten Fps höher sind. Kritisch ist dieses Verhalten primär bei niedrigen Frameraten, etwa den genannten 30 Fps. Denn je weniger Fps, desto größer sind die möglichen Intervalle zwischen ihnen und umso wichtiger wird eine regelmäßige Verteilung.

Die Messung
Um die subjektive Empfindung mit harten Fakten zu untermauern, eignet sich das nützliche Tool Fraps. Es ermöglicht nämlich die Protokollierung der "Frametimes", der Ausgabezeit eines jeden Einzelbildes. Wir können mit allen drei Multi-GPU-Technologien je nach Spiel mehr oder minder ausgeprägte Frame-Verzögerungen bestätigen. Das Problem tritt nicht überall auf und ist oft nur angedeutet vorhanden, es existieren aber kritische Fälle. Need for Speed Pro Street, Unreal Tournament 3, Crysis und der 3D Mark 06 sind prominente Beispiele. Werfen wir doch mal einen Blick (http://www.pcgameshardware.de/?menu=browser&article_id=631607&image_id=772570) auf die ersten 30 Frames (X-Achse) eines Pro-Street-Rennens.
Klar ersichtlich: Die Visualisierung der Frames einer Single-GPU gleicht einer Geraden, die Abstände zwischen Zeit und Frames ist also regelmäßig. Anders bei zwei GPUs, bei der sich "Zacken" bilden, die Verzögerungen symbolisieren. Diese Werte stammen von einer Radeon HD3870 X2, einmal mit und einmal mit deaktiviertem Onboard-Crossfire. Zwei HD3870-Karten verhalten sich identisch, Geforce-8-SLI und S27-Multichrome zeigen vergleichbare Störungen der Frameintervalle.

Videobeweis
Damit Sie sich endlich selbst ein Bild der Auswirkungen machen können, haben wir ein Video (http://ftp.pcgameshardware.de/dlpcgh.php?Mikroruckler.wmv&media) angefertigt, das mittels NfS Pro Street und UT3 zeigt, wie sich das Mikroruckeln auswirkt. Das Video gibt es Flash oder auch als hochauflösendes WMV zum Download für registrierte User. Achten Sie bei Pro Street auf die Fps-Anzeige: Das Crossfire-Setting gibt ähnliche angezeigte Frameraten aus wie die Solokarte, das Geschehen wirkt jedoch ruckeliger. Noch deutlicher ist es bei UT3: Crossfire sorgt für eine Fps-Anzeige zwischen 25 und 30, eine GPU rendert zwischen 15 und 18 Fps. Subjektiv ruckeln aber beide gleich stark, die Einzelkarte wirkt tendenziell sogar flüssiger.

Lösungen?
Zuverlässige Lösungsmethoden existieren noch nicht, AMD und Nvidia sind aber informiert. Das Problem rührt vermutlich von den überall eingesetzten Verfahren zur Aufteilung der Rechenarbeit auf mehrere GPUs. Beim Alternate Frame Rendering (AFR) berechnet jeder Grafikprozessor im Wechsel mit dem anderen ein Frame. Offenbar fehlt hier eine Instanz, die diese Frames mit einer Harmonie versieht, auf dass sie regelmäßig ausgegeben werden. Kommende Grafiktreiber könnten für das nötige Balancing sorgen.

Dazu kommt noch die bisher immernoch recht seltene Unterstützung von Multi-GPU-Lösungen bei Spielen und der höhere Stromverbrauch.
Ich bin immer noch der Meinung, dass die beste Gamerlösung - Finanzen vorausgesetzt - eine einzelne Referenz-GraKa ist.
Die Zukunft von SLI/Crossfire sehe ich weiterhin SEHR skeptisch!

zyklop
09.02.2008, 08:15
Ich denke auch, das die Zukunft eher darin liegt, ähnlich wie bei CPU´s mehrere GPU Kerne auf einer Karte zu integrieren.

alceleniel
09.02.2008, 08:42
Ich könnte, würde mir aber nie eine 2. Grafikkarte einbauen. Dann lieber eine einzelnze bessere kaufen, die meinen Ansprüchen genügt. Zumal hätte ich bei einer SLI-Lösung dann kein Platz mehr für weitere PCI-Karten (Netwerk, TV-Karte etc.)

McRib
09.02.2008, 10:08
Ich könnte, würde mir aber nie eine 2. Grafikkarte einbauen. Dann lieber eine einzelnze bessere kaufen, die meinen Ansprüchen genügt. Zumal hätte ich bei einer SLI-Lösung dann kein Platz mehr für weitere PCI-Karten (Netwerk, TV-Karte etc.)
Der Hacken dabei ist aber 2 Grafikarten sind besser (in der Leistung) als 1 Gute Karte und kostet auch weniger.

Es soll bald die erste Grafikarte mit 2 CHips geben ich weiß nur nicht welche das war. ?(

McRib

Warbeast
09.02.2008, 10:15
...naja, dann fühl ich mich in meiner meinung bestätigt, das eine einzige gute grafikkarte die beste lösung ist, schon aus energieverbrauch gründen.
ich bin eh der meinung, wenn es flüssig läuft ist gut, weil ob das nun mit 50fps oder 100fps läuft, das sieht man optisch nicht.
ausserdem kenn ich viele leute, die zwar ne gute (teure) grafikkarte haben, aber einen 08/15 monitor, der nicht mal im entferntesten die auflöung der grafikkarte ausreizen kann, also das ganze paket muss stimmen, dann muss man auch nicht immer die neuesten, leistungsstärksten technologien verwenden.

edit/
@McRib

...gab es schon früher, sogar glaub mit 4 oder 8 gpu's und aktuell die gforce 7950 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/) oder brand aktuell die HD3870 X2 (http://www.testticker.de/news/professional_computing/news20080128033.aspx).

alceleniel
09.02.2008, 10:28
Mein PC incl. Grafikkarte ist jetzt 2 Jahre alt und ich werde auf absehbare Zeit keine neue brauchen, geschweige denn eine 2. Die meisten kaufen sich doch eh nicht gleich die teuerste und beste, weil es gar nicht nötig ist.

zyklop
09.02.2008, 11:28
Ich habe mir vor einem Jahr meinen Rechner neu zusammengebaut und dabei bewußt "nur" eine Mittelklassekarte (ATI1950Pro) eingebaut. Und ich komme prima klar - ich muss nämlich nicht unbedingt jedes Game in 1800´er Auflösung spielen...^^

McRib
09.02.2008, 11:36
Warbebeast: das ist nicht richtig: 2 kleine Karten brauchen weniger Storm als eine gute Karte z.b eine Ultra Version gegen 2 GT (wen man von der Leistung ausgeht! den 2 GT brauchen mehr Storm können allerdings wesenlich mehr als eine Ultra). Preislich sind 2 auch besser den du bezahlst ein bißchen Mehr bekommst aber eindeutig mehr.

Was die Mehren Chips antrifft so dachte ich das die X2 versionen die EINZIGSTEN wären die 2 Grafikchip verwenden. Allerdings sind die noch nicht optimiert wie man nachlesen kann so das sie nicht das volle Leistung Potenziela (aktuell bei 80% von möglichen 90%) entfalten und so ist gewinnt wieder 2 Karten gegen 1 allerdings will nicht nicht abstreiten das 1 in diesem Fall weniger Storm frisst da sie bei Bedarf eine Chip abschaltet.

Zyklop: Was hat das damit zu tun? Ich spiele alle Spiele in einer Auslösung von 1680x1050 das hat den Grund weil mein Pc ein 23 Zoll monster ist und es einfach so besser Aussieht.

McRib

alceleniel
09.02.2008, 12:20
Zyklop: Was hat das damit zu tun? Ich spiele alle Spiele in einer Auslösung von 1680x1050 das hat den Grund weil mein Pc ein 23 Zoll monster ist und es einfach so besser Aussieht.

höhere Auflösung = höhere Leistungsandorderung. Nicht umsonst stellen viele die Auflösung runter, wenn sie eine zu schwache Grafikkarte haben.

Warbeast
09.02.2008, 12:33
Warbebeast: das ist nicht richtig: 2 kleine Karten brauchen weniger Storm als eine gute Karte z.b eine Ultra Version gegen 2 GT (wen man von der Leistung ausgeht! den 2 GT brauchen mehr Storm können allerdings wesenlich mehr als eine Ultra). Preislich sind 2 auch besser den du bezahlst ein bißchen Mehr bekommst aber eindeutig mehr.


...meine meinung ist dann richtig, wenn man einsieht, das eine gute grafikkarte eben nicht des ultra model sein muss, sondern man eben z.b. zur gt greift und mit einer einzigen 8800gt z.b. crysis mit 40fps dattelt und eben ein flüssiges spielen gegeben ist.
mit der ultra kommst du dann vielleicht auf 60fps und mit 2 gt's auf 70fps, kannst aber sonst keinen unterschied feststellen, weil das menschliche auge schon ab 30 fps ein flüssiges bild erscheinen lässt, dann hat man stromkosten gespart und ne menge geld an anschaffungskosten.
ich schliesse mich dann absolut zyklop's meinung an, ich muss auch nicht das letzte an auflösung usw. haben.

hier mal ein pic von der voodoo:
http://www.gallien.org/serendipity/uploads/voodoo5_6000.JPG

Exus
09.02.2008, 14:40
Wer jetzt mit dem Gedanken spielt sich eine neue GraKa zu holen, der ist mit der 8800GT mit dem Refresh G92 Chipsatz sehr gut beraten, denn diese liegt nur 6% unter der Leistung der 8800 Ultra kostet aber knapp 250,- € weniger. Mit diesem Chip hat sich GeForce sein eigenes Grab geschaufelt, da sie nicht auf die Leistungsdaten der Ultra geachtet haben und diese jetzt schon als "Ladenhüter" deklariert wurde..

Für alle anderen, die auf Multi GPU´s warten, denen kann gesagt werden, das die ersten GraKa´s mit Mehrkern GPU´s bereits für das erste Quatal '09 erwartet werden. Hier soll es dann 2 Chiparten geben. Zum einen der R2/900 und zum anderen G2/102.

Preise sind leider noch keine bekannt, allerdings rechnen AMD und Nvidia stark damit, das diese beiden Chips neue Rekorde im Benchmark aufstellen und diese nicht nur 100 Pkt, sondern gleich um mehrere 1000 Pkt vorne liegen.

Meines erachtens nach sind diese Schätzungen viel zu hoch angesiedelt, aber schauen wir doch mal, was im laufe dieses Jahres noch passieren wird. In jedem Falle freue ich mich schon auf die ersten Testergebnisse... :D

BeerWulf
09.02.2008, 17:03
Der Hacken dabei ist aber 2 Grafikarten sind besser (in der Leistung) als 1 Gute Karte und kostet auch weniger.

Es soll bald die erste Grafikarte mit 2 CHips geben ich weiß nur nicht welche das war. ?(

McRib

Naja, es kommt aber darauf an, WELCHE 2 GraKa man da mit "einer guten" vergeicht. Denn wie bei Multi-Core-CPU kann man da nicht von einer doppelten/dreifachen/vierfachen Leistung ausgehen. Da wird nix addiert, die zweite Karte unterstützt, verdoppelt aber die Leistung nicht.

2 x GF8800GT sind sicherlich sehr gut, kommen aber bestimmt nicht WEIT über die Leistung einer Ultra (ehe hier "glaub ich nicht" kommt: Beweise ;)).

Und preislich gibts bei dem Beispiel auch keinen Unterschied.

Und zu diesen X2-Stromfressern: Beim Crysis-Test (http://www.pcgameshardware.de/aid,631574/Praxis/3870_X2_Ueberraschungen_bei_Crysis-Tests/) der ATI 3870 X2 wurde im Test festgestellt, dass die 3870 X2 nur in 6 von 11 Karten schneller wird - in 5 Levels ist sie langsamer als eine Single 3870...!

f1delity
11.02.2008, 14:23
BeerWolf,

SLI bzw. Multi-GPU-Karten sind nur sinnvoll, wenn man hohe Auflösungen ab 1920x1080 bedient, für alles darunter reicht eine gute Karte.

2x 8800GT sind in Auflösungen bis 1600x1200 ca. 30% schneller als eine Ultra, danach fällt die Leistung, da erstens Speicherinterface zu klein und 2tens Ram, Vram wird bei SLI nicht addiert.

McRib
14.02.2008, 21:59
Wer jetzt mit dem Gedanken spielt sich eine neue GraKa zu holen, der ist mit der 8800GT mit dem Refresh G92 Chipsatz sehr gut beraten, denn diese liegt nur 6% unter der Leistung der 8800 Ultra kostet aber knapp 250,- € weniger. Mit diesem Chip hat sich GeForce sein eigenes Grab geschaufelt, da sie nicht auf die Leistungsdaten der Ultra geachtet haben und diese jetzt schon als "Ladenhüter" deklariert wurde..

Für alle anderen, die auf Multi GPU´s warten, denen kann gesagt werden, das die ersten GraKa´s mit Mehrkern GPU´s bereits für das erste Quatal '09 erwartet werden. Hier soll es dann 2 Chiparten geben. Zum einen der R2/900 und zum anderen G2/102.

Preise sind leider noch keine bekannt, allerdings rechnen AMD und Nvidia stark damit, das diese beiden Chips neue Rekorde im Benchmark aufstellen und diese nicht nur 100 Pkt, sondern gleich um mehrere 1000 Pkt vorne liegen.

Meines erachtens nach sind diese Schätzungen viel zu hoch angesiedelt, aber schauen wir doch mal, was im laufe dieses Jahres noch passieren wird. In jedem Falle freue ich mich schon auf die ersten Testergebnisse... :D


Quelle? Also das ist eindeutig übertrieben den die ersten X2 Karten wurde bereits getestet und habe so einige Schwäche z.b sind die Treiber nich ausgereift so das von einer Maximalen Leistung von +90% nur +80% reicht wird (im vergleich zu einer singel der gleichen Art). Und was die Mirco ruckler betrifft wird das Problem auch nicht in nächste Zeit gelöst werden evl. wird damit ein Sli verbund unsinnig.

McRib

BeerWulf
14.02.2008, 22:26
Diese News passt zum Thema, und spiegelt meine Meinung wieder:

Nvidia-Chef hält Single-GPU-Karten für die bessere High-End-Lösung (http://www.pcgameshardware.de/aid,632367/News/Nvidia-Chef_haelt_Single-GPU-Karten_fuer_die_bessere_High-End-Loesung/)

McRib
15.02.2008, 15:19
danke Beerwulf dann weiß ich was ich mir als nächste Kaufen werde.

McRib

BeerWulf
19.02.2008, 19:27
PCGames HW hat weiter getestet und bietet eine Lösungsmöglichkeit für das Problem...

Mehr (http://www.pcgameshardware.de/aid,632763/Test/Benchmark/PCGH_Exklusiv_Multi-GPU_-_wenn_Mikroruckler_zu_Makrorucklern_verkommen/)

McRib
20.02.2008, 22:58
PCGames HW hat weiter getestet und bietet eine Lösungsmöglichkeit für das Problem...

Mehr (http://www.pcgameshardware.de/aid,632763/Test/Benchmark/PCGH_Exklusiv_Multi-GPU_-_wenn_Mikroruckler_zu_Makrorucklern_verkommen/)

mal was anders glaubst du, dass das demnächste ohne Programm gelöst wird?

McRib

BeerWulf
20.02.2008, 23:11
Glaub ich eher nicht, da ich mir ne Lösung schwer vorstellen kann. Schließlich wird bei mehreren Chips die "Arbeit" aufgeteilt, wie sollten sie das ändern könnne? Klar, früher oder später werden sie es sicher verbessern, aber ganz ausmerzen...?!?

Aber es bleibt mehr oder weniger uninteressant für mich, ich bin eher der "kauf die beste Single-GPU-Karte, und wiederhol das, wenn diese nichts mehr bringt"-Typ ;)

BeerWulf
25.02.2008, 19:18
AMD und NVidia nehmen Stellung zu den Microruckler:

click (http://www.pcgameshardware.de/aid,633537/News/Multi-GPU_Mikroruckler_Erste_Statements_von_AMD_und_Nvid ia/)

BeerWulf
15.08.2008, 12:20
*Staub wegpust*

Alle, die sich unter Mikrorucklern noch nichts vorstellen können, und auch alle anderen neugierigen, können dies nun mit nem kleinen Progi simulieren:

MR-Tester (http://www.computerbase.de/forum/showthread.php?t=458463)

Ryudo
18.08.2008, 12:08
Wenn der Effekt wirklich so stark ist wie in dieser Simulation, dann bringen zwei GPUs nur etwas, wenn immer bei Framerates jenseits der 50 bleibt. Ich habe aber lieber maximale Details, sodass es gerade nicht ruckelt un d dann scheinen zwei GPUs nicht viel zu bringen.