DDR4-Frequenzabfall, wenn mit mehr als einem Modul pro Kanal bestückt

Ich bin neugierig, wie ein bestimmtes Unternehmen Gigabyte sicherstellt, dass seine Server-Motherboards mit der maximal unterstützten Speicherfrequenz laufen, selbst wenn zwei oder drei DIMMs pro Kanal vorhanden sind (wir sprechen natürlich von RDIMMs und nicht von UDIMMs). Welchen Trick verwenden sie in solchen Motherboards, um das zu erreichen: (siehe Übersichtsabschnitt)

Vor einiger Zeit las ich eine Broschüre, in der behauptet wurde, dass auf Haswell-E/EP-Motherboards die Bestückung mit mehr als einem Modul pro Kanal die Frequenz verringert:

  • 1 DPC = max. 2133 MHz
  • 2 DPC = max. 1866 MHz
  • 3 DPC = max. 1600 MHz

Einige andere Motherboard-Hersteller stellen eine Bedingung an ihre Spezifikationen, etwa 2133 MT/s nur bei 1 DPC , während Gigabyte damit prahlt, dass seine Produkte selbst mit 3 DPC eine Frequenz von 2133 MHz erreichen .

Wie sollte eine solche Funktion ausgeführt werden?

Du meinst andere Tricks als Marketinglügen?
Ich meine es total ernst. Ich habe keine Ahnung, wie es gemacht werden könnte, aber ich nehme nur an, dass sie einen Trick wie Assert Frequency anwenden können, während sie jeden Befehl auf zwei Zyklen verlängern (das ist nur meine Vermutung). Bei UDIMMs gibt es etwas Ähnliches. Derzeit habe ich Asus X99 Deluxe mit 64 GB UDIMM DDR4-Speicher in der Konfiguration: 8 x 8 GB-Module und im BIOS und unter Linux mit dmidecode sehe ich die volle Geschwindigkeit 2133, obwohl ich 2 DPC habe. In diesem Fall ist die 2133-Freq. wird sichergestellt, indem die Latenz geopfert und das sogenannte 2T- oder 2N-Timing für UDIMMs eingeführt wird. Vielleicht ist das etwas ähnliches?
Oder erkennen sie vielleicht eine solche Situation (2 & 3 DPC) und übertakten sowohl Module als auch den Speichercontroller, indem sie die Spannung erhöhen, die der CPU an einem Pin zugeführt wird?

Antworten (1)

Ich kann in Ihrem Fall nicht zu Einzelheiten von DIMMs sprechen, aber ich kann für das Design anderer Boards mit Hochgeschwindigkeitsspeicher sprechen. Ich würde erwarten, dass Sie entweder 1) die Spannung erhöhen, 2) die Verstärkung an den Eingängen erhöhen müssen, indem Sie den Strom erhöhen, oder 3) die Speichermenge verringern, um die gleiche Geschwindigkeit beizubehalten.

Wenn ich ICs herstelle, sind meine IO-Treiber auf Strom fixiert; Allerdings kann ich einige Speichermodul-ICs mit Pins konfigurieren, die eine geringere effektive Eingangskapazität haben, aber mehr Strom am Eingang verbrauchen.

Nehmen Sie im Fall von Nr. 1 an, dass Sie eine feste Treiberstärke auf dem IC haben. Wenn Sie mehr ICs auf dem Bus hinzufügen, erhöhen Sie die Kapazität, sodass Sie den Bus verlangsamen müssen, um das Timing zu erreichen.

Im Fall von Nr. 2 verbrennen Sie viel mehr Strom, indem Sie die Eingänge so aussehen lassen, als hätten sie weniger Kapazität.

Im Fall von Nr. 3 werden Sie feststellen, dass es eine Aktualisierungsstrafe für DRAM gibt. Wenn Sie einen DRAM-IC mit der doppelten Größe haben, benötigen Sie mehr Zeit zum Auffrischen. Normalerweise sieht dies bei einem Geschwindigkeitstest nur nach einer langsameren Busaktivität aus, aber manchmal verringern Sie tatsächlich die Geschwindigkeit des E / A und haben immer noch eine schnelle "Aktualisierungs" -Uhr.

Ich persönlich habe mehr DRAM-ICs hinzugefügt und musste dann mehr Strom verbrauchen, um das Timing zu treffen, da ein weiterer IC am Bus hinzugefügt wurde.

Ich denke, dass Sie am Ende nur Marketing haben und dass alle Busübertragungen langsamer werden müssen, wenn Sie DIMMs hinzufügen. Das Micron DDR4- Dokument schlägt dies ebenfalls vor.