Stimmt es, dass CISC-Architekturen im Allgemeinen mehr Strom verbrauchen als RISC-Architekturen?

Ich höre immer wieder, dass CISC-Architekturen mehr Strom verbrauchen als RISC-Architekturen. Dies soll der Grund für die Verwendung von RISC-Architekturen für Low-Power-Anwendungen sein. Ich bin ein Skeptiker, ich denke, es könnte möglich sein, dass der geringe Stromverbrauch von RISC nur eine Bestätigungsverzerrung ist, nachdem ich Beispiele von RISC-Architekturen mit geringem Stromverbrauch gesehen habe.

Ich bin mir nicht sicher, ob es dafür eine wissenschaftliche Grundlage gibt. Der Grund könnte auch die Verfügbarkeit / kostengünstige Lizenzierung von RISC-Architekturen für eingebettete Anwendungen sein. Als Grund für den geringeren Stromverbrauch von RISC wird meist eine im Vergleich zu CISC weniger komplexe Decodereinheit angegeben.

Ist das wahr? Verbrauchen RISC-Architekturen weniger Strom als CISC-Architekturen? Oder spielt CISC vs. RISC für den Stromverbrauch wirklich keine Rolle?

RISC vs CISC war seit 20 Jahren nicht mehr relevant, also lesen Sie entweder etwas Altes oder einfach nur Unsinn.
Oh, zu glauben, dass die Leute dies als "meinungsbasiert" abschließen würden, wenn jemand bereits ein Forschungspapier auf einer IEEE-Konferenz zu genau diesem Thema veröffentlicht hat.
@ user1850479 Ich stimme dir vollkommen zu. Aber der Mythos, dass RISC im Vergleich zu CISC stromsparend ist, ist heute weit verbreitet, besonders wenn man es im Lichte der Umstellung von Apple und Amazon auf ARM von x86 betrachtet
Es basiert auf Meinungen, weil Sie dies nur aus müßiger Neugier fragen, hier gibt es kein Problem zu lösen. Eine Antwort enthält keine Informationen (= die verwendet werden, um eine Entscheidung zu treffen), nur Kleinigkeiten.
Die Tatsache, dass jemand anderswo zu diesem Thema eine Arbeit veröffentlicht hat, ist für die Frage, ob es sich um eine angemessene Frage für diese Seite handelt, völlig irrelevant .

Antworten (1)

Da Sie die Duplizierung nicht über SE-Board hinweg verknüpfen können, werde ich hier duplizieren: https://stackoverflow.com/questions/20298991/does-generally-risc-processors-have-lower-power-consumption-than-cisc -Prozessoren

Nein, tun sie nicht.

In der Vergangenheit wurde allgemein angenommen, dass RISC-CPUs stromsparender seien, hauptsächlich aufgrund des großen Aufwands für die Wartung der großen ROMs, die für CISC benötigt werden. Eine kürzlich durchgeführte Studie, in der mehrere Workloads auf mehreren Plattformen verglichen wurden, beendete diesen Mythos jedoch endgültig und stellte fest:

in der einen oder anderen ISA-Klasse gibt es nichts grundsätzlich Energieeffizienteres.

Es stimmt immer noch, dass viele Implementierungen dieser ISAs auf bestimmte Marktsegmente ausgerichtet sind, die immer noch diese Klassifizierung widerspiegeln. Sie finden mehr x86 in den Segmenten mit höheren Leistungsumschlägen wie PCs und Server und mehr ARM in den Segmenten mit geringer Leistung und eingebetteten Segmenten , aber das sind meistens Designpunkte und Marketingentscheidungen. Es gibt nichts Grundsätzliches, das einen CISC-ISA daran hindert, in Bereiche mit niedrigerer Leistung vorzudringen.

Mischen Sie das nicht mit Abwärtskompatibilität - x86 zum Beispiel würde es schwer haben, die Leistung zu reduzieren und gleichzeitig alle Legacy-Modi und spezialisierte ISA beizubehalten, aber das ist ein anderes Problem. Es ist auch kein echter Block, wie man an Atom-basierten Implementierungen sehen kann, von denen einige sogar unter 1W TDP gehen

Gutschrift an Leeor für die Verknüpfung der Studie.