kann man die Rechenleistung erhöhen, indem man die Frequenz reduziert und die Anzahl der Transistoren erhöht [geschlossen]

Folgende Idee/Meinung habe ich schon lange, bin mir aber nicht sicher ob sie stimmt.

Soweit ich weiß, Uist in einem Prozessor die für den Betrieb erforderliche Spannung grob proportional zur Frequenz, fmit der er betrieben wird, und die Rechenleistung ist proportional zur Anzahl Nder vorhandenen Transistoren und der Frequenz f.

Daher könnte man:

  • Teilen Sie die Frequenz des Prozessors durch k, wodurch die Spannung durch geteilt werden kannk
  • Erhöhen Sie die Anzahl der Transistoren umk^2

Das wiederum ergäbe eine um einen Faktor erhöhte Rechenleistung k(erhöht um k^2wegen der Anzahl der Transistoren, erniedrigt um kwegen der Frequenz), bei unveränderter elektrischer Leistung (Leistung ist U^2/ R * Nwobei Rder elektrische Widerstand, Ugeteilt durch k, Nerhöht wird von k^2). Wenn das Moore-Gesetz immer mehr Transistoren zum gleichen Preis liefert, sollten Sie keine Begrenzung der Rechenleistung haben, die Sie erreichen (auf Kosten einer reduzierten Frequenz und möglicherweise der Notwendigkeit paralleler Hardware und Algorithmen).

Ist das vernünftig (oder sogar wahr) oder liegt ein zugrunde liegender Fehler vor? Naiv / locker sehe ich dies als eine Erklärung dafür, warum das Gehirn so viel leistungsstark ist, während es etwas weniger Energie verbraucht als eine CPU (Gehirn hat normalerweise 20 Watt und 100 Hz, CPUs heutzutage oft zwischen 35 und 130 Watt und 3 GHz, manche Leute sagen ).

Bearbeiten 1:

  • Ja, ich weiß, dass der Energieverbrauch / die Leistungsaufnahme die Wand ist, auf die Prozessoren treffen. Hier spreche ich in Bezug auf die Spannung (vor der Umwandlung in den Stromverbrauch), weil es das ist, was vorhersagt (oder so glaube ich?), Mit welcher Frequenz man laufen kann.

  • Die Rechenleistung ist proportional zur Anzahl der Transistoren. Beispielsweise kann man bei mehr Transistoren einfach mehr Kerne bauen. Das Problem ist dann der Stromverbrauch; Aus diesem Grund betrachte ich eine Verringerung der Frequenz, sodass die Erhöhung des Stromverbrauchs durch Erhöhen der Anzahl der Transistoren durch die Verringerung des Stromverbrauchs aufgrund des Betriebs mit niedrigerer Spannung (und damit Frequenz) auf Null gesetzt wird.

  • Ich weiß, dass dies die Ausführungsgeschwindigkeit eines Threads nicht erhöht und parallele Algorithmen erfordert, aber das ist nicht die Frage. Ebenso ist Architektur auch nicht die Frage. Mir ist bewusst, dass Hersteller den Caches usw. jetzt immer mehr Transistoren hinzufügen, um die Ausführungsgeschwindigkeit eines Threads zu erhöhen / die Latenz zu reduzieren, aber das ist nicht das, wonach ich hier fordere. Hier frage ich nur danach, ob ein sehr allgemeines Skalierungsargument zutrifft, dann ist die Verwendung dieser Skalierung mit paralleler Software eine andere Frage.

  • Übrigens werden wir immer besser darin, parallele Architekturen zu verwenden: Bei künstlichen neuronalen Netzen auf GPUs dreht sich alles darum. Genau das ist auch die Idee hinter dem Gehirn: Sehr langsam im One-Thread-Betrieb, aber unglaublich parallel und leistungsstarke Rechenleistung. Was ich wirklich verstehen möchte, ist: Angesichts der Siliziumtechnologie, die bei aktuellen Transistoren verwendet wird, können wir theoretisch, wenn das Moore-Gesetz gilt (dh wir bekommen immer mehr Transistoren für die gleichen Kosten), etwas so Leistungsfähiges bauen wie das Gehirn, das nicht verwendet wird Megawatt oder mehr. Dafür scheint die Lösung darin zu bestehen, die Parallelität zu erhöhen und die Frequenz (wie im Gehirn) zu verringern. Wenn zum Beispiel mein Skalierungsargument zutrifft, können Sie die Frequenz Ihres Chips von 3 GHz auf 100 Hz bringen (dh die Frequenz durch = alpha30 Millionen teilen) und eine Menge Transistoren hinzufügen (alpha^2, aber wenn Sie erwarten, dass das Moore-Gesetz gilt, werden wir es letztendlich bekommen) und damit die Rechenleistung des Chips um den gleichen 30-Millionen-Faktor erhöhen. Ich stimme zu, das ist nicht so einfach, so viele Transistoren zu packen, vielleicht bräuchten Sie einen 3D-Chip (wie das Gehirn) oder eine andere Architekturänderung, aber mich interessiert nur die Skalierung.

Rechenleistung ist proportional zur Anzahl der Transistoren? Was sind die Einheiten der "Rechenleistung"? Und der richtige Begriff, auf den man sich anstelle von „Spannung“ (allgemein bekannt als „Spannung“) beziehen sollte, ist Leistung . Spannung allein interessiert niemanden.
Nur eine kurze Anmerkung. Dr. Hennessey verbrachte mehrere Tage damit, mit mir persönlich über den MIPS-Ansatz mit RISC vs. CISC zu sprechen, damals im Jahr 1986, als ich ihre Einrichtung besuchte. Sie verwendeten zwei Größenordnungen weniger Übertragungsgatter und Inverter (Transistoräquivalente) als Intel damals, weil weder Mot noch Intel ihnen IRGENDEINEN Zugang zu den besten FABs des Tages verkaufen wollten. Sie mussten mehr tun, mit weniger. Und das taten sie. Sie haben Intel fast die Hosen abgeschreckt. Und es gab eine große Verschiebung hin zu RISC. Mot hat zum Beispiel den 88k auf den Markt gebracht. Intel hat auch eigene Projekte auf den Weg gebracht.
Auf jeden Fall geht der Trend bei Computer-CPUs heutzutage dahin, die Anzahl der Kerne zu erhöhen, während die Taktfrequenz seit einigen Jahren fast stillsteht. Die Optimierung der Software zur Nutzung mehrerer Kerne (Parallelisierung) ist eine der großen Herausforderungen.
Das Ergebnis bei Intel war etwas, an dem ich beteiligt war – PPro und P II –, die beide internes RISC (den Neuordnungspuffer) verwendeten, um ihr CISC-Verhalten zu erreichen. Ich denke, das Wesentliche hier ist, dass höhere Taktraten oft mehr Arbeit pro Takt übertrumpfen können, vorausgesetzt, dass die Speichersysteme die Leitung speisen können. Heute sind Superscaler, Multicore, parallele Pipelines und weitere Techniken verfügbar. Es ist also "kompliziert". Die Dinge können nicht so einfach in nur "mehr Transistoräquivalente" oder "höhere Taktraten" allein zerlegt werden.
Es gibt auch mehr Sicherheitslücken mit gemeinsam genutztem CPU-Cache
Ich würde dringend raten, sich den klassischen Text von Hennessy und Patterson zu besorgen, amazon.com/Computer-Architecture-Quantitative-John-Hennessy/dp/… Nachdem Sie alles gelesen und 50 % davon verstanden haben, kommen Sie zurück. Im Moment stimme ich höflich dafür, diese Frage als "zu breit" zu schließen.
@jonk, in den 90ern (und frühen 2000ern?) ging es nur darum, die Taktraten zu erhöhen, aber es scheint, als wären die letzten 10 Jahre oder so eine andere Geschichte gewesen.
@ThePhoton Damals war das Transistoräquivalent das dominierende Begrenzungsproblem. Ideen zur Umsetzung waren vorhanden, aber nicht genug trans. Äquiv. zur Verfügung, um diese Ideen zu erfüllen. Irgendwann, ich denke, in der Nähe der 100-Millionen-Äquivalent-Marke oder so, hörten sie auf, die Begrenzung zu sein. Intel FABs waren in der Tat SO LEISTUNGSFÄHIG, dass sie anfingen, den Speicherplatz zu verschwenden und ihn in den L1-Cache zu werfen, während sie daran arbeiteten, andere Ideen zur Reife zu bringen. Heute zählt fast ALLES und es ist wirklich ein viel schwierigerer technischer Balanceakt mit schwierigeren Entscheidungen.
"Teilen Sie die Frequenz des Prozessors durch k, wodurch die Spannung durch k geteilt werden kann" - Diese Annahme ist völlig falsch.

Antworten (1)

Sie können die Spannung nicht unbegrenzt senken, irgendwann hören Transistoren einfach auf zu arbeiten, unabhängig von der Frequenz. Die aktuelle CMOS-Technologie erreicht eine Schwellenspannung von etwa 500 mV, und es wird nicht erwartet, dass dies in absehbarer Zeit besser wird:

Geben Sie hier die Bildbeschreibung ein