Mining-Theorie: GPU/ASIC-Berechnung vs. Co-Prozessor-Berechnung

Ich bin sehr neu bei Bitcoin und versuche, ein wenig über die Mining-Theorie zu verstehen. Ich bestreite nicht die Konvention, ASIC-basierte Berechnungen für das Bitcoin-Mining zu verwenden, sondern ich bin neugierig, warum sie Co-Prozessoren wie diese für das Mining übertreffen. Vielleicht wäre eine nuancierte Diskussion einiger der verschiedenen Kompromisse der einfachste und klarste Weg, die Dinge zu verstehen. Lassen Sie es mich so aufschlüsseln:

Parallelität: Koprozessoren werden hauptsächlich für aufgabenparallelen Code (nicht vektorisierten Code) verwendet, während GPUs für datenparallelen (vektorisierten) Code geeignet sind. Zwei Fragen kommen mir in den Sinn:

  • Sind alle Mining-Codes in vektorisierten Sprachen?
  • Kann es jemals einen Vorteil geben, im Task-Parallel-Code abzubauen? Es scheint, als gäbe es beim Bitcoin-Mining nur eine Aufgabe: Zahlen knacken. Vereinfache ich es aber zu sehr? Vielleicht könnte man mit Task-Parallelität andere Algorithmen ausführen, um das Zahlen-Crunching zu unterstützen (z. B. Komprimierung, Flush to Zero usw.).

Berechnungen: Apropos bündig auf Null, GPUs tendieren dazu, eine bessere Leistung zu erzielen als Co-Prozessoren mit Gleitkommaberechnungen. Koprozessoren schneiden jedoch sowohl bei logischen als auch bei arithmetischen Berechnungen besser ab.

  • Ist Gleitkommaberechnung beim Bitcoin-Mining wichtiger als logisch/arithmetisch?

Latenz:

Da GPUs synchron laufen, muss der gesamte Datensatz zu Beginn und am Ende jeder Aufgabe übertragen werden, aber Co-Prozessoren können alle Daten in Sekundenbruchteilen vom RAM in den Host-RAM verschieben. Ich bin mir nicht sicher, ob dies für ASIC-Prozessoren gilt, vielleicht ist es anders.

  • Würde das Problem der Latenz jemals die Verwendung von Co-Prozessoren für das Mining rechtfertigen, oder ist die Latenz kein großes Problem?

Hauptfrage Könnte es jemals eine reine Co-Prozessor-Mining-Maschine geben? Wie wäre es mit einem Hybridsystem, das eine Reihe von Co-Prozessoren und GPUs verwendet, um das Beste aus beiden Welten zu nutzen? Oder würden GPUs jedes Mal Co-Prozessoren schlagen? Warum oder warum nicht?

Sie können diese Frage gemäß dem obigen Inhalt aus jedem Blickwinkel angehen. Die Antwort muss nicht alle Fragen beantworten, ich dachte, ich würde nur ein paar zusammenhängende Fragen zu Robustheits-/Vergleichszwecken hinzufügen.

Ich möchte einige Annahmen treffen, um sicherzustellen, dass die Antwort hauptsächlich von einem theoretischen Standpunkt aus erfolgt. Ich möchte die Logistik des Ganzen größtenteils aus dem Rahmen räumen.

Annahmen

  • Der Stromverbrauch liegt außerhalb des Geltungsbereichs
  • Der Stückpreis von GPUs und Co-Prozessoren ist außerhalb des Geltungsbereichs (offensichtlich sind Co-Prozessoren gottlos teuer)
  • Die Stromkosten liegen außerhalb des Geltungsbereichs
Vielleicht sollten Sie diese Frage noch einmal überdenken, weil Sie davon ausgehen, dass Menschen Bitcoin-Blöcke mit GPUs abbauen, was seit 2013 nicht mehr der Fall ist. Suchen Sie nach ASIC-Prozessoren

Antworten (1)

Dies und ein Follow-up waren kürzlich im Umlauf.

„Letzte Woche habe ich auf meinem neuesten Spielzeug gepostet, einem Rig, das acht Xeon Phi 7220-Karten in einem einzigen 4u-Server verwendet, um insgesamt etwa 24 kHz für Kryptonote-Münzen zu erreichen.“

hm, das ist cool. Ich dachte, jemand würde mit wissenschaftlichen Co-Prozessoren experimentieren wollen. Sie scheinen etwas kostenintensiv zu sein, aber vielleicht kompensieren sie irgendwie gemäß meinem OP (Latenz, Berechnungen usw.)? Oder vielleicht hat dieser Typ einen gebaut, der nur ein Neuheitsartikel ist. Ziemlich cool auf jeden Fall, danke!