Warum hat Satoshi Bitcoin so konzipiert, dass es nur auf spezialisierter Hardware abgebaut werden kann, wenn das Ziel Dezentralisierung war?

GPU-Mining-Kryptos sind wohl dezentraler.

Hat er diesen Designaspekt einfach vermisst oder klingt das für Sie faul?

Antworten (7)

Bitcoin wurde nicht dafür entwickelt, nur mit spezieller Hardware geschürft zu werden. Als Bitcoin im Jahr 2009 erstellt wurde, gab es keine ASIC-Miner und keine SHA256d-ASICs. Sogar GPU-Mining-Software gab es nicht, weil Mining eine völlig neue Sache war. Die Schwierigkeit von Bitcoin war niedrig genug, um Bitcoin auf einem Laptop per CPU abzubauen.

Im Laufe der Zeit, als immer mehr Menschen begannen, Bitcoin zu verwenden und abzubauen, nahmen die Schwierigkeiten jedoch zu. Irgendwann fand jemand heraus, wie man GPU-Mining betreibt, und schrieb Software dafür, also ging Bitcoin zum GPU-Mining über. Irgendwann fand jemand heraus, wie man Bitcoin mit FPGAs (Field Programmable Gate Arrays) schürft, also ging Bitcoin dazu über, mit FPGAs abgebaut zu werden. Irgendwann fand jemand heraus, wie man ASICs (Application Specific Integrated Circuits) für das Mining von Bitcoin baut, also wechselte Bitcoin zum ASIC-Mining.

Satoshi beabsichtigte nicht, dass Bitcoin mit ASICs (oder sogar GPUs oder FPGAs) abgebaut wird; Es sollte auf CPUs geschürft werden, aber im Laufe der Zeit, als die Technologie voranschritt, fanden die Leute bessere Möglichkeiten zum Schürfen.

Nur um hinzuzufügen, wird dies im ursprünglichen Whitepaper erwähnt, das nur kurz gelesen wird. Ich würde jedem, der sich für Bitcoin interessiert, empfehlen, es als Ausgangspunkt zu lesen. bitcoin.org/bitcoin.pdf
Es ist nicht wirklich " jemand herausgefunden " wie man auf FPGAs oder ASICs schürft: ein intelligenter Student im ersten Studienjahr könnte SHA256 von C nach Verilog portieren. Es begann vielmehr wirtschaftlich Sinn zu machen. Insbesondere ASICs erfordern eine ausreichend große Vorabinvestition, sodass Sie Skaleneffekte benötigen.
@PeterTaylor Es ist nicht so, dass ein intelligenter Erstklässler einen ASIC entwerfen könnte, um Bitcoin effizient abzubauen.
@jwg: Wenn wir pingelig sein und Wörter fangen sollen, sagte er, "ein Schüler könnte", nicht "jeder Schüler kann" und das macht einen großen Unterschied :)
Denken Sie auch daran, dass es eine Weile gedauert hat, bis sich die Hardware tatsächlich rentiert hat. Ich erinnere mich, dass ASICs am Anfang nett waren, aber die Gewinnspanne war sehr gering. Die Kosten für das Gerät plus die Strom- und Kühlkosten bedeuteten eine sehr erhebliche Investition, um eine höhere Rendite zu erzielen als beispielsweise ein US-Dollar-Sparkonto (was nicht viel ist). Als die Hardware besser und billiger wurde, stiegen die Gewinnspannen und machten sie zu einer rentableren Option.
Und vergessen Sie nicht, ein seriöser Bergmann zu sein, der möglicherweise Steuern und andere Gebühren in Ihrer Region zahlen muss.
FPGAs und dann ASICs wurden speziell dafür entwickelt, nicht nur "schneller" zu sein. Aber auch um viel weniger Energie zu verbrauchen (daher war es auch rentabler: Ja, es war kostspielig zu entwerfen, aber bei der Skalierung war es rentabler, insbesondere an Orten, an denen Strom teuer ist). Aber das reichte nicht aus, und Bergleute arbeiten jetzt hauptsächlich an Orten, an denen Strom sehr billig ist (Kernkraft oder Erdwärme, es könnte schließlich Gas in Russland oder den Arabischen Emiraten verwenden), einschließlich zum Kühlen (z. B. in Island und arktischen Regionen).
Aber Mining in Regionen, in denen Strom teuer, begrenzt und umweltschädlich ist, Mining ist jetzt verboten oder wird stark besteuert (so dass sie nicht mehr rentabel sind): Viele Miner wurden zerstört oder von ihren Besitzern gestoppt, die einfach ihr Geld verlieren (insbesondere diejenigen, die GPUs verwenden und alle, die CPUs verwenden).
Das bedeutet aber auch, dass weniger Leute schürfen können und das Schürfen zentralisierter ist als zuvor, und es besteht ein wachsendes Risiko, dass eine Organisation, die groß genug ist, 50 % der Minin-Macht übernimmt (es sei denn, es gibt viele Leute, die in großen Pools schürfen, ohne jemals profitabel zu sein , außer um eine monopolistische Kontrolle über den Konsens von Bitcoin zu vermeiden, die Marktgerechtigkeit zu brechen). Aber es ist jetzt bekannt, dass sogar ein Anteil von 25 % an Mining-Power ausreicht, um einen signifikanten Vorteil zu erzielen und den Wert von Bitcoin mit gegabelten Ketten schrittweise zu kontrollieren: Dies könnte erklären, warum der Marktwert von Bitcoin so abrupt gesunken ist.
Also muss Bitcoin (oder jeder andere Chainstate) einen innovativen Weg finden, um seinen Konsens zu regulieren und wieder mehr Dezentralisierung zu ermöglichen. Aber es ist ein sehr schwieriges Problem (es würde wahrscheinlich einige IA erfordern, um Ketten von Transaktionen zu lokalisieren, die zu sehr von einer kontrollierenden Einheit koordiniert werden, und das Gewicht ihrer "Stimmen" im Konsens zu verringern und wahrscheinlich eine gewisse Zufälligkeit auf kryptografischer Ebene einzuführen den Konsensprozess, um ihre koordinierten Strategien zu brechen).
Ein rein dezentrales Netzwerk zu schaffen, ist ein Traum: Es ist in anderen Internetdomänen bereits äußerst schwer zu erreichen. Schauen Sie sich an, was große monopolistische Suchmaschinen leisten können, und wenn Google zum Beispiel Quantum Computing (QC) einführt, könnte es eine sehr mächtige IA haben, um alle bestehenden Versuche zu brechen, einen dezentralen Konsens zu erzielen! Dies betrifft nun auch alle automatisierten Märkte oder Versicherungen, alle die an IA (und jetzt auch an QC) interessiert sind, sowie Diktaturen (zur Kontrolle der Meinungen).

GPU-Mining-Kryptos sind wohl dezentraler.

Sicher, aber auf eine schlechte Art und Weise.

Angenommen, Sie möchten Bitcoin angreifen oder kompromittieren. Dazu müssen Sie ASICs kaufen. Sie könnten GPUs oder CPUs verwenden, aber Sie wären in einem enormen Nachteil. Die ehrlichen Jungs würden gewinnen.

Sie müssen also in all diese ASICs investieren, um Bitcoin anzugreifen. Und wenn Sie erfolgreich sind, verwandeln Sie Ihre teuren ASICs in Raumheizungen. Das macht es sehr unwahrscheinlich, dass ein solcher Angriff kosteneffizient sein wird. Das macht das System sicherer.

Dagegen gibt es Rechencluster mit vielen GPUs. Sie können sie stundenweise mieten. Das bedeutet, dass Sie einen digitalen Vermögenswert angreifen können, der durch einen Algorithmus gesichert ist, der effizient auf einer GPU läuft, ohne in ihn investieren zu müssen. Das macht es weniger sicher.

Die Leute können darüber streiten, wie groß der Unterschied bei der Dezentralisierung ist und ob das eine Rolle spielt. Aber dieser Sicherheitsunterschied scheint, zumindest für mich, viel bedeutender zu sein. Satoshi hat es versehentlich richtig gemacht.

"aus Versehen" würde ich nicht sagen. Bitcoin wurde absichtlich so konzipiert, dass die Schwierigkeit des Schürfens zunimmt, um die erhöhte Rechenleistung auszugleichen. Es tut genau das, was es tun sollte: sicherzustellen, dass es immer schwer genug ist, zu minen, dass es für einen Angreifer nicht möglich ist, das Netzwerk zu beherrschen, egal wie viel leistungsfähiger unsere Computer werden. Stellen Sie sich die Mining-Schwierigkeit nicht in Bezug auf die absolute Schwierigkeit vor, sondern in Bezug auf die Schwierigkeit im Verhältnis zur durchschnittlichen Rechenleistung, die zu diesem Zeitpunkt verfügbar ist – die relative Schwierigkeit ist so konzipiert, dass sie immer gleich bleibt.
@MichealJohnson Was ich mit "versehentlich" meine, ist, dass Satoshi meiner Meinung nach nicht über die Folgen der Auswahl eines Algorithmus nachgedacht hat, der die besonderen Eigenschaften von SHA256d aufweist. Er dachte nicht darüber nach, was passieren würde, wenn der Algorithmus viel Speicher benötigte, und was passieren würde, wenn er viele Verzweigungen erfordern würde. Aus Versehen wählte er einen Algorithmus aus, der auf ASICs extrem gut beschleunigt. Und viele Leute fanden das anfangs sogar schlimm. (Und diese Frage zeigt, dass viele Leute es immer noch tun.) Aber ich denke, die Zeit wird beweisen, dass es die beste Wahl ist.
Der entscheidende Teil ist, dass das Design des Netzwerks unabhängig vom gewählten Algorithmus so ist, dass die zur Lösung der Herausforderung erforderliche Rechenleistung proportional zur Erhöhung der verfügbaren Rechenleistung (für welchen speziellen Algorithmus auch immer) zunimmt. Dies gilt unabhängig davon, wie einfach oder schwer der Algorithmus ist, denn das Netzwerk kompensiert, um sicherzustellen, dass die Arbeit immer gleich schwierig ist.
@MichealJohnson Ich sehe ehrlich gesagt nicht, wie das für die hier diskutierten Themen auch nur annähernd relevant ist.
Er hat sich nicht „aus Versehen“ für einen Algorithmus mit bestimmten Eigenschaften entschieden. Die Eigenschaften des Algorithmus sind irrelevant, das Netzwerk wurde entwickelt, um unabhängig vom gewählten Algorithmus und der verfügbaren Rechenleistung ein bestimmtes Verhalten zu zeigen. Wenn er einen einfacheren Algorithmus gewählt hätte, hätte das Netzwerk die Arbeit so schwierig gemacht, dass Sie unabhängig vom gewählten Algorithmus keine Leute finden würden, die GPU-Cluster mieten, weil zu viele Leute GPU-Cluster und die Schwierigkeit verwenden würden zum Ausgleich erhöhen würde.
@MichealJohnson Du liegst sehr, sehr falsch. Aber ich bin mir nicht sicher, ob ich Ihre Verwirrung hier entwirren kann. Erstens: Er hat versehentlich einen Algorithmus mit bestimmten Eigenschaften gewählt. Es gibt keine Beweise dafür, dass er die Unterschiede zwischen speicherharten, entscheidungsharten und berechnungsharten Algorithmen in Betracht gezogen hat. Und das macht einen großen Unterschied im Endergebnis, denn was am effizientesten bei der Ausführung des Algorithmus ist, wird am Ende ausgeführt.
@MichealJohnson Zweitens ziehen Sie Miner in Betracht, die mit dem Mining Gewinne erzielen möchten, und nicht Angreifer, die versuchen, das System zu stören (z. B. um durch Shorting von Bitcoin einen Gewinn zu erzielen). Wenn Satoshi einen Algorithmus ausgewählt hätte, der auf GPUs am besten funktioniert, würden Angreifer GPU-Cluster mieten, um das System anzugreifen. Ich bin mir nicht sicher, ob Sie meine Antwort nicht gelesen oder nicht verstanden haben, aber was Sie sagen, hat nichts mit dem Problem zu tun – nämlich der Angriffsresistenz.
Ich glaube, du verfehlst meinen Punkt. Mein Punkt ist, dass das Netzwerk so konzipiert wurde, dass es gegen Angriffe der Art, die Sie beschreiben, resistent ist, unabhängig von den besonderen Merkmalen des verwendeten Algorithmus oder der Hardware, auf der es am effizientesten ist . Wenn der Algorithmus auf GPUs am besten funktionierte und viele Miner/potenzielle Angreifer sie mieteten, würde der Schwierigkeitsparameter des Netzwerks so angepasst, dass es nicht mehr möglich wäre, genug Bitcoin auf einem gemieteten GPU-Cluster abzubauen. Die Idee des Schwierigkeitsparameters besteht darin, das Mining auf teure/nicht leicht zu beschaffende Hardware zu beschränken.
@MichealJohnson Tut mir leid, Sie liegen in diesen Fragen immer noch völlig falsch. Erstens haben Angreifer keinen Einfluss auf die Schwierigkeit, nur ehrliche Miner, die die längste Kette verlängern. Zweitens, was das Mining auf teure und nicht leicht zu beschaffende Hardware beschränkt, ist die Tatsache, dass Bitcoin einen Algorithmus gewählt hat, der am besten auf teurer und nicht leicht zu beschaffender Hardware läuft, und nicht die Schwierigkeit. Hätte Satoshi einen Algorithmus verwendet, der am besten auf Allzweck-CPUs läuft, würden Miner Allzweck-CPUs verwenden.
Das ist der Punkt: Wenn Satoshi einen Algorithmus verwendet hätte, der am besten auf Allzweck-CPUs läuft, würden Miner Allzweck-CPUs verwenden, bis das Netzwerk die Schwierigkeit erhöht, die Anzahl der Miner zu kompensieren . Danach müssten Miner auf leistungsfähigere Hardware aufrüsten (ob das CPUs, GPUs oder ASICs sind, ist irrelevant). Und „Angreifer“ bezieht sich in diesem Fall auf „Miner“, die den Block modifizieren und dann den Proof of Work vervollständigen, mit dem Ziel, den Proof of Work vor allen anderen zu vervollständigen, sodass sowohl für Miner als auch für Angreifer die gleichen Regeln und Schwierigkeiten gelten.
@MichealJohnson Nein. Wenn der Algorithmus am besten auf Allzweck-CPUs läuft, würde ein Upgrade auf "leistungsstärkere Hardware" die Situation verschlimmern, da sie nicht mehr über die Hardware verfügen würden, auf der der Algorithmus am besten läuft, und somit Geld verlieren würden. Aber alle Beweise, die wir haben, deuten darauf hin, dass Satoshi nicht darüber nachgedacht und einfach den Algorithmus gewählt hat, der der einfachste ist, der die erforderliche Sicherheit für Transaktionen bieten kann. Zufällig ist das ein Algorithmus, der am besten auf ASICs läuft, weil ASICs bei einfachen Algorithmen großartig sind. Intel investiert Milliarden, um seine CPUs zu den Besten zu machen.
Wenn der Algorithmus am besten auf CPUs läuft, würde sich die Schwierigkeit erhöhen, bis Miner teure, sehr leistungsstarke CPUs kaufen müssen. Sie würden immer noch eine CPU verwenden, aber nur eine, die für einen Angreifer unerschwinglich teuer ist, um genug davon zu bekommen. (Das Gleiche gilt für Algorithmen, die am besten auf GPUs oder jeder anderen Art von Hardware laufen.)
@MichealJohnson Ich habe das Gefühl, dass Sie nicht lesen, was ich gesagt habe. Ich sagte ausdrücklich, "wenn der Algorithmus am besten auf Allzweck-CPUs läuft". Und doch denkt man irgendwie, dass der Algorithmus auf "teuren, sehr leistungsfähigen CPUs" besser läuft. Wenn der Algorithmus am besten auf Allzweck-CPUs läuft, ist er auf teuren, sehr leistungsstarken CPUs weniger effizient. Beispielsweise können Sie den Algorithmus so entwerfen, dass er genau so viel Cache pro Kern benötigt wie Allzweck-CPUs. Leistungsstarke CPUs haben tendenziell mehr Cache, aber das nützt ihnen nichts. Dito mit allem anderen.
Sagen Sie mir, was Ihrer Meinung nach passieren wird, wenn ich etwas nehme, das auf einer Allzweck-CPU problemlos läuft, und es dann auf einer leistungsstärkeren CPU ausführe. Ich kann mir keine Situation vorstellen, in der eine leistungsstärkere CPU nicht besser abschneidet als eine weniger leistungsstarke CPU. „Leistungsstärker“ könnte sich einfach auf eine schnellere Taktrate oder mehr Kerne beziehen, auf denen Berechnungen parallel durchgeführt werden könnten.
@MichealJohnson "Ich kann mir keine Situation vorstellen, in der eine leistungsstärkere CPU keine bessere Leistung erbringt als eine weniger leistungsstarke CPU." Es geht nicht darum, bessere Leistungen zu erbringen. Es geht darum, effizienter zu sein. Wenn diese leistungsstärkere CPU über viel Cache verfügt, der nicht verwendet wird, aber dennoch Strom verbraucht, kostet es mehr, die gleiche Menge an Arbeit zu erledigen. Sie können viele superstarke, stromhungrige CPUs finden, die beispielsweise Spiele nicht wesentlich schneller ausführen als viel billigere CPUs.
@MichealJohnson Mainstream-CPUs erhalten einen enormen Preis-Leistungs-Schub durch die riesigen Mengen, in denen sie hergestellt werden, und die Milliarden von Dollar, die Unternehmen wie Intel und AMD in ihre Optimierung stecken.
Es gibt auch viele Hochleistungs-CPUs, und sie wären für einen ernsthaften Miner nicht unerschwinglich teuer. Und wenn es eine Nachfrage nach Hochleistungs-CPUs für den Bergbau gäbe, würde mehr Arbeit in ihre Herstellung gesteckt und die Preise würden sinken. Wissen Sie, ASICs, die für den Bergbau entwickelt wurden, gab es am ersten Tag nicht, jemand musste sie entwerfen und herstellen, und die Nachfrage war hoch genug, um rentabel zu sein, und die Vorteile waren groß genug, damit die Bergleute sie kaufen konnten.
@MichealJohnson Richtig, aber diese Hochleistungs-CPUs würden nicht helfen, wenn die Aufgabe speziell für die beste Ausführung auf Standard-CPUs entwickelt wurde. Bei einer solchen Aufgabe würde sich die Nachfrage nach für den Bergbau optimierten CPUs der Nachfrage nach besseren Standard-CPUs anpassen (da die Aufgaben die gleichen Anforderungen haben) und würde nur zu mehr Investitionen in Standard-CPUs führen. (Aber auf jeden Fall kommen Sie zu sehr in die Details nur einer Hypothese. Der Punkt ist, dass die Anforderungen des Algorithmus die zum Mining verwendete Hardware bestimmen.)
Wie wird mehr Leistung der Aufgabe "nicht helfen"?

Leute, die sagen, dass das GPU-Mining dezentraler ist als das ASIC-Mining, vergessen, dass GPUs nicht vom Himmel herabsteigen. Es gibt Unternehmen, die sie herstellen, und da GPUs unglaublich komplexe Hardware sind, ist die Eintrittsbarriere in diesen Markt enorm. Wenn ein Startup-Unternehmen mit der Herstellung von GPUs für den Bergbau beginnen möchte, kann es das nicht.

Im Moment ist das Schürfen von Kryptowährungen noch ein relativ kleiner Teil des Geschäfts von Unternehmen wie AMD und Nvidia. aber wenn es wächst, werden diese Unternehmen effektiv die Kontrolleure des Bergbaus sein.

Meiner Meinung nach ist es viel besser, die Hash-Funktion so einfach wie möglich zu haben, damit viele Unternehmen mit wachsendem Markt die Möglichkeit haben, bei der Herstellung von Mining-Hardware zu konkurrieren.

Dass Bitcoin nur auf spezieller Hardware abbaubar ist, ist an sich keine Designentscheidung. Es ist eine Folge der Abhängigkeit der Integrität des Systems von einem Proof of Work, kombiniert mit großem Interesse am Mining.

Das Folgende ist eine zu starke Vereinfachung, aber es sind trotzdem die Konzepte, die interessant sind.

Das Bitcoin-Protokoll selbst schreibt nicht vor, dass das Mining so schwierig sein muss, dass es nur mit spezieller Hardware durchgeführt werden kann. Das Protokoll schreibt jedoch vor, dass im Durchschnitt alle 10 Minuten ein Block von der gesamten Bevölkerung der Bergleute zusammen gefunden werden sollte . Daher hat das Bitcoin-Protokoll einen Schwierigkeitsparameter , der ständig angepasst wird, damit dieses 10-Minuten-Ziel ungefähr eingehalten wird.

Mit dem gestiegenen Interesse an Bitcoin hat auch das Interesse am Bitcoin-Mining zugenommen, und so ist die Bevölkerung und Macht der Miner gewachsen. Verdoppeln Sie die Bevölkerung oder die Stärke der Bergleute, und Sie halbieren die durchschnittliche Zeit, um einen Block zu finden – und so passt sich das System an, indem es die Schwierigkeit verdoppelt. Die Belohnung für das Finden eines Blocks ist auch unabhängig von der Anzahl der Miner. Eine Verdopplung der Miner-Population bedeutet also auch, dass jeder Miner im Durchschnitt die Hälfte der Mining-Belohnung pro Zeiteinheit erhält.

Also: Wenn die Miner-Population wächst und die Schwierigkeit zunimmt, schrumpft die Gewinnmarge für Miner. Letztendlich ist Mining mit sehr effizienter Hardware nur noch knapp rentabel. Dies ist nicht direkt eine Designentscheidung, sondern eine notwendige Konsequenz des dezentralen Designs.

Das ist falsch. Es ist eine Designentscheidung. Er hätte zum Beispiel einen Algorithmus auswählen können, der mit maximaler Effizienz auf Standard-CPUs läuft. (Wie einige andere Münzen auch.) Er wählte SHA256d, das sehr wenig Speicher und fast keine Verzweigung benötigt. Aus diesem Grund ist es (aus praktischen Gründen) nur auf spezieller Hardware abbaubar. Es war vielleicht keine bewusste Entscheidung, aber es ist das Ergebnis dieser Designentscheidung.
@DavidSchwartz, ich denke nicht, dass es praktisch ist, etwas zu entwerfen, das auf Standard-CPUs am effizientesten ist. Wenn Ihr Proof-of-Work eine Teilmenge der CPU-Fähigkeiten nutzt, dann ist der effizienteste Weg, diese Arbeit auszuführen, auf einem Gerät, das nur diese Teilmenge bereitstellt. Wenn es das gesamte Leistungsspektrum nutzt, wird es nicht nur am besten auf Standard-CPUs ausgeführt, sondern auch auf der einen bestimmten Standard-CPU, für die Sie es entwickelt haben .
@Mark Aus zwei Gründen nicht so: 1) Skaleneffekte und die Milliarden von Dollar, die Unternehmen wie Intel in die Optimierung von Standard-CPUs stecken, können die Vorteile des Entfernens ungenutzter Funktionen aufwiegen, aber die Skaleneffekte und Optimierungen verlieren. 2) Es ist nicht besonders schwierig, den Algorithmus so abstimmbar zu machen, dass er auf Standard-CPUs, während sie sich weiterentwickeln, weiterhin die beste Leistung erbringt.
@DavidSchwartz, ich denke, du bist unfair. Meiner Meinung nach konnte Satoshi nicht wissen, dass Bitcoin so schnell wachsen würde. Tatsächlich dachte er selbst, dass es nicht funktionieren würde. Satoshi hat sich für SHA-256 entschieden, weil Hashcash es für den Arbeitsnachweis verwendet hat.
@ecavero Ich stimme zu, dass er die Zukunft nicht hätte kennen können, aber er hat sich trotzdem für einen Mining-Algorithmus entschieden, der nicht viel Speicher benötigt und nicht viel Entscheidungsfindung erfordert. Das war eine Designentscheidung. Weit davon entfernt, unfair zu sein, er hat es aus Versehen richtig gemacht.

Ihrer Frage fehlt es an historischem Sinn.

Als Satoshi Nakamoto über Bitcoin nachdachte, hatte er viele sehr schwierige Probleme zu lösen. Zum Beispiel das Problem der verteilten Authentifizierung, ein Problem, das nie zuvor gelöst wurde. Sie sollten sich daran erinnern, dass es vor Bitcoin kein elektronisches Peer-to-Peer-Cash-System gab.

Einige der aktuellen Probleme mit Bitcoin konnten also nicht einmal von Genies wie dem Schöpfer (oder den Schöpfern) von Bitcoin vorhergesagt werden. Es wurde so ein riesiges Phänomen, das noch nie zuvor gesehen wurde.

Auf jeden Fall ist es unfair zu behaupten, dass Bitcoin nicht dezentralisiert ist, da es in vielen Teilen der Welt von vielen Unternehmen abgebaut wird; es ist immer noch Peer-to-Peer. Es ist nur konzentriert , was bedeutet, dass nur große Firmenpools es effizient abbauen können.

Satoshi hat es so entworfen, dass CPUs ein dezentrales Netzwerk abbauen würden. Ich glaube nicht, dass er die Voraussicht hatte, dass ASICs auf den Markt kommen und den Markt dominieren würden.

Es würde mich nicht überraschen, wenn CPUs im Jahr 2009 in Bezug auf die Hash-Leistung rentabler für das Mining wären als Grafikkarten, weshalb er nur an die CPU dachte.

Sehen Sie sich zum Beispiel die erstklassigen Grafikkarten von 2009 im Vergleich zu den besten Prozessoren an.

http://www.tomshardware.com/charts/gaming-graphics-cards-charts-2009-high-quality/3DMark06-v1.1.0-3DMark-Score,1829.html

http://www.tomshardware.com/charts/2009-desktop-cpu-charts-update-1/3DMark-Vantage-1.0.2,1396.html

Mit fortschreitender Zeit wurden GPUs viel schneller und konnten viel mehr Hashpower erzeugen, aber zu diesem Zeitpunkt lief Bitcoin bereits mit SHA-256 .

Der erste GPU-Miner für Bitcoin erschien erst gegen Ende des Jahres 2010.
GPUs wurden weniger schneller als vielmehr vielseitiger . Im Jahr 2009 befand sich OpenCL noch in der Entwicklung, CUDA war von begrenztem praktischem Nutzen, und die meisten GPGPU-Berechnungen wurden über den umständlichen Prozess durchgeführt, sie als Operationen auf Grafikprimitiven neu zu formulieren.

Einst erwachte ein goldener Drache aus seinem 12-jährigen Schlaf und starrte über das Reich der Sterblichen. Seine dröhnende Erklärung in feurigem Atem durch gespitzte Lippen und Laseraugen wie Schlitze hallte von Meer zu Meer wider: "Lächerlichkeit", brüllte der Drache!

Die Leute fragten sich unisono: "WTF?"

Denken Sie nach, Leute.

Es besteht die Chance eines abinablen Schneemanns in der Hölle, dass Satoshi ein System geschaffen hätte, das riesige Kraftkonzentrationen und unnötige Verschwendung fördert.

Würde Satoshi „Proof-of-Stake“ auch als Beweis dafür definieren, wie reich Sie sind? Mehr Geld = mehr Stimmen; Klingt fair für dich?

Ist das Peer-to-Peer? Oder ist das ein Peer-to-Riesen-unverantwortliches-Unternehmen, das dir sagt, was du tun sollst?

Antwort für das OP: Satoshi hat kein dezentrales P2P-System für den Austausch mit teurer kundenspezifischer Hardware entworfen. Der gesunde Menschenverstand diktiert das offensichtlich im Gegensatz zum gesamten Ethos der Dezentralisierung. Es gibt viele Möglichkeiten, ein System zu entwerfen, das all die dummen Ineffizienzen beseitigt, die wir beobachten. Was wäre zum Beispiel, wenn der Proof-Algorithmus eher kooperativ als kontradiktorisch wäre? Was wäre, wenn es um das Ordnen oder Alphabetisieren, Duplizieren und Verifizieren ginge, sodass die CPU-Zyklen, die Peers für Berechnungen aufwenden, aufeinander aufbauen und übereinstimmen. Ohh, ganz oben in meinem Kopf, was wäre, wenn es darum ginge, Transaktionszeitstempel zu mitteln und sie in einer Kette zu ordnen, basierend darauf, wie oft ihre Informationen dupliziert wurden. Sagen wir X Mal statt N Mal. d. h. 6 oder 10 Duplizierungen von Transaktionen statt einer Million Duplizierungen, für jeden einzelnen Knoten, der angeht ... warum ist das notwendig? Wenn der historische Blockchain-Beweis für das, was passiert ist, weit genug in der Blockchain zurückliegt, sodass sich alle einig sind, warum würden dann 6 oder 10 Duplizierungen nicht ausreichen? Nicht jeder braucht eine exakte Kopie von allem, was passiert ist. Sie müssen sich nur darauf einigen, was passiert ist.

Ich bin mir sicher, dass mehrere unabhängige Blockchain-Implementierungen/Organisationen dies durchdacht und sogar die Fehler ausgearbeitet und inzwischen funktionierende Lösungen implementiert haben. Das ist der Weg, um Sachen zu bekommen, eine Menge Sachen, die zu niedrigen Kosten erledigt werden: Geben Sie Ihre Ideen kostenlos ab und fragen Sie nach Vorschlägen.

Hier ist also Ihre Antwort: Vergiss es. Finden Sie eine Lösung, die das tut, was Sie wollen, und verwenden Sie sie. []

Wie auch immer, es gibt viel dringendere existenzielle Probleme, die wir angehen müssen, seit das Geldproblem gelöst ist. Wie zum Beispiel interplanetare Kriegsführung.Geben Sie hier die Bildbeschreibung ein