Wie berechnet man die Entropie von Netzwerken? (Boltzmann-Mikrozustände und Shannon-Entropie) [geschlossen]

Ich habe vor ein paar Tagen auch in SO hier gefragt , dachte, es könnte auch für physikbezogene Antworten interessant sein.

Ich möchte ein Netzwerk als System modellieren. Eine bestimmte Topologie (Konfiguration von Kanten zwischen Scheitelpunkten) ist ein Ordnungszustand des Systems (ein Mikrozustand). Ich versuche, die Entropie einer bestimmten Topologie als Maß für die Komplexität der in diese topologische Struktur eingebetteten Informationen zu berechnen.

Ich habe keinen Abschluss in Physik, ich hätte gerne Antworten, die bei der Erstellung eines Konzepts der Entropie helfen können, das auf Netzwerke (insbesondere kleine Weltnetzwerke) als Systeme angewendet wird, die Informationen in ihre Topologie einbetten.

Im Folgenden teile ich meine Überlegungen und Zweifel.

  1. Zuerst dachte ich an eine Analogie zur Shannon-Entropie, die auf Strings angewendet wird: Hier ist die Entropie ein Maß für die Zufälligkeit eines Strings als Summe der Wahrscheinlichkeit, dass bestimmte Ziffern auftreten. In ähnlicher Weise dachte ich dann, dass die Entropie für ein zufälliges Erdős-Rényi-Netzwerk gelten könnte und das Maß die Zufälligkeit einer Kante zwischen zwei Scheitelpunkten widerspiegeln könnte.

    • Gilt die Shannon-Entropie für nicht zufällige Arten von Netzwerken?
  2. Als zweiten Ansatz dachte ich, dass Entropie nach Boltzmanns Definition die Vielzahl äquivalenter Zustände ist.

    • Wie könnten äquivalente Topologien modelliert werden (oder wie können wir die Ähnlichkeit zwischen zwei Netzwerken berechnen)?

    • Wie kann gemessen werden, wie sehr der Ordnungszustand einer bestimmten Topologie im Vergleich zu allen anderen möglichen Konfigurationen „ungewöhnlich“ ist?

    • Soll ich versuchen, eine Topologie als Wahrscheinlichkeit über alle möglichen Verteilungen von Kanten (vollständiges Netzwerk) zu modellieren?

Antworten (1)

Für alle Definitionen von Entropie müssen Sie ein Ensemble von Zuständen definieren, um die jeweiligen Wahrscheinlichkeiten zu definieren (dies ist verwandt, wenn nicht äquivalent zum Makrozustand). Wenn Sie beispielsweise die Shannon-Entropie einer Zeichenfolge berechnen, nehmen Sie ein Ensemble möglicher Zeichenfolgen (und ihrer Wahrscheinlichkeit) an, die durch die Wahrscheinlichkeit bestimmter Buchstaben in der Sprache Ihrer Wahl gegeben sind. Bei einer ausreichend langen Zeichenfolge können Sie diese Wahrscheinlichkeiten aus der Zeichenfolge selbst abschätzen und so Ihr Ensemble „booten“.

Um also etwas Ähnliches für Netzwerke zu tun, müssen Sie zunächst ein geeignetes Ensemble von Netzwerken definieren, die Sie berücksichtigen möchten. Dies wären Ihre „äquivalenten Topologien“. Was hier sinnvoll ist, hängt davon ab, wie Sie Ihre Entropie interpretieren wollen oder, aus anderer Sicht, welche Eigenschaften des Netzwerks Sie als variabel zum Zwecke der Codierung von Informationen betrachten. Eine Möglichkeit, die Sie vielleicht in Betracht ziehen sollten, sind Netzwerk-Nullmodelle, auch Netzwerk-Ersatzmodelle genannt. Es gibt mehrere Methoden, um solche zu erhalten¹, aber beachten Sie, dass die Eigenschaften des zugrunde liegenden Ensembles unterschiedlich und nicht immer offensichtlich sind.

Einige weitere Bemerkungen:

  • Unter der Annahme, dass jedes Netzwerk ein eigener Mikrozustand ist, sollten die Shannon- und die Gibbs-Entropie bis auf einen konstanten Faktor äquivalent sein.

  • Vielleicht möchten Sie einen Blick auf Phys werfen . Rev. Lett. 102, 038701 , die thermodynamische Konzepte auf Netzwerke anwendet, obwohl ich nie herausgefunden habe, welches Ensemble sie in Betracht ziehen.

  • Wie können wir die Ähnlichkeit zwischen zwei Netzwerken berechnen?

    Es gibt mehrere Vorschläge für Distanzmetriken für Netzwerke, beginnend mit der euklidischen Distanz der Adjanzenzmatrix. Leider habe ich kein gutes Zitat zur Hand.

  • Für jedes vernünftige Ensemble erhalten Sie am Ende eine gigantische Menge an Netzwerken/Mikrozuständen. Daher ist es normalerweise nicht möglich, die Wahrscheinlichkeit aller Mikrozustände oder sogar eines bestimmten Mikrozustands empirisch abzuschätzen. Stattdessen müssen Sie die Wahrscheinlichkeitsdichte für eine Nachbarschaft von Mikrozuständen schätzen. Dazu benötigen Sie den oben genannten Abstand.


¹ Ich habe versucht, sie alle in der Einleitung zu diesem Aufsatz von mir zu zitieren , aber das ist nicht ganz aktuell.