Wann können komplexe reale Phänomene als einfache niederdimensionale Systeme modelliert werden?

Mein Hauptinteresse gilt biologischen Systemen, aber die Frage ist allgemein.

Ich wurde in Computerbiologie ausgebildet, und praktisch alle quantitativen Modelle biologischer Prozesse, denen ich in meinem Grundstudium begegnet bin, waren probabilistischer Natur - Hidden-Markov-Modelle, Bayes'sche Netzwerke usw. Dies ist angesichts der Komplexität dieser Prozesse sinnvoll. Dies sind Systeme mit vielen Freiheitsgraden, die auf oft nichtlineare Weise interagieren, und daher besteht natürlich keine Hoffnung, sie mit einem überschaubaren Satz von Gleichungen so zu beschreiben, wie man es beispielsweise mit der Bewegung von Planeten im Sonnensystem tun würde natürlich muss man auf stochastische Modelle zurückgreifen.

Trotzdem habe ich (normalerweise im Kontext der Biophysik) viele Fälle von komplexen biologischen Prozessen gesehen, die als niederdimensionale (normalerweise nichtlineare) dynamische Systeme mit beeindruckender Vorhersage- und Erklärungskraft modelliert wurden.

Ich habe über die Zentrumsmannigfaltigkeitstheorie gelesen, die sich mit hochdimensionalen Systemen befasst, in denen viele der Dimensionen überflüssig sind, in dem Sinne, dass Störungen in diesen Richtungen schnell abklingen und daher eine effektive niederdimensionale Beschreibung des Systems möglich ist. Es ist eine schöne Theorie, beantwortet aber nicht wirklich die Frage, die lautet: „Warum haben dynamische Systeme, die reale Prozesse beschreiben, so viele negative Eigenwerte in ihren Jacobi-Nähe-Gleichgewichten?“

Fragen:

  1. Welche Eigenschaft komplexer Systeme (oder bestimmter Observablen solcher Systeme) macht sie als niederdimensionale Systeme modellierbar?

  2. Warum scheinen so viele reale Systeme diese Eigenschaft zu haben?

  3. Habe ich insbesondere Recht, dass dies häufiger vorkommt, als man es in biologischen Systemen erwarten würde?

Sowohl technische als auch nicht-technische Antworten sind willkommen.

Ich weiß nicht viel über das Thema, aber ich wäre sehr daran interessiert, einige Beispiele zu sehen, wenn Sie sie Ihrer Frage hinzufügen könnten.
Erinnert mich an Quanteneffekte, die auf der Makroebene zu Null gemittelt werden.
Haben Sie von Sethnas schlampigen Modellen gehört? Wenn nicht, würde ich ( lassp.cornell.edu/sethna/Sloppy/index.html ) als interessante Perspektive auf Ihre Fragen empfehlen

Antworten (3)

Hier sind ein paar Faktoren, die ins Spiel kommen:

  • Wenn wir ein gegebenes reales System nehmen, das beispielsweise durch 2000 Variablen beschrieben wird, stehen die Chancen gut, dass:
    • Viele von ihnen sind nicht vollständig unabhängig oder nicht gleichwertig und können vernachlässigt werden - wie in einem Kristall, dessen Symmetrien seine Beschreibung stark vereinfachen;
    • eine große Anzahl der verbleibenden kann mit geringem Informationsverlust aggregiert werden - wie die Populationen verschiedener Arten, die in einem ökologischen Modell die gleiche Rolle spielen;
    • es gibt eine Art Verlust im System, zum Beispiel an Energie, was sein asymptotisches Verhalten vereinfacht, begrenzt - es auf einen Bereich seines Zustandsraums beschränkt, der erheblich kleiner (und von geringeren Dimensionen) als der gesamte Zustandsraum ist;
    • Das System ist einem Rauschen ausgesetzt, das, egal wie klein, die Chance, das System auf einer seiner (wahrscheinlich vielen) instabilen Lösungen zu finden, typischerweise auf Null setzt: eine weitere Einschränkung des Bereichs des Zustandsraums, den wir berücksichtigen müssen.
  • Und wenn dieses System beispielsweise 100 Parameter hat, ebenso:
    • es ist sehr unwahrscheinlich, dass sie alle gleich wichtig sind – nimmt man einige der einflussreichsten, kann man einen großen Teil der Variabilität des Systems erklären;
    • Einige Parameter werden wahrscheinlich nicht vollständig unabhängig sein oder werden durch intrinsische oder externe Faktoren festgelegt, wobei sie effektiv eher Konstanten als Parameter sind.

Wenn sich das oben erwähnte Rauschen im Mittel nicht aufhebt (und einen verschwindend geringen Einfluss auf das System hat), dann sind statistische Beschreibungen wahrscheinlich unumgänglich.

Das ist für die Fragen 1 und 2; Was Frage 3 betrifft, ist es vielleicht eine Frage der persönlichen Meinung: Wie viel "würde man erwarten"? Angesichts der oben aufgeführten Faktoren könnte man argumentieren, dass zu erwarten ist, dass mehr Systeme in niedrigeren Dimensionen beschreibbar sein sollten. Auf jeden Fall sollten wir nicht vergessen, dass wir solchen Systemen mehr Aufmerksamkeit schenken, egal ob sie typisch sind oder nicht, einfach weil wir sie besser verstehen können - was den Eindruck erwecken könnte, dass sie häufiger sind, als sie tatsächlich sind Sind.

Die Gleichgewichte mit positiven Eigenwerten würden dazu neigen, zu explodieren, wenn sie auch nur geringfügig gestört würden, oder? Das bedeutet, dass wir in Umgebungen, in denen diese Art von Störungen wahrscheinlich sind, nicht dazu neigen würden, Systeme in diesen Gleichgewichten zu finden. Sie wären bereits lokal "explodiert" und hätten sich aus dieser Region der Mannigfaltigkeit herausbewegt. Vielleicht hat sich die Welt im Laufe der Zeit so entwickelt, dass Systeme in Gleichgewichten gefunden werden, die angesichts ihres Kontexts stabil sind, was bedeutet, dass für alle Arten von Störungen, die sie in ihrer Umgebung erfahren, die Eigenwerte negativ sind.

Warum kann ein komplexes System oft mit einer geringen Anzahl von Parametern modelliert werden? Nun, im Allgemeinen erweisen sich diese wenigen Parameter als Mittelwerte oder Aggregate der zahlreicheren Freiheitsgrade, die in einem kleineren Maßstab sichtbar sind. Die Frage ist also, wie kommt es, dass wir die Gesetze der Physik nur auf diese Gesamteigenschaften anwenden können, anstatt alle wahren Freiheitsgrade zu berücksichtigen?

Sie könnten das fragliche dynamische Gesetz für jedes Teilchen im System schreiben. Aber wenn das System linear ist, dann können Sie all diese Gleichungen addieren, und Sie erhalten dasselbe Gesetz, nur angewendet auf das Objekt als Ganzes mit seinen aggregierten Eigenschaften. Aufgrund der Erhaltung heben sich die Wechselwirkungen zwischen einzelnen Teilchen des Systems auf, und das Gesetz bezieht sich nur auf Einflüsse, die von der Außenwelt kommen.

Und deshalb ist es wichtig, dass diese nichtlinearen Störungen schnell abklingen, sofern das System nichtlinear ist. Denn bis dahin müssen Sie die Teile des Systems separat betrachten, sodass Sie gezwungen sind, mehr Parameter zu verwenden, um es zu beschreiben.

Diese Fragen werden durch die Theorie der Renormalisierungsgruppen (RG) beantwortet. Kurz gesagt, wenn Sie ein System mit vielen Freiheitsgraden (DOF) nehmen und es wiederholt grobkörniger beschreiben, beschreibt die grobkörnige Beschreibung einen Fluss im Raum der Wahrscheinlichkeitsverteilungen. Diese Strömung hat die Eigenschaft, dass viele mikroskopische Details irrelevant werden , was zum Fachbegriff erhoben wird. In der Festkörper- und Teilchenphysik diskutieren wir diesen Fluss normalerweise in Form des Hamilton-Operators, aber das Konzept gilt für jede Familie von Wahrscheinlichkeitsverteilungen und ist somit universell anwendbar.

Um intuitiv zu verstehen, warum es so viele irrelevante Richtungen gibt, ist die Schlüsselidee, dass die meisten DOF nur lokal interagieren, sodass ein großes System ungefähr aus ungefähr nicht interagierenden Subsystemen aufgebaut ist. Dann hat die sogenannte renormierte Beschreibung unter Grobkörnung schwächere Wechselwirkungen als die ursprüngliche Beschreibung. Irrelevanz in RG ist also eine Erweiterung der Irrelevanz höherer Momente im zentralen Grenzwertsatz.

Um diese Ideen zu präzisieren, wird die Sprache der Feldtheorie benötigt. Die moderne Sichtweise kristallisierte sich in den 1970er Jahren mit der Arbeit von Ken Wilson heraus, obwohl diese auf dem verwandten, aber unterschiedlichen Konzept der Renormierung basierte, wie es in der Teilchenphysik seit den 1950er Jahren verwendet wurde.

Es gibt zwei wichtige Einschränkungen in Bezug auf biologische Systeme: Erstens wird die übliche RG in Bezug auf die räumliche Lokalität entwickelt. Wenn Sie ein System haben, das nicht räumlich organisiert ist, kann es schwierig sein, die orthodoxen Methoden anzuwenden. Dies ist ein derzeit aktives Forschungsgebiet. Zweitens funktioniert der RG-Ansatz gut, wenn eine große Skalentrennung zwischen der Mikroskala und der Makroskala besteht. Dieses Kriterium ist in biologischen Systemen möglicherweise nicht immer erfüllt.