Wird Computational Fluid Dynamics (CFD) jemals zu 100 % korrekt sein?

CFD-Ergebnisse stimmen niemals mit Zahlen aus der realen Welt überein, insbesondere in turbulenten 3D-Komplexströmungen ...

Was hindert CFD daran, perfekt zu sein, und wird es jemals 100 % korrekt sein? Wenn das Navier-Stokes-Millennium-Problem gelöst ist, wird CFD dann perfekt, oder ist die turbulente Strömung einfach so komplex, dass keine Mathematik sie richtig beschreiben kann?

Bezüglich "Zahlen aus der realen Welt nie abgleichen" : Wie groß ist die Abweichung (in %)? Welche Abweichung kann toleriert werden?
Kann die Realität jemals zu 100% richtig sein? Das Universum hat auch eine Granularität.
@PcMan Das exponentielle Problem ist also tatsächlich in linearer Zeit lösbar, da die Computerleistung auch exponentiell wächst. 200 Jahre, geben oder nehmen Sie ein paar. Wir sollten uns anscheinend zuerst darauf konzentrieren, das Altern zu lösen. Wie geht es übrigens Kurzweil? Immer noch 100 Pillen am Tag schlucken ?
Es gibt noch kein vollständiges Modell der Physik, also ist kein Modell von irgendetwas jemals 100% korrekt, analytisch oder numerisch.
@Peter - Wiedereinsetzung von Monica: Aber dem Wachstum der Rechenleistung sind grundlegende Grenzen gesetzt. Beispielsweise ist es schwierig, Leiterbahnen weniger als ein Atom breit zu machen oder die CPU-Frequenz in den THz-Bereich zu steigern ...
Aus Sicht der Berechenbarkeit: Es gibt Probleme der Newtonschen Physik, die aufgrund von Problemen mit dem Halteproblem unentscheidbar sind. Ich weiß nicht, ob eine solche Kodierung für CFD existiert. (Im Wesentlichen: Es gibt Systeme, die in endlicher Zeit bis ins Unendliche divergieren. Codieren Sie eine Turing-Maschine in die Mechanik eines solchen Systems, und Sie können ein Problem bekommen, bei dem die Berechnung dessen, was in einer endlichen Zeit passiert, erfordert, zu wissen, ob die Turing-Maschine anhält ... ) (Ich würde eine vollständige Antwort ausarbeiten, kann dies aber aufgrund mangelnder Reputation auf dieser Subsite nicht. Diese Site kümmert sich wirklich nicht um disziplinübergreifende Zusammenarbeit ...)
@PcMan: Tatsächlich hat die Verarbeitungsgeschwindigkeit von einzelnen Kernen/Threads ziemlich gut stagniert: preshing.com/20120208/… Wo Sie Leistungssteigerungen sehen, besteht darin, mehrere Kerne in eine CPU zu stecken und Parallelität auf Befehlsebene im Kern durchzuführen. Aber mehrere Kerne helfen nur, wenn Sie das Problem parallelisieren können, und es gibt sehr viele Probleme, die von Natur aus sequentiell sind. Und Sie kommen auch an einen Punkt, an dem der Engpass nicht Flops, sondern die Kommunikation zwischen den Kernen ist. (Siehe zB GPU-Programmierung.)
@jamesqf Weißt du was? du gewinnst. Ich weigere mich, mit jemandem, der Tatsachen leugnet, in eine sachliche Auseinandersetzung einzutreten. Lesen Sie etwas über Moores Gesetz, sehen Sie, ob Sie den Teil finden können, der über „Single-Core-Verarbeitung“ spricht. Ich schätze, Sie lesen ein anderes Moores Gesetz als ich.
@jamesqf Dieser Artikel ist uralt. IPC hat sich weiterhin dramatisch verbessert . Ein 5800X hat mehr als die doppelte Single-Thread-Leistung eines i7 970 von vor einem Jahrzehnt.
@PcMan: Sachargument? Ihre "Tatsache" scheint eher Wunschdenken zu sein und zu erwarten, dass eine bestimmte Technologie, weil sie in der Vergangenheit Leistungssteigerungen gezeigt hat, dies auf unbestimmte Zeit tun wird - etwas, das weder durch Erfahrung noch durch Physik bestätigt wird.

Antworten (8)

Dies ist eine breite Frage, daher eine breite Antwort 😃

So wie High Eng CFD jetzt steht, ist es bereits korrekt genug für, sagen wir, 95 % der Anwendungsfälle. Mir ist kein großer Nutzen bei der Modellierung komplexer turbulenter Strömungen mit hoher Genauigkeit bekannt.

CFD wird immer genauer werden, aber eine 100%ige Genauigkeit wird niemals erreicht werden, nicht zuletzt wenn wir davon ausgehen, dass dies eine 100% genaue Wegvorhersage auf molekularer / atomarer Ebene bedeuten würde.

Die Sache ist, dass nicht einmal die Natur Strömungsereignisse replizieren kann. Jeder Flüssigkeitsfluss ist chaotisch und erscheint nur dann stetig oder sich wiederholend, wenn er in einem ausreichend großen Maßstab beobachtet wird. Von Natur aus gehorcht jeder Fluss dem von Heraklit aufgestellten Prinzip:

„Du kannst nicht zweimal in denselben Fluss steigen“

Wenn also derselbe Stein aus derselben Höhe in ein Glas mit ruhigem Wasser geworfen wird, wird die Wasserbewegung auf mikroskopischer Ebene niemals dieselbe sein?
Exakt. Wenn und nur wenn Sie jede einzelne Variable gleich machen könnten, könnte die Fluiddynamik des Ereignisses gleich sein. Aber selbst wenn Sie alles gleich machen, wird das Universum es nicht tun. Im kleinsten Maßstab haben Sie virtuelle Partikel, die das Experiment zufällig stören und die Ergebnisse geringfügig verändern.
@JurgenM Egal wie ruhig es aussieht, zwei flüssige Gewässer sind niemals gleich. Jedes einzelne seiner Moleküle befindet sich in einem anderen Energiezustand und bewegt und springt mit einem anderen Winkel und einer anderen Geschwindigkeit. Brownsche Bewegung, die zu einer unendlichen Anzahl unvorhersehbarer Konvektionsströmungen führt, und das sogar dann, wenn beide Körper die gleiche Gesamttemperatur haben. Wenn Sie dann alle Grenzschichtwechselwirkungen berücksichtigen, werden die Dinge noch viel, viel verrückter ...
@ Jürgen M: Angenommen, ein Glas Wasser enthält eine US-Tasse, befinden sich (per Google) 8,3569904e + 24 Moleküle in diesem Glas. Selbst wenn Sie irgendwie jedes dieser Moleküle in GENAU die gleiche zufällige Richtung und Geschwindigkeit in beiden Gläsern bringen könnten (was Sie nicht können: sehen Sie sich die Heisenberg-Unschärferelation an), gibt es 3 Atome in jedem Molekül, die in verschiedenen vibrieren und sich drehen Modi, von denen einige nur ungefähr real sind (aufgrund von Quanten :-)), und unser Freund Chaos (AKA sensible Abhängigkeit von Anfangsbedingungen) wird selbst den kleinsten Unterschied verstärken.
was die Genauigkeit betrifft - es gäbe einige Anwendungsfälle. Etwas, das mir gerade einfällt - Grenzschichtablösung und abgelöste Strömungen über Schaufeln (was zu Strömungsabriss führt), insbesondere um den Strömungsabriss und die Marge in Axialkompressoren zu bestimmen. Meines Wissens ist der aktuelle CFD dieser Aufgabe nicht wirklich gewachsen.
Ich bin mir ziemlich sicher, dass das Strömungsabrissverhalten von Tragflächen zuverlässig mit CFD modelliert werden kann. Wie sich die Strömung nach der Trennung verhält, kann zufriedenstellend modelliert werden.

100% richtig, nein. Das liegt daran, dass CFD (und viele andere Computeranwendungen) mit numerischen Annäherungen arbeiten. Es ist entweder keine exakte Lösung* bekannt oder die exakte Lösung ist nicht berechenbar. Die Anwendung verwendet also numerische Annäherungen, typischerweise auf einem Gitter oder Netz. Um eine bessere Annäherung zu erhalten, verkleinern Sie entweder das Gitter oder verwenden einen kleineren Zeitschritt (beides erhöht die benötigte Rechenzeit). Aber Sie werden nicht 100 % genau, es sei denn, Sie verwenden einen unendlich kleinen Gitterabstand und Zeitschritt**, was unpraktisch ist.

Ein weiteres Problem besteht darin, dass Gleitkommaberechnungen auf einem Computer nur eine begrenzte Genauigkeit haben. (Ungefähr 7 Dezimalstellen für einfache Genauigkeit, 15 für doppelte.

Wenn Sie in turbulente Strömungsregime geraten, stoßen Sie auch auf das Problem der empfindlichen Abhängigkeit von Anfangsbedingungen, auch bekannt als "Chaos" oder "Schmetterlingseffekt". Ändern Sie die Eingabe zu einem Problem, ganz geringfügig, und nach einiger Zeit werden die Ausgaben dies tun ganz anders sein: https://en.wikipedia.org/wiki/Chaos_theory

*Zum Beispiel Flugbahnen von Raumfahrzeugen. Es gibt keine allgemeine Lösung für das 3-Körper-Problem – wie sich 3 oder mehr Objekte unter dem Einfluss der Schwerkraft bewegen. Aber numerische Annäherungen sind gut genug, um ein Raumschiff an einer bestimmten Stelle auf dem Mars zu landen oder Gravitationspool zwischen den Monden von Jupiter und Saturn zu spielen.

**Oder die Planck-Länge und -Zeit, wenn Sie die Theorie akzeptieren, dass die Raumzeit quantisiert ist: https://en.wikipedia.org/wiki/Planck_units Beim aktuellen Stand der Computertechnologie gibt es keinen großen praktischen Unterschied :-)

Erstens fragt die Millennium Challenge nach der Existenz und Eindeutigkeit einer Lösung für die Navier-Stokes (NS)-Gleichungen unter gegebenen kompatiblen Anfangs-/Randbedingungen. Diese Frage ist aus Sicht der angewandten Mathematik von großem Interesse, hilft aber nicht* beim tatsächlichen Erhalten der numerischen Lösung und ist daher für Ingenieure von begrenztem Interesse.

* Aber wer weiß? Vielleicht hilft ein konstruktiver Beweis tatsächlich beim Lösen der Gleichungen.

Zweitens hat sich gezeigt, dass die Direkte Numerische Simulation (DNS) des NS unter der Annahme, dass Eindeutigkeit und Existenz gelten, extrem gut zu Experimenten passt, bei denen Kontinuum gilt. DNS kann in vielen Fällen sogar Experimente ersetzen, vorausgesetzt, Sie können die Lösung tatsächlich in angemessener Zeit und mit vorhandenen Rechenkapazitäten erhalten. Das Problem liegt darin, die Längenskala der Turbulenz vollständig aufzulösen, was eine Maschenweite erfordern würde, die mit der Reynolds-Zahl skaliert R e 3 ; die Zeitschrittgröße schrumpft auch als Potenz der Reynolds-Zahl. Für jedes vernünftige technische Problem ist der zur Lösung erforderliche Speicher/Prozessor/Zeit für praktische Zwecke unerschwinglich.

Daher der Grund für die Turbulenzmodellierung , die praktische Berechnungen handhabbar macht. Diese Modelle ignorieren die Turbulenz auf kleinen Längenskalen, indem sie ihre Auswirkungen auf die größeren Skalen nachahmen, um Phänomene vorherzusagen, die für Ingenieure von Interesse sind, wie z. B. Luftwiderstand, Strömungsablösung, Wirbel usw. Es gibt jedoch kein kostenloses Mittagessen; durch das „Abschneiden“ der Längenskala werden Turbulenzen nicht natürlich aufgelöst, sondern über Parameter „vorgeschrieben“; und Sie wissen normalerweise nicht, was diese Parameter sein sollten, bis Sie die Turbulenz aufgelöst haben.

Wenn das für Sie nach einer Henne-Ei-Frage klingt, haben Sie Recht! Aus diesem Grund erfordert CFD (mit Turbulenzmodellierung) immer noch eine experimentelle Überprüfung und wird niemals 100% korrekt sein, wie Sie es ausdrücken.

Aus den oben genannten Gründen ist die Antwort definitiv Nein, aber ein Punkt, an den Sie sich hier erinnern sollten, ist, dass High-End-CFD nicht perfekt sein müssen, um immens nützlich zu sein. Stellen Sie sich vor, Sie wollten eine Genauigkeit von 7 Stellen aus einer Temperaturvorhersage in CFD herausholen. Das wäre ein Kinderspiel, denn in der Ingenieurpraxis kann man Freistrahltemperaturen überhaupt nicht mit dieser Genauigkeit messen . (Es wurde gesagt, dass die Genauigkeit von drei Stellen ausreichte, um den SR-71 zu entwerfen.)

Nein, es wird nie 100% genau sein. Luft oder Wasser werden durch die Navier-Stokes-Gleichungen ziemlich gut beschrieben, wenn man davon ausgeht, dass die Flüssigkeit ein Kontinuum ist. Meist wird auch angenommen, dass es sich um Newtonsche Flüssigkeiten handelt.

Die Navier-Stokes-Gleichungen für eine turbulente Strömung müssen numerisch gelöst werden (für einige laminare Strömungen existieren analytische Lösungen). Numerische Lösungen sind für diese Probleme nie exakt, egal welche Genauigkeitsordnung Sie für Ihre Diskretisierungen verwenden (FDM, FVM, DG, FEM, ...). Es wird immer einige numerische Fehler geben (ich ignoriere jetzt die Turbulenzmodellierung, weil es offensichtlich ist, dass die Schließungen immer nur ungefähr sind, die einzige Hoffnung auf genaues Zeug wäre in DNS).

Selbst wenn Sie die Navier-Stokes-Lösungen genau lösen (wie Sie es in einigen laminaren Strömungen tun können), haben Sie nur die Modellgleichungen gelöst. Echte Flüssigkeiten bestehen aus Molekülen, nicht aus einem Kontinuum. Sie könnten eine Molekulardynamiklösung durchführen (siehe https://mattermodeling.stackexchange.com/questions/tagged/molecular-dynamics ), aber Sie werden wieder einige Modellgleichungen lösen - mit einigen Potentialen zwischen Molekülen und Atomen. Echte Moleküle bestehen aus Kernen und Elektronen. Die Elektronen interagieren auf schwierige Weise und es treten Quanteneffekte auf. Sie haben eine inhärente Zufälligkeit. Auch hier gibt es Modelle für viele Teilchenquantensysteme – wie DFT oder HT, aber es gibt Annäherungen, die ihrer Formulierung innewohnen.

Weniger wichtig, Kerne sind offensichtlich auch Verbindungen von Nukleonen, die durch einige komplizierte Potentiale durch Pionen wechselwirken, aber genauer gesagt tatsächlich wieder aus Quarks bestehen).

Jeder der Schritte erfordert natürlich selbst für einige kleine Probleme eine immense Rechenleistung, aber es gibt Barrieren anderer Art in den Modellen selbst, die einige Aspekte im Wesentlichen zufällig machen.

Und dann die ganzen Probleme mit unbekannten Anfangsbedingungen, unbekannten Randbedingungen und deterministischem Chaos. Diese sind sehr wichtig für tatsächliche Lösungen für eine bestimmte Zeit, weniger wichtig für zeitlich gemittelte Werte.

Es gibt verschiedene CFD-Methoden, die alle einige Kompromisse zwischen Rechenkomplexität und Präzision beinhalten. Offensichtlich ist die direkte numerische Simulation , die rechenintensivste, die einzige Methode, die für Ihre Frage in Betracht gezogen werden kann - und selbst in DNS werden kleinräumige Turbulenzen normalerweise parametrisiert. DNS ist bereits fast unerschwinglich, aber wenn Sie über 95 % hinausgehen, werden exponentiell noch mehr Ressourcen für jedes Prozent benötigt. Tatsächlich würde ich intuitiv sagen, dass Sie einen Computer benötigen würden, dessen Rechenleistung der Anzahl der Moleküle entspricht – die per Definition – selbst wenn sie überhaupt existieren könnte – mindestens ein paar Mal größer sein muss als die simulierte Umgebung. Dann gibt es natürlich noch den Millennium-Preis – wenn es keine solche Lösung gibt, könnte Sie keine noch so große Rechenleistung dorthin bringen.

Und vergessen Sie nicht, dass selbst High-End-DNS zu dramatisch falschen Ergebnissen führen kann, wenn ein kleines Phänomen auftritt, das unterhalb der Auflösung des Modells auftritt – etwas, das heutzutage selten ist, vor allem, weil wir damit beginnen, sehr gute Erfahrungen zu machen DNS und die meisten davon sind bereits bekannt.

In DNS können kleine Turbulenzen nicht parametrisiert werden, das ist die eigentliche Definition von DNS. Die verwendeten Annahmen sind die Navier-Stokes-Gleichungen und daher wird ein Kontinuum und normalerweise ein Newtonsches Fluid angenommen. Es hat keinen Sinn, über die Anzahl der Moleküle in DNS zu sprechen. Wenn Sie Moleküle wollen, sprechen Sie über Molekulardynamik, nicht über DNS.

Keine Simulation, in welchem ​​Bereich auch immer, kann zu 100 % korrekt sein. Nur weil Computer diskretisieren. Und kleine Fehler divergieren exponentiell mit der Zeit (Suche nach Lyapunov-Exponent).

Es ist sicher zu sagen, dass es nie 100% richtig sein wird. Es würde erfordern, jedes einzelne Flüssigkeitsmolekül zu berücksichtigen und zu simulieren. So wenig wie ein Kubikzentimeter Luft hat mehr als 10 hoch 19 Moleküle: es sind mehr als 10.000.000.000.000.000.000 Moleküle. Viel Glück, wenn ein vorhandenes oder zukünftiges Stück Hardware alle Interaktionen zwischen ihnen simuliert.