Die Strömungsbedingungen, die mit normalen Stößen in Verbindung stehen, sind von zentraler Bedeutung, um das Strömungsumfeld um stumpfe Körper bei Hyperschallgeschwindigkeiten zu schätzen. Ein normaler Stoß führt zu einer drastischen Umwandlung der kinetischen Energie in Enthalpie, was zu einer Erhöhung der Temperatur und des Drucks führt. Für strömende Luftmassen bedeutet dies eine Umwandlung von kinetischer Energie (KE) zu thermischer Energie, was bei Hyperschallgeschwindigkeiten ein wesentlicher Aspekt der Strömungsphysik darstellt. Besonders auffällig ist die unterschiedliche Wirkung eines normalen Stoßes, wenn er bei höheren Machzahlen stattfindet.

Im Vergleich zu stumpfen Körpern, bei denen der Stoß eine größere Stagnationsregion erzeugt, verhalten sich schlanke Körper mit einer kleineren Wellenwiderstandszone. Normalstöße werden dabei durch die Geometrie der schlanken Körper zu schrägen Stößen, was die Wellenwiderstandskraft reduziert. Doch obwohl der Widerstand sinkt, führt die Umstellung von einem normalen Stoß auf einen schrägen zu einer drastischen Erhöhung des Wärmestroms. Dies ist ein zentrales Thema bei der Planung von Hyperschallfahrzeugen, bei denen der Wärmewiderstand und die effiziente Nutzung von KE eine entscheidende Rolle spielen.

Ein normaler Stoß verursacht eine Umwandlung der kinetischen Energie in thermische Energie, wodurch Druck und Temperatur im Strömungsfeld dramatisch steigen. Diese physikalischen Veränderungen sind für Geschwindigkeiten oberhalb von Mach 6 entscheidend, da in diesem Bereich die thermochemische Gleichgewichtstheorie notwendig wird. Für Luft mit einer Machzahl über 6 weichen die einfachen Annahmen eines perfekten Gases deutlich ab, und detaillierte Navier-Stokes-Simulationen werden benötigt. Der Unterschied zwischen einem perfekten Gas und einem thermochemischen Gleichgewicht wird bei solchen hohen Machzahlen immer signifikant. Dies bedeutet, dass herkömmliche Modelle und Formeln für Perfekte Gase nicht ausreichen, um die Strömungseigenschaften korrekt zu beschreiben.

Wenn man von schrägen Stößen spricht, ist die Temperatur- und Druckerhöhung im Vergleich zu normalen Stößen geringer. Dies ist insbesondere bei flachen Rampen oder kegelförmigen Körpern zu beobachten, wo der Luftstrom nach einem schrägen Stoß supersonisch bleibt. Der Zusammenhang zwischen dem Schockwinkel und dem Abweichungswinkel wird in sogenannten β-θ-M-Diagrammen dargestellt, die die Beziehung zwischen der Abweichung des Luftstroms und den Schockbedingungen aufzeigen. Diese Diagramme sind für die Berechnung von Oblique Stößen unter Verwendung eines perfekten Gases besonders hilfreich.

Die Umwandlung von kinetischer Energie in Enthalpie ist ein kritischer Prozess im Hyperschallbereich. Der Übergang von supersonischen zu hypersonischen Strömungen wird oft anhand eines Machwertes von 5 markiert. Dies liegt daran, dass bei diesen Machzahlen die Dichteverhältnisse in einem perfekten Gas nur noch eine begrenzte Rolle spielen. In der Praxis wird Hyperschall als eine Fließgeschwindigkeit über Mach 5 verstanden, wobei der Unterschied zwischen der kinetischen Energie der Luft und der chemischen Energie des Treibstoffs zunehmend wichtiger wird. Dies ist von Bedeutung, weil bei Hyperschallgeschwindigkeiten die kinetische Energie des Luftstroms etwa 80% der Gesamtenergie im Fahrzeug ausmacht.

Im Vergleich zu niedrigen Machzahlen, bei denen die Wärmeenergie durch die Verbrennung von Treibstoffen dominiert, wird der Luftstrom bei Machzahlen über 6 zur Hauptquelle der Energie im Fahrzeug. Diese hohe Energiedichte erfordert eine präzise Berechnung und Kontrolle der thermodynamischen Eigenschaften der Strömung, insbesondere der Entropie und der Wärmeübertragung. Der Verlust an kinetischer Energie, der durch die Umwandlung in Wärme entsteht, ist der entscheidende Faktor, der bei der Gestaltung von Hyperschallfahrzeugen beachtet werden muss. Der effiziente Umgang mit dieser Energie ist entscheidend für die Leistung und die Wirtschaftlichkeit von Hyperschalltechnologien.

Ein weiteres wichtiges Konzept bei Hyperschallgeschwindigkeiten ist die Definition des Eckert-Zahl, die das Verhältnis von kinetischer Energie zu thermischer Energie beschreibt. Für ein ideales Gas ist dieser Wert bei Mach 5 bereits signifikant, und bei Mach 6 beträgt er etwa 7,2. Diese Zahl ist besonders wichtig, weil sie zeigt, ab welchem Punkt die kinetische Energie des Luftstroms den größten Teil der Gesamtenergie ausmacht und die chemische Energie des Treibstoffs immer weniger zur Gesamtenergie beiträgt.

In der Praxis bedeutet dies, dass bei Machzahlen über 6 die Strömung weniger durch die chemische Energie des Treibstoffs, sondern mehr durch die kinetische Energie des Luftstroms bestimmt wird. Es wird zunehmend schwieriger, diese Energie effizient zu nutzen, ohne sie in Form von Wärme zu verlieren, was zu einer Zunahme der Entropie führt. Der Umgang mit dieser Entropie, die in jeder Strömungsdynamik eine Rolle spielt, ist entscheidend, um die Effizienz von Hyperschallfahrzeugen zu maximieren und die thermodynamischen Verluste zu minimieren.

Die thermodynamischen Prinzipien, die die Hyperschallströmung charakterisieren, beruhen auf einer präzisen Balance zwischen kinetischer Energie, Enthalpie und Entropie. Es wird immer deutlicher, dass der Verlust von kinetischer Energie in Form von Entropie das größte Hindernis für die Effizienz von Hyperschallfahrzeugen darstellt. Daher ist die Verbesserung der KE-Effizienz und die Minimierung von Entropieverlusten von größter Bedeutung. Dies verlangt von Ingenieuren und Wissenschaftlern, dass sie Hyperschallfahrzeuge als integrierte thermodynamische Maschinen betrachten, in denen sowohl die kinetische Energie als auch die chemische Energie des Treibstoffs berücksichtigt werden müssen.

Wie funktioniert die Mischung von Brennstoff und Luft in Überschallströmungen?

Die Vermischung von überschallschnellen Luft- und Brennstoffströmen auf einer Distanz von weniger als einem Meter wurde bereits vor über sechzig Jahren als machbar nachgewiesen. Dennoch bleibt das grundlegende physikalische Verständnis dieser Prozesse unvollständig. Die gleichzeitige Wirkung von Akustik, Diffusion, kompressibler Turbulenz und Stoßwellen erschwert präzise Messungen erheblich. Diese Komplexität hat die Anwendung fundamentaler physikalischer Prinzipien auf das Mischungsproblem bisher behindert. Der Fortschritt in diesem Bereich wurde über die letzten fünfzig Jahre vorwiegend durch Versuch und Irrtum erzielt, wie die wechselhafte Entwicklung technischer Lösungen zur Verankerung von Flammen in Überschallströmungen belegt. Unabhängig von der eingesetzten Strategie oder Vorrichtung gilt jedoch physikalisch, dass die Mischung maßgeblich durch Wirbelintensität (Vorticity) gesteuert wird. Diese Wirbel müssen so stark sein, dass ihre Strukturen die thermodynamische Dissipationsskala innerhalb einer Zeitspanne erreichen, die deutlich kürzer ist als die Verweilzeit im Brennraum. Dabei ist es nicht nur entscheidend, Wirbel zu erzeugen, sondern sie auch über ausreichend lange Zeit aufrechtzuerhalten.

Bei paralleler oder leicht gewinkelter Einspritzung von Brennstoff und Luft sowie bei Kavitäten zur Flammenhaltung kann die Wirbelbildung als stetig angenommen werden. Dagegen ist sie in sogenannten Hypermixern durch Vortex-Zusammenbrüche räumlich begrenzt. Daraus folgt, dass der Brennraum so gestaltet werden muss, dass Bereiche für die Kraftstoffverteilung und Vermischung verteilt angeordnet sind, während die Gesamtlänge dennoch möglichst kurz bleibt.

Eine der ältesten Labormethoden ist das parallele Einspritzen von Brennstoff in den Luftstrom, das auf der Kelvin-Helmholtz-Instabilität beruht. Hier entsteht Wirbelbildung durch die Geschwindigkeitsdifferenz zwischen den beiden Strömen. Wasserstoff (GH2) war in den 1950er und 60er Jahren bevorzugter Brennstoff, da seine Reaktionskinetik schneller ist als die von Kohlenwasserstoffen. Experimente zeigten, dass die Mischdistanz kürzer als die Verbrennungsdistanz gehalten werden kann; diese wächst mit dem Äquivalenzverhältnis (E.R.) und erreicht bei E.R. = 1 ihr Maximum. Ein Vorteil der parallelen Einspritzung ist ein moderater Druckabfall und ein gradueller Druckanstieg, was das Risiko thermischer Verstopfung bei Mach-Zahlen um 5–6 verringert. Der wesentliche Nachteil bleibt jedoch die Länge des Brennraums, die für eine vollständige Verbrennung notwendig ist. Durch oblique Schockwellen, beispielsweise erzeugt durch Querschnittsverringerungen, kann eine frühere Zündung induziert werden, was auf den baroklinen Effekt zurückzuführen ist – einem Vektor, der durch simultane Dichte- und Druckgradienten entsteht, wenn Stoßwellen auf Brennstoff- und Luftströme unterschiedlicher Dichte treffen. Der Nachteil dieser Methode ist der Stagnationsdruckverlust an den Schockwellen, der gegen den Reibungsverlust längerer Brennkammern abgewogen werden muss. Weiterhin ist zu beachten, dass zweidimensionale und axi-symmetrische Experimente nur bedingt auf reale dreidimensionale Brennkammern übertragbar sind, da die Strömungsdimensionalität die Reibungsverluste und damit den Wirkungsgrad maßgeblich beeinflusst.

Eine andere bewährte Methode bei höheren Mach-Zahlen (ca. 6–10) ist die Quereinspritzung, bei der Wasserstoff normal oder unter einem Winkel zur Luftströmung aus einer oder mehreren Wandöffnungen eingespritzt wird. Diese Einspritzung erzeugt komplexe dreidimensionale Wirbelstrukturen inklusive Schockwellen. Ziel ist es, die Luftströmung mit Kraftstoff zu sättigen und eine homogene Verteilung zu erreichen. Die Verteilung des Brennstoffs hängt von den kinetischen Energien von Luft- und Brennstoffstrahl ab. Allerdings vermindert die Quereinspritzung den Schub pro Luftmassenstrom, da die Penetrationsarbeit sowohl auf Kosten der kinetischen Energie des Brennstoffstrahls als auch der Luftströmung geht. Dieser Nachteil kann durch verbesserte Vermischung und effizientere Verbrennung ausgeglichen werden.

Die Förderung von 3D-Wirbelstrukturen allein löst das Mischproblem nicht. Vielmehr müssen die Wirbel- und Skalar-Spektren auf die jeweilige Mischstrategie abgestimmt sein, um schnelle Mischraten zu erzielen. Das deutsche Sänger-Projekt der 1990er Jahre zeigte, dass eine unzureichende kinetische Energie der eingespritzten Wasserstoffstrahlen zu unzureichender Durchmischung führt. Dabei trennten sich Luft- und Wasserstoffschichten ab, da die hohe Geschwindigkeit der Luft zwischen den Leitschaufeln die Wasserstoffjets nicht genügend mitriss. Die Lösung lag in der Anpassung der Einspritzparameter, um eine bessere Penetration und feinräumigere Vermischung zu gewährleisten. Diese Erkenntnis verdeutlicht, dass die kinetische Energie des Brennstoffstrahls mindestens in der Größenordnung der Luftströmung liegen muss, um die Luftströmung „aufzuspalten“ und so die Durchmischung zu ermöglichen.

Die thermodynamischen Dissipationsskalen beider Ströme sollten in etwa synchron erreicht werden, was in der Praxis aufgrund unterschiedlicher Größenordnungen und Reynoldszahlen herausfordernd ist. Diese Hypothese erfordert noch detaillierte experimentelle und numerische Bestätigung, bevor sie für konkrete Konstruktionsentscheidungen herangezogen werden kann. Bei der Gestaltung von Einspritzsystemen muss zudem stets ein ausgewogenes Verhältnis zwischen Durchmischungsintensität, Druckverlusten und der Gesamtlänge des Brennraums gewahrt bleiben, um einen stabilen und effizienten Betrieb sicherzustellen.

Neben der physikalischen Betrachtung der Wirbelbildung und des energetischen Gleichgewichts zwischen Luft- und Brennstoffströmen spielt die räumliche Verteilung der Einspritzpunkte eine zentrale Rolle. Eine gleichmäßige Verteilung verhindert lokale Kraftstoffanreicherungen und fördert eine homogene Reaktionszone, was die Verbrennungseffizienz steigert und Schadstoffbildung minimiert. In realen Anwendungen muss zudem berücksichtigt werden, dass verschiedene Brennstoffe unterschiedliche chemische Reaktionskinetiken aufweisen, die das Mischungs- und Zündverhalten beeinflussen. Deshalb sind modellgestützte Simulationen unverzichtbar, um den komplexen Einfluss von Strömungsdynamik, Chemie und Thermodynamik im Überschallbereich umfassend zu erfassen.

Warum das L/D-Verhältnis in der Hyperschalltechnik entscheidend ist

Das L/D-Verhältnis (Länge-zu-Durchmesser) spielt eine zentrale Rolle in der aerodynamischen Auslegung von Hyperschallflugzeugen, insbesondere wenn es um die Gestaltung von Fahrzeugen für die Wiedereintrittsphase aus dem Orbit geht. Eine historische Referenz stellt das Modell 176 der McDonnell Douglas (MDD) dar, das in den 1960er Jahren entworfen wurde, um mit dem NASA/Rockwell Space Shuttle zu konkurrieren. Dieses Modell wies ein L/D-Verhältnis auf, das es ermöglichte, aus dem Orbit mit einer hohen Flexibilität und nahezu überall auf der Erde zu landen, was ein bemerkenswerter Vorteil gegenüber anderen Fahrzeugen wie den Apollo-Kapseln war.

Ein Fahrzeug mit einem niedrigen L/D-Verhältnis – wie es bei den Apollo-ähnlichen Kapseln der Fall war – hat nur sehr eingeschränkte Möglichkeiten, den Landeort zu wählen. Der Deorbitierungsprozess und der anschließende Abstieg hängen stark von den Anfangsbedingungen der Orbitalbahnen ab. Die Landepunkte sind daher weitgehend vorbestimmt, was die Planbarkeit der Missionen erschwert. Im Gegensatz dazu ermöglicht das höhere L/D-Verhältnis der MDD-Designs eine weitaus größere Steuerbarkeit und Flexibilität, sowohl beim Wiedereintritt als auch bei der Landung. Diese Designs waren nicht nur aerodynamisch effizienter, sondern auch kostengünstiger, da sie auf Konstruktionen ohne doppelt gekrümmte Oberflächen setzten, was den Materialaufwand erheblich reduzierte.

Ein weiterer wichtiger Aspekt, der bei der Analyse von Hyperschallfahrzeugen berücksichtigt werden muss, ist die Art der verwendeten Materialien. Die Struktur des Modell 176 war "heiß", was bedeutet, dass sie auf aktives Kühlsystem und Anti-Oxidationsbeschichtungen angewiesen war, um den extremen Temperaturen des Wiedereintritts zu trotzen. Im Vergleich dazu verwendete das Space Shuttle eine strukturierte Wärmeisolierung, die in der Praxis nicht immer optimal war. Diese Materialien und das Design der Struktur beeinflussten nicht nur die aerodynamische Effizienz, sondern auch die Betriebskosten und die Wartungsanforderungen der Fahrzeuge.

Ein weiteres wichtiges Designmerkmal, das das Modell 176 von anderen Fahrzeugen unterschied, war die Vermeidung von doppelt gekrümmten Oberflächen. Diese Oberflächen sind in der Regel aerodynamisch weniger effizient und führen zu höheren Kosten in der Herstellung und Wartung. McDonnell Douglas verfolgte eine Philosophie, die einige aerodynamische Strafen in Kauf nahm, aber deutlich günstigere Produktions- und Wartungskosten ermöglichte. Dies führte zu einer Reduzierung des Gesamtgewichts und der Komplexität des Fahrzeugs, ohne die Leistungsfähigkeit wesentlich zu beeinträchtigen.

Bei der Betrachtung von Hyperschallvehikeln ist es ebenfalls von Bedeutung, den Einfluss der Tragflächentechnologie zu verstehen. Die Flugzeuge der Modell 176-Familie waren in der Lage, während des Wiedereintritts mit einer Geschwindigkeit von etwa 7,2 km/s zu operieren, was sie zu einer bemerkenswerten Errungenschaft in der Hyperschalltechnik machte. Die strukturellen Herausforderungen dieser Geschwindigkeiten erforderten außergewöhnliche technologische Lösungen, die nicht nur die aerodynamische Effizienz optimierten, sondern auch die strukturelle Integrität gewährleisteten.

Das L/D-Verhältnis spielt jedoch nicht nur bei der Gestaltung von Hyperschallfahrzeugen eine Rolle. Auch bei der Analyse von Flugzeugen im Allgemeinen, insbesondere bei der Betrachtung von Mach 8 Airlinern, ist dieses Verhältnis von zentraler Bedeutung. Das L/D-Verhältnis beeinflusst nicht nur die Aerodynamik, sondern hat auch direkte Auswirkungen auf den Treibstoffverbrauch und die allgemeine Effizienz des Fahrzeugs. Ein höheres L/D-Verhältnis bedeutet in der Regel eine geringere Widerstandskraft und somit eine höhere Reichweite und geringeren Kraftstoffverbrauch.

Es ist ebenfalls wichtig zu beachten, dass das L/D-Verhältnis von mehreren Faktoren abhängt, einschließlich der Form des Fahrzeugs, der Art des Triebwerks und der verwendeten Materialien. Eine schlanke Form mit einem höheren L/D-Verhältnis führt in der Regel zu einem besseren aerodynamischen Verhalten und reduziert den Luftwiderstand. In der Praxis wird dieses Prinzip auch bei der Auswahl von Antriebssystemen berücksichtigt, wobei sich die Wahl von Triebwerken und deren spezifischen Impuls direkt auf das Gesamtgewicht und die Reichweite des Fahrzeugs auswirkt.

Zusammengefasst lässt sich sagen, dass das L/D-Verhältnis ein grundlegender Parameter in der Hyperschalltechnologie ist, der nicht nur die aerodynamische Effizienz, sondern auch die Flexibilität bei der Steuerung der Landung und den allgemeinen Betrieb eines Fahrzeugs beeinflusst. Die Erfahrungen aus der Vergangenheit, insbesondere die Designs von McDonnell Douglas, zeigen, wie durchdachte Materialwahl und aerodynamische Gestaltung zu einer deutlichen Leistungssteigerung bei gleichzeitig reduzierten Kosten führen können.

Wie man turbulente Verbrennung und chemische Kinetik in der Strömungsmechanik simuliert: Herausforderungen und Modelle

Die Simulation von turbulenten Verbrennungsvorgängen in Strömungsmechanik stellt eine der größten Herausforderungen in der numerischen Thermodynamik dar. Besonders die Problematik, dass chemische Kinetik auf molekularer Ebene stattfindet und gleichzeitig Turbulenzen modelliert werden müssen, verlangt nach innovativen und oft empirischen Modellen. Traditionelle Ansätze zur Lösung der Navier-Stokes-Gleichungen (NSE) stoßen hier an ihre Grenzen, besonders wenn es um die Simulation von Reaktionen in turbulenten Strömungen geht.

Die Verwendung künstlicher Viskosität zur Stabilisierung von Berechnungen kann numerische Lösungen weiter von den echten Lösungen der NSE entfernen. Besonders bei Machzahlen über 1, wo die Strömungen schockartig und diskontinuierlich werden, ist es notwendig, höhere Ordnungsgleichungen zu verwenden, wie etwa die Burnett- oder Super-Burnett-Gleichungen. Doch diese sind oft nur für Übergangsströmungen geeignet und können bei höheren Machzahlen und komplexeren Flows nur bedingt eingesetzt werden. Das Hauptproblem besteht darin, dass die enthaltenen diffusen Kreuzterme bislang nicht vollständig verstanden und daher nicht exakt modelliert werden können.

Die Lösung des reaktiven NSE stellt eine noch größere Herausforderung dar. Die Berechnung der turbulenten Strömung und der Kinetik von chemischen Reaktionen auf der molekularen Ebene erfordert enorme Rechenressourcen. Daher sind vereinfachte Modelle wie RANS/FANS (Reynolds-Averaged Navier-Stokes und Large Eddy Simulation) oder LES (Large Eddy Simulation) weit verbreitet. Diese Modelle sind notwendig, um die Turbulenz in ingenieurtechnischen Anwendungen zu simulieren, da die direkte Lösung der reaktiven NSE in praktisch umsetzbaren Zeitrahmen nicht möglich ist.

Die chemische Kinetik auf molekularer Ebene ist von Natur aus statistisch und hängt sowohl von der Dichte als auch von der kinetischen Energie der Moleküle ab. In turbulenten Verbrennungsmodellen (TCM) wird versucht, diese molekularen Kollisionen so zu modellieren, dass ihre Auswirkungen auf die Reaktionsgeschwindigkeit im Kontinuum abgebildet werden. Die Schwierigkeit dabei ist, dass es äußerst komplex ist, die kollisionsbedingte statistische Verteilung für die verschiedenen Reaktionen exakt zu berechnen, vor allem, wenn die Produkte der Kollisionen unterschiedliche Moleküle sind als die Ausgangspartner.

Dies führte in den späten 1980er und frühen 1990er Jahren zu umfassenden Forschungsprojekten wie HERMES, die versuchten, diese mathematischen und rechnerischen Schwierigkeiten zu überwinden, jedoch mit begrenztem Erfolg. Aus diesem Grund sind die meisten Modelle zur chemischen Kinetik, die in Turbulent Combustion Models verwendet werden, stark empirisch. Das Arrhenius-Modell, das auf experimentellen Daten beruht, ist nach wie vor der Standardansatz, obwohl es in der Praxis häufig unzureichend ist, insbesondere bei komplexen Reaktionen. Die Koeffizienten dieses Modells müssen experimentell bestimmt oder, für einfachere Reaktionen, über molekulare Dynamik simuliert werden. Doch selbst dann bleibt die Vorhersage der Reaktionskinetik aufgrund der vereinfachten Annahmen zur Molekülverteilung oft fehlerhaft.

Ein weiterer kritischer Punkt ist, dass viele der Arrhenius-Daten unter Bedingungen gewonnen wurden, die nicht der realen Umgebung in Hyperschall-Flugzeugen entsprechen. In der Luftchemie bei hohen Geschwindigkeiten, wie sie in der Hyperschalltechnik vorkommen, sind diese Daten nicht immer direkt anwendbar. Die Herausforderung wird zusätzlich dadurch vergrößert, dass viele der turbulenten Flüsse, in denen chemische Reaktionen stattfinden, auf Skalen ablaufen, die kleiner sind als die aufgelösten Gitterpunkte in den Computermodellen.

Die gängigen turbulente Verbrennungsmodelle, wie das EDC-Modell (Eddy Dissipation Concept) oder das Fraktale Modell, basieren auf der Annahme, dass die gesamte Reaktion in einem Gitterpunkt stattfindet, was jedoch in der Realität nicht zutrifft. Nur ein Teil des Reaktionsvolumens ist tatsächlich unter den Bedingungen, die eine chemische Reaktion auslösen. Dies führt zu einer Überschätzung der Brenngeschwindigkeit, was die numerischen Berechnungen destabilisieren kann. Die Vereinfachungen, die für die Berechnungen der turbulent-diffusiven Transportprozesse gemacht werden, berücksichtigen oft nicht die unterschiedlichen Zeit- und Längenskalen der chemischen Reaktionen und der Turbulenz, was zu erheblichen Abweichungen in den Simulationsergebnissen führen kann.

Ein weiteres Problem in der Praxis ist die Kopplung von chemischen Reaktionen und turbulenter Strömung. Die unterschiedlichen Zeitskalen der chemischen Reaktionen und der turbulente Transport erschweren eine genaue Modellierung. In einfachen Fällen, in denen die Reaktions- und Transportprozesse zeitlich ähnlich sind, können Annahmen über lokale chemische und thermische Gleichgewichte gemacht werden. In komplexeren Szenarien, wie sie bei Hochgeschwindigkeitsströmungen vorkommen, versagen diese Annahmen jedoch und müssen durch detailliertere Modelle ersetzt werden.

In der Anwendung von LES und RANS auf turbulente Verbrennung stellt sich zudem die Frage nach der Auflösung des Gitters. In vielen Fällen ist die Gitterauflösung nicht fein genug, um die chemischen Strukturen von Flammen genau darzustellen. Dies führt dazu, dass in den Simulationszellen mehr Reaktanten vorhanden sind, als tatsächlich für die Reaktion zur Verfügung stehen. Solche Mismatches zwischen den realen und simulierten Skalen sind eine der Hauptursachen für die Überbewertung der Brenngeschwindigkeit und die Divergenz von Simulationen.

Die Rechenressourcen, die erforderlich sind, um diese Modelle exakt zu berechnen, sind enorm, und selbst in DNS-Simulationen ist das Gitter oft noch nicht fein genug. Die Einführung von Annahmen wie der konstanten turbulent-skalaren Prandtl- und Schmidt-Zahlen hat sich zwar in der Praxis bewährt, führt jedoch zu signifikanten Ungenauigkeiten in der Modellierung von Temperaturverteilungen und der Entzündungsposition in Strömungsmodellen. Diese Ungenauigkeiten sind in vielen Experimenten nachweisbar und erfordern eine ständige Anpassung der Modelle an verschiedene experimentelle Datenbanken.

Insgesamt bleibt die Modellierung von turbulenter Verbrennung und chemischen Reaktionen ein schwieriges, aber auch sehr faszinierendes Gebiet der Strömungsmechanik. Die Entwicklung von Modellen, die die Reaktionen auf molekularer Ebene korrekt abbilden, und die Verbesserung der numerischen Methoden zur Behandlung der Kopplung zwischen Chemie und Turbulenz sind von zentraler Bedeutung für die Weiterentwicklung der Hochgeschwindigkeitsströmungstechnologie.