Astronomen streben immer größere Teleskope mit größeren Aperturen an, da dies die Fähigkeit zur Beobachtung des Universums erheblich steigert. Derzeit verfügen die größten funktionalen Teleskope der Welt über Aperturen mit Durchmessern von etwa 10 Metern. Doch welche Faktoren beeinflussen die Messung des Lichts und die genaue Bestimmung der Helligkeit von astronomischen Objekten? Dies betrifft nicht nur die Detektoren, sondern auch die Art und Weise, wie Licht von den Teleskopen erfasst und interpretiert wird.
Ein grundlegendes Konzept bei der Messung von Licht ist die Unterscheidung zwischen dem gesamten (bolometrischen) Fluss und dem monochromatischen Fluss. Der bolometrische Fluss ist die gesamte Lichtenergie, die über alle Wellenlängen hinweg abgestrahlt wird, während der monochromatische Fluss den Fluss bei einer bestimmten Wellenlänge beschreibt. Der bolometrische Fluss lässt sich theoretisch über das gesamte elektromagnetische Spektrum integrieren, was in der Praxis jedoch aufgrund der Komplexität der Detektoren und der Atmosphäre eine Herausforderung darstellt. Astronomen verwenden unterschiedliche Detektoren für verschiedene Wellenlängenbereiche, was die Messung des bolometrischen Flusses zusätzlich erschwert. Für praktische Zwecke wird oft der monochromatische Fluss gemessen, der als spektrale Irradianz bezeichnet wird.
Die Formeln zur Berechnung des Lichtflusses lauten:
Dabei sind und die monochromatischen Flüsse, die den Fluss pro Wellenlängen- bzw. Frequenzeinheit beschreiben. Ein wichtiger Zusammenhang zwischen diesen Größen lässt sich durch die Gleichung ausdrücken, was auf den Zusammenhang zwischen Wellenlänge, Frequenz und Lichtgeschwindigkeit () hinweist.
Die Messung des monochromatischen Flusses erfolgt in verschiedenen Einheiten. Für den Wellenlängenbereich sind dies üblicherweise , und für den Frequenzbereich . Eine weitere Einheit, die besonders in der Radioastronomie verwendet wird, ist das Jansky (Jy), wobei .
Die direkte Messung des Flusses eines astronomischen Objekts wird durch die Eigenschaften des Teleskops und des Detektors beeinflusst. Der Messflusseffekt kann mit der folgenden Gleichung beschrieben werden:
Hierbei ist die Fläche des Teleskops, und bezeichnet die Antwortfunktion des Detektors, die angibt, wie viel Licht bei einer bestimmten Wellenlänge detektiert wird. Der Wert hängt von der Transmissivität der Optik, der Quantenempfindlichkeit des Detektors und der Filterfunktion ab. Letztere gibt an, wie viel Licht durch den verwendeten Filter hindurchgelassen wird.
Die Antwortfunktion lässt sich durch die Produktformel ausdrücken:
wobei die Transmissivität der Optik, die Quantenempfindlichkeit des Detektors und die Filtertransmissivität bezeichnet. Es ist zu beachten, dass die Atmosphäre bestimmte Wellenlängen stärker abschwächt als andere, was insbesondere für bodenbasierte Teleskope von Bedeutung ist. Solche atmosphärischen Effekte müssen in den Messungen berücksichtigt werden, um eine präzise Bestimmung des Lichtflusses zu ermöglichen.
Für die Bestimmung der Helligkeit von Sternen hat sich das Magnitudensystem etabliert, das bis in die Antike zurückreicht. Der griechische Astronom Hipparchos entwickelte im 2. Jahrhundert v. Chr. eine Methode zur Klassifizierung von Sternen nach ihrer Helligkeit, wobei er den hellsten Sternen die Magnitude 1 und den schwächsten Sternen die Magnitude 6 zuwies. Dieses System beruhte auf einer logarithmischen Wahrnehmung des menschlichen Auges, das auf Lichtenergie in einem nicht-linearen Verhältnis reagiert. Später verband der Astronom Norman Pogson im Jahr 1856 das Magnitudensystem mit dem Lichtfluss, wobei er festlegte, dass ein Unterschied von fünf Magnituden einem Faktor von 100 im Fluss entspricht.
Die Helligkeit eines Sterns wird nun durch die Formel
bestimmt, wobei die Magnitude, die Flussdichte und eine Konstante ist, die den Nullpunkt des Magnitudensystems definiert. Ursprünglich wurde der Stern Vega als Referenz mit einer Magnitude von 0 gewählt. In der Praxis wird die Magnitude eines Sterns durch den Vergleich seines Flusses mit einem Standardstern bestimmt, dessen Magnitude bekannt ist. Die Differenz der Magnituden zweier Sterne, , ist unabhängig von der Konstante und lässt sich durch die Gleichung
beschreiben. Daraus lässt sich auch der Flussverhältnis zwischen den beiden Sternen ableiten:
wo .
Ein weiteres wichtiges Konzept im Magnitudensystem ist das absolute Magnitudensystem. Die absolute Magnitude beschreibt die Helligkeit eines Objekts, wie es aus einer Entfernung von 10 Parsec erscheinen würde. Sie ist direkt mit der Luminosität eines Objekts verknüpft und kann mit Hilfe des inverse Quadratgesetzes sowie der Magnitudenformel berechnet werden:
Der Abstand eines Objekts lässt sich mit dem sogenannten Distanzmodul bestimmen, der die Differenz zwischen der scheinbaren und der absoluten Magnitude beschreibt.
Wichtige Ergänzungen zu diesem Thema betreffen vor allem die praktischen Herausforderungen bei der Messung von Licht. In der Astronomie ist es nicht nur von Bedeutung, den Fluss korrekt zu messen, sondern auch die Auswirkungen von atmosphärischen Bedingungen und die Effizienz der verwendeten Detektoren zu berücksichtigen. Teleskope und Detektoren müssen so kalibriert werden, dass sie die tatsächlichen Lichtwerte korrekt erfassen, und dabei spielen insbesondere Filterfunktionen und die Transmissivität von Optiken eine entscheidende Rolle. Die Entwicklung genauerer Messmethoden und die Verbesserung der Teleskoptechnologie sind daher unerlässlich, um präzisere astronomische Beobachtungen und Entdeckungen zu ermöglichen.
Wie man das Himmels-Hintergrundsignal in der Astronomie genau schätzt und die Unsicherheit minimiert
Die präzise Schätzung des Himmels-Hintergrundsignals ist ein entscheidender Schritt, um die wahre Helligkeit eines Sterns zu bestimmen. Das Signal rund um den Mittelpunkt eines Sterns umfasst sowohl das Himmels-Hintergrundsignal als auch das eigentliche Sternlicht. Um eine genaue Messung der Helligkeit des Sterns zu erhalten, muss das Himmels-Hintergrundsignal korrekt entfernt werden. Eine der einfachsten Methoden zur Schätzung des Himmels-Hintergrunds ist, die Signalstärke in einem ringförmigen Bereich um den Stern zu summieren und durch die Anzahl der Pixel im Ring zu teilen.
Die inneren und äußeren Radien des Rings sind in Abbildung 6.3 durch gestrichelte Linien dargestellt. Der innere Radius sollte so gewählt werden, dass er weit genug vom Zentrum der PSF (Punktspreizfunktion) entfernt ist, sodass der Beitrag des Sternsignals zu diesem Bereich vernachlässigbar wird. Eine gängige Faustregel ist, den inneren Radius des Rings auf etwa das Dreifache der FWHM (Full Width at Half Maximum) der PSF zu setzen. Der äußere Radius des Rings sollte groß genug gewählt werden, um ausreichend Pixel für eine gute statistische Bestimmung einzuschließen. Eine häufige Praxis ist es, den äußeren Radius so zu wählen, dass die Anzahl der Pixel im Annulus etwa dreimal so groß ist wie die Anzahl der Pixel im Aperturbereich.
Es ist wichtig, die Unsicherheit des Hintergrunds zu minimieren, da diese Unsicherheit die Genauigkeit der Sternhelligkeit beeinflusst. Eine gängige Methode zur Verbesserung der Hintergrundschätzung ist die Verwendung des Medianwerts der Pixel im Annulus, da dieser weniger anfällig für Ausreißer ist. Viele fortschrittliche astronomische Bildverarbeitungsprogramme bieten zusätzlich die Möglichkeit, eine „Three-Sigma-Clipping“-Methode anzuwenden. Dabei wird der Mittelwert (oder Median) des Hintergrunds berechnet und anschließend werden alle Pixel entfernt, die mehr als drei Standardabweichungen vom Mittelwert abweichen. Diese Technik hilft nicht nur, die Kontamination durch andere Objekte im Annulus zu eliminieren, sondern entfernt auch kosmische Strahlen und fehlerhafte Pixel.
Die einfachste Methode zur Bestimmung des Sternsignals besteht darin, die Pixelwerte aller Pixel in einem kreisförmigen Aperturbereich um den Stern zu summieren und dann das Hintergrundsignal von der Gesamtmenge zu subtrahieren. Der so erhaltene Wert für das Signal des Sterns nach Abzug des Hintergrunds ergibt sich aus der Formel:
Dabei ist die Summe der Pixelwerte innerhalb der Apertur, die Anzahl der Pixel in der Apertur und der geschätzte Hintergrund pro Pixel. Der Radius der Apertur sollte so gewählt werden, dass er nahezu das gesamte Licht des Sterns erfasst. Ein Radius, der das Drei- bis Vierfache der FWHM umfasst, ist üblicherweise eine gute Wahl, um fast 100 % der Lichtquelle zu erfassen.
Ein häufiger Punkt bei der Bestimmung des Sternsignals ist die Handhabung der Pixel an den Rändern der Apertur. Eine Möglichkeit besteht darin, nur die Pixel vollständig innerhalb der Apertur zu berücksichtigen und Pixel, die den Rand der Apertur berühren, zu ignorieren. Dies funktioniert gut, wenn die PSF des Sterns relativ groß ist, kann jedoch für kleine PSFs problematisch sein, da ein einzelnes Pixel einen signifikanten Teil des Signals enthalten kann. In solchen Fällen ist es besser, die Signalstärke in einem teilweise erfassten Pixel proportional zur Fläche des Pixels zu gewichten, die sich innerhalb der Apertur befindet.
Für präzisere Messungen in komplexeren Feldern oder bei weit entfernten Objekten, bei denen die Hintergrundverteilung nicht flach ist, werden fortgeschrittene Techniken wie PSF-Fitting eingesetzt. Dabei wird eine synthetische oder gemessene PSF an die Punktquellen angepasst, und das Hintergrund- sowie das Quellensignal werden durch die Anpassung extrahiert. Diese Methode liefert weitaus genauere Ergebnisse als die Aperturphotometrie, besonders in überfüllten Feldern oder bei erweiterten Objekten.
Der nächste Schritt nach der Bestimmung des Sternsignals ist die Berechnung der Photonenzählrate des Sterns. Der aus der vorherigen Berechnung gewonnene Wert für ist die Anzahl der Zählwerte (ADU) aus dem CCD-Sensor. Die Anzahl der Photonen lässt sich durch Multiplikation mit dem Verstärkungsfaktor des CCD in Photonen pro ADU berechnen. Daraus ergibt sich die Zählrate der Photonen, die in Abhängigkeit von der Belichtungszeit bestimmt wird:
Zur Umrechnung der Zählrate in eine instrumentelle Magnitude wird die folgende Formel verwendet:
Die instrumentelle Magnitude stellt eine praktische Möglichkeit dar, die Zählrate zu repräsentieren, wobei eine Konstante ist, die so gewählt wird, dass die instrumentelle Magnitude mit der Magnitude eines Objekts in einem Standardphotometriesystem übereinstimmt.
Jede Messung ist mit einer gewissen Unsicherheit behaftet. Diese Unsicherheit lässt sich mithilfe der Fehlerfortpflanzung berechnen, indem man die Fehler durch die einzelnen Verarbeitungsschritte verfolgt. Die Unsicherheit in der instrumentellen Magnitude ergibt sich dabei hauptsächlich aus der Unsicherheit in der Zählrate , die sowohl durch Poisson-Fehler (Photonenzählrauschen) als auch durch detektorspezifische Rauscheffekte bedingt ist. In einer typischen Fehlerberechnung wird das Rauschsignal sowohl für die Quelle als auch für den Hintergrund berücksichtigt, um eine Gesamtlage der Unsicherheit zu ermitteln. Die Wahl des richtigen Annulusradius für die Bestimmung des Hintergrunds ist daher von entscheidender Bedeutung für die Minimierung der Unsicherheit.
Wie man Unsicherheiten und Wahrscheinlichkeitsverteilungen in astronomischen Messungen versteht
Messungen in der Astronomie und anderen wissenschaftlichen Disziplinen sind nie perfekt und beinhalten stets gewisse Unsicherheiten. Diese Unsicherheiten ergeben sich durch die zufälligen Schwankungen, die bei jeder Messung auftreten können, sei es durch das Messinstrument selbst, durch Umwelteinflüsse oder durch die fundamentalen Eigenschaften der zu messenden Größen. Ein wesentlicher Bestandteil des Umgangs mit Unsicherheiten ist das Verständnis von Wahrscheinlichkeitsverteilungen, die die Grundlage für die Auswertung und Interpretation von Messdaten bilden.
In der Praxis werden viele Messgrößen, wie zum Beispiel die Entfernung zu einem Himmelskörper, durch wiederholte Messungen ermittelt. Bei jeder neuen Messung erhalten wir einen leicht unterschiedlichen Wert, da jede Messung von zufälligen Einflüssen beeinflusst wird. Solche Größen, die durch Zufallseinflüsse variieren, bezeichnet man als Zufallsvariablen. Es ist daher zu erwarten, dass die Wahrscheinlichkeit, einen bestimmten Wert für die Entfernung zu messen, nicht gleich verteilt ist: Häufiger erhalten wir Werte in einem bestimmten Bereich und seltener Werte an den Extremen. Dies lässt sich durch Wahrscheinlichkeitsverteilungen beschreiben, die die Wahrscheinlichkeit angeben, dass eine Zufallsvariable einen bestimmten Wert annimmt.
Wenn eine Zufallsvariable nur eine endliche Menge an diskreten Werten annehmen kann, dann kann die Wahrscheinlichkeitsverteilung als die Wahrscheinlichkeit beschrieben werden, dass eine einzelne Messung den Wert aus einer endlichen Menge liefert. Bei einer kontinuierlichen Zufallsvariablen, wie sie oft in der Astronomie vorkommen, beschreibt die Wahrscheinlichkeitsverteilung die Wahrscheinlichkeit, dass eine Messung einen Wert im Bereich zwischen und (x+dx\ liefert. Diese Verteilungen sind nützlich, um die Unsicherheiten in den Messungen zu quantifizieren.
Ein Beispiel für eine häufige Wahrscheinlichkeitsverteilung ist die Normalverteilung, auch Gaußsche Verteilung genannt, die in der Astronomie und Physik weit verbreitet ist. Sie beschreibt viele Messgrößen, die durch eine Vielzahl von zufälligen Einflüssen beeinflusst werden, wobei die Mehrheit der Werte um einen Mittelwert herum liegt. Die Normalverteilung hat eine charakteristische Glockenkurve, deren Breite durch die Standardabweichung bestimmt wird. Bei einer normalverteilten Messgröße gibt es eine 68-prozentige Wahrscheinlichkeit, dass der gemessene Wert innerhalb einer Standardabweichung um den Mittelwert liegt, eine 95-prozentige Wahrscheinlichkeit für den Bereich zwischen zwei Standardabweichungen und eine 99,7-prozentige Wahrscheinlichkeit für den Bereich zwischen drei Standardabweichungen.
Wenn mehrere Messungen durchgeführt werden, ergibt sich der Mittelwert dieser Messungen als der beste Schätzwert für den wahren Wert der gemessenen Größe. Die Unsicherheit in diesem Mittelwert ist jedoch nicht gleich der Standardabweichung der einzelnen Messungen, sondern wird durch die Standardabweichung des Mittelwerts bestimmt, die kleiner ist und mit der Anzahl der Messungen abnimmt. Das bedeutet, dass die Unsicherheit mit der Anzahl der durchgeführten Messungen verringert wird, da der Mittelwert aus mehr Datenpunkten berechnet wird.
Neben der Normalverteilung gibt es in der Astronomie auch andere Verteilungen, die für spezifische Messungen relevant sind. Eine solche Verteilung ist die Poisson-Verteilung, die häufig bei Zählmessungen verwendet wird, wie zum Beispiel der Zählung von Photonen in einem bestimmten Zeitraum. Bei der Poisson-Verteilung handelt es sich um eine diskrete Verteilung, die die Wahrscheinlichkeit angibt, eine bestimmte Anzahl von Ereignissen in einem festen Zeitraum zu messen. Ein charakteristisches Merkmal der Poisson-Verteilung ist, dass ihre Standardabweichung gleich der Quadratwurzel des Mittelwerts ist. Dies ist besonders nützlich, wenn man die Unsicherheit bei Messungen von Zählgrößen abschätzen möchte, wie etwa der Anzahl der Photonen, die von einem Stern detektiert werden.
Die Poisson-Verteilung und ihre Eigenschaften sind besonders wichtig, um die Unsicherheiten in astronomischen Zählmessungen, wie etwa der Zählung von Partikeln oder Photonen, korrekt zu interpretieren. Sie hilft dabei, die Schätzungen für die Intensität eines Signals sowie die Unsicherheiten in diesen Schätzungen zu präzisieren.
Ein weiterer wichtiger Aspekt beim Umgang mit Wahrscheinlichkeitsverteilungen ist die Möglichkeit, diese Verteilungen mit verschiedenen statistischen Maßzahlen zu verknüpfen. Die Standardabweichung einer Verteilung gibt Auskunft darüber, wie stark die Messwerte um den Mittelwert streuen. In der Praxis ist die Kenntnis der Standardabweichung von Bedeutung, da sie es uns ermöglicht, die Unsicherheit einer einzelnen Messung oder eines Mittelwertes abzuschätzen und Wahrscheinlichkeiten für zukünftige Messungen zu berechnen.
Es ist jedoch wichtig zu verstehen, dass in der realen Welt viele Messgrößen nicht perfekt normal- oder Poisson-verteilt sind. In solchen Fällen können andere, spezialisierte Verteilungen zur Anwendung kommen, die eine genauere Modellierung der Unsicherheiten ermöglichen. In solchen Situationen ist es von entscheidender Bedeutung, die zugrunde liegende Wahrscheinlichkeitsverteilung zu kennen, um die Messunsicherheiten korrekt einzuschätzen und realistische Fehlerbalken zu berechnen.
Die Kenntnis und das Verständnis von Wahrscheinlichkeitsverteilungen sind für die korrekte Interpretation von Messdaten unerlässlich. Sie ermöglichen es nicht nur, die Unsicherheiten der Messungen zu quantifizieren, sondern auch, realistische Vorhersagen über zukünftige Messungen zu treffen und die Wahrscheinlichkeit bestimmter Ergebnisse abzuschätzen. Für Astronomen und Physiker ist dies eine grundlegende Fähigkeit, um die Präzision und Genauigkeit ihrer Arbeiten zu bewerten und fehlerhafte Ergebnisse zu vermeiden.
Wann ist der beste Zeitpunkt, um ein astronomisches Objekt zu beobachten?
Die Berechnung des besten Zeitpunkts für die Beobachtung eines Himmelsobjekts erfordert die Kenntnis der Äquatorialkoordinaten dieses Objekts sowie die lokale siderische Zeit (αM) und den Ort des Observatoriums. Um den Moment zu bestimmen, in dem ein Objekt den höchsten Punkt am Himmel erreicht, muss man die Äquatorialkoordinaten, α (Rektaszension) und δ (Deklination), sowie die lokale siderische Zeit (αM) berechnen.
Zu Beginn sollte man sich bewusst sein, dass der Sonnenschein am Äquator eine spezifische Rechten-Aufsteigungsposition aufweist, die zu verschiedenen Zeiten des Jahres variiert. Ein Beispiel zeigt uns, dass zur Mitternacht am 22. September die Rektaszension des mittleren Sonnenpunkts (αM) ungefähr 0 Stunden beträgt. Diese Zeit verschiebt sich jedoch im Laufe des Jahres, da die Erde ihren Orbit um die Sonne fortsetzt. Um die exakte Rektaszension eines Himmelsobjekts zu berechnen, kann eine Näherung verwendet werden, wobei die Formel αM ≈ n / 365 * 24 Stunden n der Anzahl der Tage seit dem Äquinoktium entspricht. Diese Berechnung ist ausreichend genau, um die Beobachtung des Objekts zu planen. Es ist wichtig zu beachten, dass die Berechnung der siderischen Zeit (αM) für eine bestimmte Nacht relativ einfach ist, sobald man αM für Mitternacht kennt. Eine einfache Verschiebung der Stunden lässt sich ebenfalls berechnen, sodass man leicht die Position eines Objekts für jede andere Zeit in der Nacht herausfinden kann.
Für präzisere Berechnungen sind zusätzliche Parameter notwendig, wie die genaue Zeit des Sonnenübergangs über den Himmelsäquator und die geografische Lage des Observatoriums. Doch für die meisten praktischen Zwecke genügt die oben genannte Annäherung, und man kann die genaue Zeit der besten Beobachtung eines Objekts zu einem bestimmten Zeitpunkt des Jahres bestimmen. Zum Beispiel lässt sich der optimale Zeitpunkt zur Beobachtung der Galaxie M51 ermitteln, indem man die Rektaszension und Deklination dieses Objekts mit der lokalen siderischen Zeit (αM) in Verbindung setzt.
Ein weiteres praktisches Thema betrifft die Umrechnung zwischen äquatorialen und horizontalen Koordinaten. Wenn man die äquatorialen Koordinaten eines Objekts kennt, kann man mit Hilfe der lokalen siderischen Zeit, der geographischen Breite des Observatoriums und der Rektaszension des Objekts die Höhen- und Azimutkoordinaten berechnen. Dies wird durch die Gesetze des Kosinus und Sinus für sphärische Dreiecke ermöglicht. Insbesondere lässt sich mit diesen Berechnungen die Höhe (h) und der Azimut (A) des Objekts bestimmen. Der Azimut, zum Beispiel, gibt die Richtung an, in der das Objekt relativ zum Beobachtungsort zu finden ist, während die Höhe beschreibt, wie hoch das Objekt über dem Horizont steht.
Beobachtungen aus einem festen geographischen Punkt ermöglichen uns auch zu untersuchen, welche Objekte niemals unter den Horizont sinken oder die ganze Nacht sichtbar sind. Ein solches Objekt mit einer Deklination größer als die geographische Breite eines Beobachtungsortes wird als „zirkumpolar“ bezeichnet. Diese Objekte können immer beobachtet werden, während Objekte, deren Deklination kleiner ist als die Breite des Observatoriums, nie auftauchen und somit nicht sichtbar sind. Die Kenntnis dieser Grundlagen ist für die Planung der Beobachtungen unerlässlich.
Ein zusätzliches Konzept, das für die präzise Beobachtung von Himmelsobjekten wichtig ist, sind die Begriffe der Präzession und Nutation. Die Präzession beschreibt die langsame Bewegung der Rotationsachse der Erde um einen Perpendikel zur Ekliptik, während Nutation eine kleinere oszillierende Bewegung dieser Achse beschreibt. Diese Bewegungen beeinflussen die Positionen der Himmelsobjekte über Jahrtausende hinweg. Die Präzession allein sorgt dafür, dass sich die Position des ersten Frühlingspunkts über etwa 26.000 Jahre hinweg verändert. Das bedeutet, dass für eine präzise Bestimmung der Himmelskoordinaten von Objekten die genaue Epoche angegeben werden muss, in der diese Koordinaten berechnet wurden.
Zur genauen Bestimmung der Position eines Objekts zu einem beliebigen Zeitpunkt ist es notwendig, auch die Präzessionsbewegungen zu berücksichtigen, besonders wenn man Daten aus alten Katalogen oder historischen Beobachtungen nutzt. Eine genaue Berechnung der Änderungen in den Himmelskoordinaten erfordert die Angabe eines Referenzdatums (Epoche) sowie die Anwendung der entsprechenden Formeln, um die Positionen für ein späteres Datum zu berechnen. Diese Formeln basieren auf den Präzessionskonstanten und ermöglichen eine Annäherung an die tatsächliche Position eines Objekts in der Gegenwart.
Die Genauigkeit dieser Berechnungen hat tiefgreifende Auswirkungen auf die Planung astronomischer Beobachtungen. Beobachtungsprogramme, die auf historischen Daten beruhen oder langfristige Trends untersuchen, müssen diese Faktoren berücksichtigen, um Verzerrungen zu minimieren und präzise Ergebnisse zu erzielen.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский