Zwei Zufallsvariablen xx und yy werden als unabhängig oder orthogonal bezeichnet, wenn die Wahrscheinlichkeit, einen bestimmten Wert für eine der Variablen zu beobachten, unabhängig von der anderen ist. Dies bedeutet, dass die bedingten Verteilungen den marginalen Verteilungen entsprechen: fx(xy)=fx(x)f_x(x|y) = f_x(x) und fy(yx)=fy(y)f_y(y|x) = f_y(y). Die Unabhängigkeit tritt nur ein, wenn die gemeinsame Verteilung f(x,y)f(x, y) als Produkt der Randverteilungen zerfällt, also f(x,y)=fx(x)fy(y)f(x, y) = f_x(x) f_y(y). Offensichtlich können korrelierte Variablen nicht unabhängig sein.

Ein anschauliches Beispiel für korrelierte Variablen zeigt sich in einem Messfehler im xyxy-Koordinatensystem, der einer normalen Verteilung in Polar-Koordinaten rr und φ\varphi folgt. In diesem Fall sind die Fehler in den Polar-Koordinaten unabhängig, jedoch die entsprechenden kartesischen Koordinaten sind negativ korreliert, was auf den ersten Blick widersprüchlich erscheinen könnte. Es wird deutlich, dass Unabhängigkeit nur dann vorliegt, wenn auch die Transformation in andere Koordinaten oder Variablen korrekt durchgeführt wird.

Ein weiteres Beispiel betrifft abhängige Variablen mit einem Korrelationskoeffizienten von null. Eine Verteilung f(x,y)=12πex2+y22f(x, y) = \frac{1}{\sqrt{2\pi}} e^{ -\frac{x^2 + y^2}{2}} beschreibt eine Situation, in der die bedingte Verteilung fy(yx)f_y(y|x) von xx abhängt, obwohl der Korrelationskoeffizient null ist. Dies unterstreicht, dass die Unabhängigkeit der Zufallsvariablen nicht nur durch den Korrelationskoeffizienten charakterisiert wird, sondern auch durch die Art und Weise, wie die Wahrscheinlichkeitsdichte verteilt ist.