Ich bin mit den Kugelflächenfunktionen das erste mal in einer Vorlesung über Computergrafik in Berührung gekommen, wo dieses Thema recht schnell abgehandelt wurde. Die komplexen Formeln haben mich fasziniert und ich wollte etwas tiefer in die Thematik eintauchen und herausfinden wie diese Konstruktion genau funktioniert. Auf den Weg dabei habe ich viele interessante Sachen gelernt die hier im folgenden erläutert werden. Bei mathematischen Zusammenhängen ist es mir wichtig ein Intuitives Verständnis für die Sachlage zu haben. Ich finde das ist die Basis für eine rigorosere und mathematischer Betrachtung. Leider wird ein intuitives, sinnhaftes Verständnis für solche Thematiken nur sehr selten gefördert.

Als ich begonnen habe den Artikel zu schreiben wusste ich nur wenig über die Kugelfächenfunktionen und die Mathematik die dahinter steckt. Zuerst habe ich mich an den Schreibstil orientiert den ich auch aus Mathematik Büchern oder Papern kenne, wenn ich auch gemerkt habe das mir das nicht liegt. Nach einer Zeit ist mir auch klar geworden wie komplex das Thema ist und wie eine vernünftige und Konsistente Darstellung sehr viel Zeit in Anspruch nehmen würde. Die hier aufgeführten Sachverhalte sind also eher angeschnitten als wirklich vollständig erklärt.

Kugelflächenfunktionen können als Verallgemeinerung der Fourier-Reihe auf die Kugel verstanden werden. Kugelflächenfunktionen treten immer dann auf, wenn lineare partielle Differentialgleichungen zweiter Ordnung mit dem Laplace-Operator in Kugelkoordinaten gelöst werden. So zum Beispiel bei der Wärmeleitungsgleichung.

Zentraler Gegenstand der Berechnung der Kugelflächenfunktionen ist die Eigenwertgleichung eines linearen Operators. Nach dem Spektralsatz sind die Eigenfunktionen eines selbstadjungierten linearen Operators orthonormal zueinander und formen eine Basis.

Übersicht:

1.0 Skalarprodukt

1.1 Polynome als orthogonal Basis

1.2 Schwingungen als orthogonal Basis

2.0 Spektralsatz

2.1 Eigenwertgleichung Fourier

2.2 Eigenwertgleichung Legendre

3.0 Laplace Gleichung

3.1 Polar- und Kugelkoordinaten

3.2 Laplace-Gleichung in Polarkoordinaten

3.3 Kugelflächenfunktionen

3.4 Anwendung in der Physik

Skalarprodukt

Das Skalarprodukt dürfte den meisten Lesern bereits bekannt sein und hier soll nur auf die wichtige projektive Eigenschaft genauer eingegangen werden. Um Funktionen in verschiedene Basen darzustellen, wird es vonnöten sein die Koeffizienten zu ermitteln und dies geschieht über das Skalarprodukt. In diesem Abschnitt wird erläutert wieso das Skalarprodukt diese Eigenschaft besitzt.

Skalarprodukt in 2D ist für zwei Vektoren:

\vec{a} = \left(\begin{array}{c} x_1 \\ y_1 \end{array}\right) \vec{b} = \left(\begin{array}{c} x_2 \\ y_2 \end{array}\right)

\vec{a} \cdot \vec{b} = x_1x_2+y_1y_2

oder:

\left(\begin{array}{rr} x_1 & x_2 \end{array}\right) \cdot  \left(\begin{array}{c} x_2 \\ y_2 \end{array}\right) = x_1x_2+y_1y_2

Man kann das Skalarprodukt also auch als Matrix-Vektor Produkt verstehen, in dem ein Vektor eine 1×2 Matrix wird. So kann man das Skalarprodukt auch als Transformation des einen Vektors in den von der Matrix A aufgespannten 1-Dimensionalen Raum sehen.

Geometrisch lässt sich das Skalarprodukt folgendermaßen deuten: \vec{a} \cdot \vec{b} ist die Länge des Vektors \vec{a} projiziert auf Vektor \vec{b} (in der Grafik \vec{a}_p mal die Länge von Vektor \vec{b}. Als Formel:

\vec{a} \cdot \vec{b} =  |\vec{b}| \cdot |\vec{a}_p|

Dies kann man sich so herleiten:

Es gilt

\vec{a} \cdot \vec{b}  = |\vec{a}| \cdot |\vec{b}| \cdot \cos \theta,

daraus folgt dann durch Umformulierung des cosinus

\cos \theta = \frac{|\vec{a_p}|}{|\vec{a}|} \Rightarrow  \vec{a} \cdot \vec{b}  = |\vec{a}| \cdot |\vec{b}| \frac{|\vec{a_p}|}{|\vec{a}|} = |\vec{b}| \cdot |\vec{a_p}|

Also sind wir wieder bei der Definition vom Anfang, Länge des projizierten Vektors mal Länge von \vec{b}. Man kann das Skalarprodukt in Bezug auf die folgenden Themen so verstehen: Sei \vec{b} ein normierter Vektor, so dass das Skalarprodukt letztendlich nur |\vec{a_p}| ist. Dann gibt das Skalarprodukt an, welchen Anteil ein Vektor in eine bestimmte Richtung hat. Es sagt aus, wie viel von Vektor \vec{b} in Vektor \vec{a} steckt. Genauso können wir \vec{a} auch auf andere Vektoren projizieren, um zu berechnen, wie viel von \vec{a} in diesen anderen Vektoren enthalten ist. Am Ende lässt sich \vec{a} dann als Summe dieser Vektoren, auf die wir projiziert haben, mit der entsprechenden Gewichtung darstellen. Das ist das Hauptprinzip, das bei allen folgenden Verfahren benutzt wird. Statt Vektoren werden dann nur Funktionen betrachtet und man versucht herauszufinden, wie viel von einer Funktion in einer anderen steckt.

Zum Abschluss noch ein letzen einfach Zusammenhang: Der Vektor \vec{a} lässt sich als Linearkombination von Basisvektoren darstellen. Um zu berechnen, wie viel von jedem Basisvektor in \vec{a} ist, benutzt man das Skalarprodukt!

\vec{a} = (\vec{a}\cdot \vec{e_x}) \cdot \vec{e_x} +  (\vec{a}\cdot \vec{e_y}) \cdot \vec{e_y}

In dem Fall der kanonischen Basisvektoren lassen sich die Werte natürlich auch einfach ablesen, da der Vektor ja genau in dieser Basis dargestellt wird. Wenn aber eine andere Basis verwendet wird, ist die Berechnung mit dem Skalarprodukt wichtig. Wenn man die Vektoren jetzt als Funktionen betrachtet, stellt sich die Frage, wie das Skalarprodukt zwischen zwei Funktionen aussehen soll. Da das Skalarprodukt im Prinzip nur eine Summe über das Produkt der Vektoreinträge ist, kann man auch eine Summe über das Produkt der Funktionswerte nehmen. Nur gibt es unendlich viele Funktionswerte, wenn man die reellen Zahlen als Wertemenge betrachtet. Hierbei bietet sich dann das Integral als kontinuierliche Summe über alle in einem Intervall auftretenden Funktionswerte an. Die Frage ist dann nur noch, in welchem Intervall das Skalarprodukt definiert sein soll. Diese Frage werden wir später wieder aufgreifen. Das Skalarprodukt wird dann auch als “inneres Produkt” bezeichnet und folgendermaßen notiert

<f(x), g(x)> = \int_{a_1}^{a_2} f(x)g(x)dx

Eine wichtige Eigenschaft für das Skalarprodukt für den Spektralsatz ist die Verschiebungseigenschaft.

Sei A \in  \mathbb{R} ^{n\times n} eine Matrix und x, y \in  \mathbb{R} ^n zwei Vektoren, dann ist

Ax \cdot y = (Ax)^Ty = x^TA^Ty=x^T(A^Ty)=x  \cdot  A^Ty

Als nächstes wollen wir das Skalarprodukt für zwei verschiedene orthogonale Basen verwenden.

Legendre-Polynome und Taylorreihe

Als nächstes wollen wir uns ansehen was wir mit dem im letzten Abschnitt definierten Skalarprodukt für Funktionen anfangen können. Nehmen wir an wir betrachten beliebige Funktionen die wir als Vektor in einem Vektorraum aus Funktionen, genauer den Monomen von x beliebigen Grades, abbilden möchten.

Funktionen als Basis \{1, x, x^2, x^3, x^4, ...\}

Dann sind die Einheitsvektoren also selbst Funktionen von x:

e_1(x)=1, e_2(x)=x, e_3(x)=x^2, \dots

So lässt sich dann eine Funktion f(x) = ax^3 + bx^2 +cx +d schreiben als d \cdot e_1(x) + c \cdot e_2(x) + b \cdot e_3(x) + a \cdot e_4(x). Die einzelnen Koeffizienten für die Basisvektoren können dann auch in einem Koeffizientenvektor geschrieben werden \vec{v}=\begin{pmatrix} d \\ c \\ b \\ a \end{pmatrix}.

In diesem Beispiel können die Koeffizienten für die einzelnen Basisvektoren e_i(x) einfach abgelesen werden, ab was ist wenn wir komplexere Funktionen wie \sin(x) oder \ln(x) in die Monombasis abbilden möchten? Um im diesen Fall die Koeffizienten zu ermittelt hilft uns die projektive Eigenschaft des Skalarprodukts. Damit dass aber funktioniert muss es sich um eine orthonormal Basis handeln, dies ist bei den Basisvektoren so wie oben aufgeführt aber noch nicht gegeben.

Damit es sich um eine orthonormal Basis handelt muss gelten:

<e_i(x), e_j(x)> = \delta_{i,j} (Kronecker Delta)

\lVert e_i(x) \rVert = \sqrt{<e_i(x), e_i(x)>} = 1

Um diese Anforderungen zu erfüllen werden die Basisvektoren mit dem Gram-Schmidt Verfahren orthogonalisiert. Das Gram-Schmidt Verfahren benützt das Skalarprodukt um die orthogonalen Basisvektoren zu ermitteln. Das heißt das wir jetzt beim Skalarprodukt festlegen müssen wie die genauen Integralgrenzen aussehen. Die Grenzen geben dann an in welchen Intervall unsere Funktion reproduziert wird.

Also wir wählen bspw.:

<f(x), g(x)> = \int_{-1}^{1} f(x)g(x)dx

Die Vektoren werden dann noch normiert und das Ergebnis ist:

e_1(x)=\frac{1}{\sqrt{2}}, e_2(x)=\sqrt{\frac{3}{2}}x, e_3(x)= \frac{3}{2}\sqrt{\frac{5}{2}}(-\frac{1}{3}+x^2) , \dots

Beachte das dieses Ergebnis nur für das gewählte Skalarprodukt, also mit den Grenzen -1 bis 1, gültig ist.

Mit den orthonormalen Basisvektoren lässt sich eine Funktion f jetzt schreiben als:

f(x) = <f(x), e_1(x)> \cdot e_1(x) +  <f(x), e_2(x)> \cdot e_2(x) + \dots = \sum_{i=1}^\infty <f(x), e_i(x)> \cdot e_i(x)

Zum Beispiel:

sin(x) = 3x(-\cos(1)+\sin(1))+\frac{35}{2}(-\frac{3x}{5}+x^3)(14\cos(1)-9\sin(1)) + \dots
Dieses Ergebnis ist sehr ähnlich zum Taylorpolynom, welches ebenfalls Funktionen durch Monome annähert.

Beide Verfahren ermöglichen es beliebige Funktionen im Raum der Polynome darzustellen. Bei Taylor wird eine Näherung in einem Punkt erzeugt, die nach außen hin immer schlechter wird. Bei steigenden Taylorreihengliedern wird die Näherung auch nach außen hin immer besser. Die Projektion in die Monombasis dagegen schafft einen least-squares fit. Der im Skalarprodukt angegeben Integrationsbereich wird durch die Projektion berücksichtigt und bei steigenden Koeffizienten wird die Näherung im gesamten Bereich besser.

Dieser erzeugte Raum durch die Monome mit dem Integral als Skalarprodukt nennt man auch Hilbertraum. Ein Hilbertraum ist ganz abstrakt formuliert ein Vektorraum mit einem Skalarprodukt. Das Skalarprodukt ist so elementar da sich viele Eigenschaften darüber formulieren lassen (z.B. Symmetrie).

Wenn man anstelle der Normierung der Basisvektoren fordert das e_i(1) = 1 ist dann ergeben sich die Legendre-Polynome. Die Legendre-Polynome sind die Lösungen der Legendreschen Differentialgleichung. Der Zusammenhang zwischen der Orthogonalität und der Differentialgleichung wird im übernächsten Abschnitt gezeigt. Die Legendre-Polynome und die dazugehörige Differentialgleichung wird bei der Herleitung der Kugelfächenfunktionen noch eine wichtige Rolle spielen, deswegen seien sie hier bereits erwähnt.

Die ersten Legendre-Polynome lauten:

P_0(x)=1, P_1(x) = x, P_2(x)=\frac{1}{2}(2x^2-1), P_3(x)=\frac{1}{2}(5x^3-3x)

Fourier-Reihe

In diesem Kapitel wollen wir nun eine andere Möglichkeit betrachten, Funktionen in einem Raum darzustellen. Anstatt Polynome als Basisvektoren zu wählen ist es auch möglich Trigonometrische Funktionen zu wählen.

e_1(x)=\sin(x), e_2(x)=\sin(2x), \dots

genauso kann auch der Cosinus gewählt werden

e_1(x)=\cos(x), e_2(x)=\cos(2x), \dots

Sinus und Cosinus haben die nette Eigenschaft das sie über dem Intervall -\pi bis \pi direkt orthogonal zueinander sind und auch orthogonal zu sich selbst mit verschiedenen Frequenzen. Das heißt unser Skalarprodukt wählen wir als:

<f(x), g(x)> = \frac{1}{\pi}\int_{-\pi}^{\pi} f(x)g(x)dx

Das \frac{1}{\pi} wurde so gewählt damit die verschiedenen Sinus und Cosinus Funktionen auch normiert sind. Ebenfalls ist der von Sinus und Cosinus Schwingungen mit ganzzahligen Frequenzen aufgespannte Raum komplett, das heißt alle Funktionen können durch ihn dargestellt werden.

Wenn man jetzt eine Funktion in den Raum der verschiedenen Sinus und Cosinus Schwingungen projiziert bezeichnet man das als Fourier-Reihe. Die einzelnen Koeffizienten für die Basisvektoren geben dann an wieviel von einer bestimmten Frequenz in der Funktion enthalten sind, also ergibt sich quasi eine Frequenzanalyse. Da wir zwei verschiedene Arten von Basisvektoren haben, nämlich einmal Sinus mit unterschiedlichen Frequenzen und Cosinus, gibt es auch zwei unterschiedliche Koeffizienten.

Das Projizieren in dem Raum funktioniert genauso wie davor, so lässt sich eine Funktion f also schreiben als:

f(x)= \sum_{i=1}^{\infty}<f(x), \sin(ix)>\sin(ix) +  <f(x), \cos(ix)>\cos(ix)

wobei <f(x), \sin(ix) den Koeffizienten für die Schwingung mit Frequenz i angibt.

a_i = <f(x), \sin(ix)> =  \frac{1}{\pi}\int_{-\pi}^{\pi} f(x)\sin(ix)dx

b_i = <f(x), \cos(ix)> =  \frac{1}{\pi}\int_{-\pi}^{\pi} f(x)\cos(ix)dx

So lässt sich eine Funktion f nun etwas kompakter, in der bekannteren Schreibweise darstellen:

f(x)= \sum_{i=1}^{\infty}a_i\sin(ix) +  b_i\cos(ix)

Über die eulersche Formel besteht ein Zusammenhang zwischen Sinus und Cosinus und der komplexen Exponentialfunktion. So lässt sich die Fourier-Reihe noch etwas eleganter schreiben mit nur einem Koeffizienten, der aber selbst Komplex ist, also wieder aus zwei Werten besteht.

Zuerst nochmal als Erinnerung die eulersche Formel

e^{ik\pi} = \cos(k) + i \sin(k)

Daraus gewinnen wir dann eine Darstellung für Sinus und Cosinus:

\sin(k) = \frac{e^{ik}-e^{-ik}}{2i}

\cos(k) = \frac{e^{ik}+e^{-ik}}{2}

Diese Darstellung setzten wir nun in die obige Formel für die Fourier Reihe ein und bekommen dann:

f(x)= \sum_{i=1}^{\infty}a_i  \frac{e^{ik}-e^{-ik}}{2i}  +  b_i  \frac{e^{ik}+e^{-ik}}{2}

Jetzt können wir neue Koeffizienten wählen damit wir die Terme zusammenfassen können.

f(x)=\sum_{-\infty}^{\infty}c_n e^{inx}

Das heißt unsere Basisvektoren sind jetzt:

e_1(x) = e^{ix}, e_2(x)=e^{2ix}, \dots

Diese sind wieder orthogonal zueinander und normiert. Beachte das wir hier jetzt das Skalarprodukt für komplexe Funktionen verwenden, mit dem komplex Konjugierten.

Interessant ist es auch, anstatt nur ganzzahlige Schwingungen zuzulassen die Fourier-Reihe kontinuierlich zu erweitern. Das heißt dass aus der Summe in der obigen Darstellung dann ein Integral wird und über alle Möglichen Schwingungen integriert wird. Statt eines Koeffizientenvektors erhält man dann eine Koeffizientenfunktion, die auch Fourier-Transformierte der Funktion genannt wird.

Als nächstes beschäftigen wir uns mit dem Spektralsatz der uns einen wichtigen Zusammenhang zwischen einem linearen Operator und einem Satz von Orthogonalen Basisfunktionen liefert.

Spektralsatz

Wichtiger Zusammenhang zwischen einen Satz von orthogonalen Funktionen und einem linearen Operator.

Eine linearer Operator ist im Prinzip das selbe wie eine lineare Abbildung und kann als Verallgemeinerung einer Matrix gesehen werden. Jede Matrix ist mit der Matrixmultiplikation eine lineare Abbildung, wie zum Beispiel die Abbildung f,

A \in  \mathbb{R} ^{n\times n}, \vec{v} \in  \mathbb{R} ^n

f( \vec{v}) = A \cdot  \vec{v}

Der Spektralsatz macht mehrere wichtige Aussagen über Matrizen, unter anderem über die Diagonalisierbarkeit. Für uns hier ist die Aussage wichtig, dass eine symmetrische Matrix orthogonale Eigenvektoren besitzt. Zur Erinnerung: die Eigenvektoren einer Matrix sind die Vektoren die die folgende Gleichung erfüllen:

A \cdot  \vec{v} = \lambda \vec{v}

und der Spektralsatz sagt nun, wenn A symmetrisch ist, was bedeutet A = A^T (transponiert), dann sind alle Eigenvektoren von A orthogonal zueinander.

Beweis für die Orthogonalität:

Sei A eine symmetrische Matrix, also A=A^T und A besitzt zwei Eigenvektoren, A\vec{v}=\lambda \vec{v} und A\vec{w}=\gamma\vec{w}, wobei \lambda \not= \gamma, dann
=<\vec{v},A\vec{w}>
<\lambda \vec{v}, \vec{w}>=<\vec{v},\gamma \vec{w}>
\lambda <\vec{v}, \vec{w}>=\gamma <\vec{v},\vec{w}>
da \lambda \not= \gamma folgt <\vec{v}, \vec{w}> = 0

Dieses Konzept übertragen wir jetzt von den Matrizen zu den Funktionen. Hier sprechen wir dann von linearen Operatoren die auf Funktionen wirken. So wäre zum Beispiel der lineare Operator der ersten Ableitung in x-Richtung ein Differentialoperator,

v(x) \in H

f(v(x)) = \frac{d}{dx}v(x)

Zu beachten ist dass v(x) jetzt Element des Hilbertraumes H ist, also ein verallgemeinerter Vektorraum.

Nun wollen wir wieder prüfen ob unser linearer Operator symmetrisch ist, oder wie in diesem Fall gesagt wird, Selbstadjuingiert. Dazu benützen wir die Verschiebungseigenschaft des Skalarprodukts die im ersten Abschnitt gezeigt wurde, nach der sich das Transponieren über das Skalarprodukt definieren lässt. Wenn unser lineare Operator selbstadjungiert ist muss gelten:

<f \cdot v(x), w(x)> =  <v(x), f\cdot w(x)>

wobei f ein linerar Operator wie der Differentialoperator ist und v, w zwei Funktionen sind. Weiterhin ist es wichtig die Domäne (oder den Definitionsbereich) des lineare Operators festzulegen. Bei Differentialoperatoren wären das quasi die Anfangs- oder Randbedingungen der Differentialgleichung.

Dieser Operator besitzt dann orthogonale Eigenfunktionen. Das bedeutet das die Legendre Polynome und die Fourier-Reihe aus dem letzten Abschnitt einen linearen Operator Besitzen müssen, von dem sie die Eigenfunktionen sind. Genau dieses Prinzip wird auch bei der Herleitung der Kugelflächenfunktion verwendet. Der lineare Operator ist hierfür der Laplace-Operator in Kugelkoordinaten und die Eigengleichung lautet dann

\Delta f = \lambda f

Die Lösungen dieser Gleichung sind dann die orthogonalen Eigenfunktionen f und werden als Kugelflächenfunktionen bezeichnet. In einem späteren Abschnitt werden wir diese Gleichung lösen.

TODO: wenn Eigenwert geometrische Vielfachheit größer 1 hat, sind die Eigenvektoren nicht eindeutig. Zusätzliche Informationen nötig für SH. => Fourier-Reihe x,y Richtung, Legendrepolynome für z

Als nächstes zwei Eigenwertgleichungen die uns bei der Berechnung der Kugelflächenfunktionen begegnen werden.

Fourier Differentialgleichung

Ein einfacher lineare Operator ist beispielsweise der Differentialoperator \frac{d^2}{dx^2}. Dieser ist selbstadjungiert und hat somit orthogonale Eigenfunktionen als Lösung. Um zu zeigen das der Operator symmetrisch ist muss nach der Verschiebungseigenschaft des Skalarprodukts gelten:

<( \frac{d^2}{dx^2})f,g> = <f,  (\frac{d^2}{dx^2})g>

Da das Skalarprodukt für Funktionen sich über ein Integral definiert, lässt sich diese Eigenschaft mithilfe zweimaliger partieller Integration zeigen.

<( \frac{d^2}{dx^2})f,g> = \int_a^b  \frac{d^2}{dx^2}f(x)g(x)dx

= [ \frac{d}{dx}f(x)g(x)]_a^b-\int_a^b \frac{d}{dx}f(x) \frac{d}{dx} g(x)dx

= [ \frac{d}{dx}f(x)g(x)]_a^b-  [f(x)g(x)]_a^b \int_a^b f(x) \frac{d^2}{dx^2} g(x)dx

An dieser Stelle ist es nun noch wichtig die Domäne, also die Randbedingungen von f anzugeben. Damit der f selbstadjungiert ist muss gelten f(a)=g(a)=f(b)=g(b)=0.

= \int_a^b f(x) \frac{d^2}{dx^2} g(x)dx =  <f,  (\frac{d^2}{dx^2})g>

Die Eigenwertgleichung lautet:

\frac{d^2}{dx^2} f = - \lambda f

das Minus vor dem \lambda signalisiert einen negativen Eigenwert.

Wenn wir nun diese Differentialgleichung lösen, erwarten wir das uns die Lösungen einen Satz an orthogonalen Funktionen liefert. Genau das passiert auch, da die Lösungen dieser Gleichungen alle Frequenzen von Sinus und Cosinus sind.

Legendresche Differentialgleichung

Die legendresche Differentialgleichung begegnet einem beim Lösen verschiedener physikalischer Gleichungen.

Die legendresche Differentialgleichung lautet:

(1-x^2)\frac{d^2}{dy^2}f-2x\frac{d}{dx}f+n(n+1)f=0

Diese Gleichung kann zur Eigenwertgleichung umformuliert werden:

((1-x^2)\frac{d^2}{dx^2}-2x\frac{d}{dx})f=-n(n+1)f, wobei

((1-x^2)\frac{d^2}{dx^2}-2x\frac{d}{dx}) wieder als selbstadjungierter Differentialoperator betrachtet werden kann, dessen Eigenfunktionen dann die Legendre-Polynome sind.

Darüber hinaus existiert die verallgemeinerte legendresche Differentialgleichung:

(1-x^2)\frac{d^2}{dy^2}f-2x\frac{d}{dx}f+(n(n+1)-\frac{m^2}{1-x^2})f=0

Die Lösungen dieser Gleichung heißen “zugeordnete Legendre-Polynome”.

Laplace-Gleichung

Die Laplace-Gleichung lautet:

\Delta f = 0

in kartesischen Koordinaten:

(\frac{d^2}{dx^2}+\frac{d^2}{dy^2}+\frac{d^2}{dz^2})  f(x,y,z) = 0

Also die Summe der zweiten partiellen Ableitungen soll gleich 0 sein. Funktionen, die die Laplace-Gleichung lösen, nennt man harmonische Funktionen. Für die Kugelflächenfunktionen werden wir den Laplace-Operator in Kugelkoordinanten formulieren. Beim Lösen der Laplace-Gleichung in Kugelkoordinaten werden wir dann zu der Laplace-Eigenwertgleichung gelangen, deren Lösung dann schließlich die Kugelflächenfunktionen sind.

Polar & Kugelkoordinaten

Da in die in der Computergrafik verwendeten Gleichung oft Winkel als Parameter besitzen, bietet es sich an, Kugelkoordinaten zur Berechnung zu verwenden. Die Kugelflächenfunktionen werden ausgehend vom Laplace-Operator in Kugelkoordinaten konstruiert. Im folgenden werden zuerst Polarkoordinaten verwendet, die das 2-dimensionale Pendant zu Kugelkoordinaten darstellen. Die Darstellung des Laplace-Operators ist im 2-dimensionalen Raum übersichtlicher und die Idee der Herleitung dieselbe wie im 3-dimensionalen. In kartesischen Koordinaten wird jeder Punkt durch ein Zahlenpaar beschrieben, das den Abstand zum Nullpunkt in der x- bzw y-Richtung angibt. Genauso ist es möglich, die Werte anders zu interpretieren und eine andere Art von Achsen zu wählen. So ist in Polarkoordinaten jeder Punkt durch einen Radius und einen Winkel klassifiziert. Kugelkoordinaten sind die 3-dimensionale Erweiterung der Polarkoordinaten, so wird jeder Punkt durch einen Radius und zwei Winkel beschrieben.

f(x,y) \Rightarrow f(r, \theta)

Die Umrechnung von kartesischen Koordinaten in Polarkoordinaten funktioniert wie folgt und lässt sich leicht an einer Zeichnung ablesen:

r = \sqrt{x^2 + y^2}, \tan(\theta)=  \frac{y}{x}

x = r \cos \theta, y = r \sin \theta

So wie es in den kartesischen Koordinaten die Basisvektoren \vec{e}_x und \vec{e}_y gibt, existieren in Polarkoordinaten analoge Basisvektoren \vec{e}_r(\theta) und \vec{e}_\theta (\theta). Wichtig ist, dass die Basisvektoren vom Winkel abhängen und nicht wie in kartesischen Koordinaten immer gleich sind. Man spricht von einem begleitenden Zweibein. Der erste Basisvektor zeigt in Richtung des Radius und der zweite ist orthogonal nach oben verschoben.

\vec{e}_r(\theta) =  \left(\begin{array}{c} \cos\theta \\  \sin\theta \end{array}\right)

\vec{e}_\theta(\theta) =  \left(\begin{array}{c} -\sin\theta \\  \cos\theta \end{array}\right)

So wie sich ein Punkt (x,y) in kartesischen Koordinaten durch die Basisvektoren darstellen lässt, so lässt sich auch ein Punkt (r, \theta) mit den Basisvektoren der Polarkoordinaten darstellen.

\left(\begin{array}{c} x \\  y \end{array}\right)  =  ( \left(\begin{array}{c} x \\  y \end{array}\right)  \cdot \vec{e}_x)\vec{e}_x +  ( \left(\begin{array}{c} x \\  y \end{array}\right)  \cdot \vec{e}_y)\vec{e}_y

\left(\begin{array}{c} r \\  \theta \end{array}\right)  =  ( \left(\begin{array}{c} r \\  \theta \end{array}\right)  \cdot \vec{e}_r)\vec{e}_r +  ( \left(\begin{array}{c} r \\  \theta \end{array}\right)  \cdot \vec{e}_\theta)\vec{e}_\theta

In Polarkoordinaten lassen sich nun die Ableitungsoperatoren, wie Nabla- und Laplace-Operator, formulieren. Der Laplace-Operator ist als Divergenz des Gradienten eines Skalarfeldes definiert. Beginnen wir mit dem Gradienten. In kartesischen Koordinaten ist der Gradient ein Vektor mit allen partiellen Ableitung in die Richtung der Koordinatenachsen. Um den Gradienten in Polarkoordinaten darzustellen, müssen wir die oben angegebenen Berechnungsvorschriften der beiden Koordinatensysteme beachten. Die erste Zeile des Gradienten lautet \frac{df}{dx}, also die Ableitung der Funktion f nach x. Beim Ableiten stellt man sich die Frage, wie sehr sich die Funktion ändert, wenn sich der x-Wert ändert. In Polarkoordinaten hängt die Funktion nicht mehr direkt von x und y ab, sondern von r und \theta. Jetzt ist es wichtig zu verstehen, dass r und \theta wiederum von x und y abhängen, so wie in den Umrechnungsgleichungen oben formuliert. Das heißt eine Änderung des x-Wertes bedeutet eine implizite Änderung der Funktion. Eine Änderung des x-Wertes ändert den Radius und der Radius ändert die Funktion selbst. Doch genauso ändert der x-Wert auch den Winkel und auch der Winkel ändert die Funktion. Das bedeutet schlussendlich: Um die Ableitung \frac{df}{dx} zu bilden, müssen die Verkettungen von Radius und x-Wert, bzw. Winkel und x-Wert berücksichtigt werden. Die Änderung des Radius durch den x-Wert wird durch \frac{dr}{dx} ausgedrückt und diese Änderung wird mit der Änderung der Funktion durch den Radius multipliziert, also im Prinzip die Kettenregel \frac{df}{dr} \frac{dr}{dx}. Da in Polarkoordinaten sowohl Radius als auch Winkel von x und y abhängen, muss zu der Ableitung noch die Änderung des Winkels durch den x-Wert berücksichtigt werden.

Darstellung Gradient in Polarkoordinaten

\vec{\nabla} f =  \left(\begin{array}{c} \frac{df}{dx} \\  \frac{df}{dy} \end{array}\right) =  \left(\begin{array}{c} \frac{df}{dr} \frac{dr}{dx} +  \frac{df}{d\theta} \frac{d\theta}{dx}    \\   \frac{df}{dr} \frac{dr}{dy} +  \frac{df}{d\theta} \frac{d\theta}{dy}      \end{array}\right)

Die Ableitung \frac{dr}{dx} kann nun ausgehend von der oben angegebenen Umrechnungsvorschrift ausgerechnet werden.

\frac{dr}{dx} = \frac{d}{dx}(\sqrt{x^2 + y^2}) = \frac{x}{\sqrt{x^2+y^2}} = \frac{x}{r} = \cos \theta \frac{d\theta}{dx} = \frac{d}{dx} (\arctan \frac{x}{y}) = - \frac{y}{x^2+y^2} = -\frac{y}{r}\frac{1}{r} = -\frac{1}{r}\sin \theta

Die Ableitung in y-Richtung funktioniert analog. Zusammengefasst kann der Gradient in Polarkoordinaten dann geschrieben werden als

\vec{\nabla} f =  \left(\begin{array}{c}  \cos \theta  \frac{df}{dr} - \frac{1}{r}\sin \theta  \frac{df}{d\theta}    \\   \sin\theta  \frac{df}{dr} + \frac{1}{r}\cos\theta  \frac{df}{d\theta}  \end{array}\right)

Wie oben angegeben kann der Gradient mit den Basisvektoren der Polarkoordinaten dargestellt werden.

\vec{\nabla} f =  (\vec{\nabla} f \cdot \vec{e}_r)\vec{e}_r +  (\vec{\nabla} f \cdot \vec{e}_\theta)\vec{e}_\theta. Dabei ist \vec{\nabla} f \cdot \vec{e}_r =  \frac{df}{dr} und \vec{\nabla} f \cdot \vec{e}_\theta =   \frac{1}{r} \frac{df}{d\theta} .

Also lautet der finale Gradient in Polarkoordinaten: \vec{\nabla} f =  \frac{df}{dr}  \vec{e}_r +  \frac{1}{r} \frac{df}{d\theta}  \vec{e}_\theta

Analog zu dieser Vorgehensweise kann der Laplace Operator in Polarkoordinaten gebildet werden. In kartesischen Koordinaten ist er definiert als

\Delta f = \frac{d^2f}{dx^2} + \frac{d^2f}{dy^2} ,

also als Summe der zweiten partiellen Ableitungen. Das kann jetzt so geschrieben werden

\Delta f = \frac{d}{dx} \frac{df}{dx}  + \frac{d}{dy}\frac{df}{dy} .

Die Ableitungen \frac{df}{dx} und \frac{df}{dy} kennen wir bereits vom Gradienten. Jetzt muss das Ergebnis noch einmal abgeleitet werden. Das sieht dann so aus

\Delta f =  \frac{d}{dx}( \cos \theta  \frac{df}{dr} - \frac{1}{r}\sin \theta  \frac{df}{d\theta}) +  \frac{d}{dy}( \sin\theta  \frac{df}{dr} + \frac{1}{r}\cos\theta  \frac{df}{d\theta} )

Hier kann man jetzt nach der gleichen Argumentation wie beim Gradienten vorgehen und alles Schritt für Schritt mit der Produktregel ableiten. Das ganze artet schnell in sehr viele Rechnungen aus, deswegen wird nur das Ergebnis präsentiert.

Der Laplace-Operator in Polarkoordinaten:

\Delta f = \frac{d^2f}{dr^2} + \frac{1}{r^2}\frac{d^2f}{d\theta^2}+\frac{1}{r}\frac{df}{dr}

Analog funktioniert die Herleitung in Kugelkoordinaten. Dort kommt noch eine dritte Dimension dazu \phi und die Herleitung ist entsprechend rechenintensiver.

f(r) = \theta => Spirale f(r) = c => Kreis etc Umrechnung kartesische koordinaten Basisvektoren abhängig von Position => Basisvektoren können abgeleitet werden Kugelkoordinaten erweiterung in 3ter Dimension Basisvektoren Nabla Operator Laplace Operator in Polarkoordinaten gibt Fourier Reihe Laplace Operator hat in Kugelkoordinaten Winkelanteil (hängt nur von den beiden Winkeln ab und nicht vom radius?) Mit diesem Winkelanteil Eigenfunktion aufstellen, Lösung davon Kugelfächenfunktionen

Laplace-Gleichung in Polarkoordinaten

Die Laplace-Gleichung lautet:

\Delta f = 0

Lösungen der Laplace-Gleichung sind harmonische Funktionen.

In Polarkoordinaten wird die Laplace-Gleichung wie oben beschrieben zu:

(\frac{d^2}{dr^2} + \frac{1}{r}\frac{d}{dr} + \frac{1}{r^2}\frac{d^2}{d\theta^2}) f = 0

Der Laplace-Operator lässt sich als ein Teil schreiben, der nur auf den Radius r wirkt und ein Teil der nur auf den Winkel \theta wirkt.

(\frac{d^2}{dr^2} + \frac{1}{r}\frac{d}{dr} + \frac{1}{r^2}\frac{d^2}{d\theta^2}) f = (\Delta_r +\frac{1}{r} \Delta_\theta)f

Jetzt kann die Gleichung mit einem Separationsansatz gelöst werden.

f = R_c(r)F_c(\theta) =>  (\Delta_r +\frac{1}{r} \Delta_\theta)  R_c(r)F_c(\theta)  = 0

Das heißt es wird angenommen die Lösung der Laplace-Gleichung ist eine Funktion die aus zwei unabhängigen Funktionen besteht. Das c im Index taucht später als konstante auf.

Ausmultiplizieren gibt:

F_c(\theta) \Delta_r R_c(r) + R_c(r)\frac{1}{r^2}\Delta_\theta F_c(\theta)=0

Umformen, so dass die Variablen r und \theta getrennt werden:

\frac{r^2\Delta_r R_c(r)}{R_c(r)}+\frac{\Delta_\theta F_c(\theta)}{F_c(\theta)} = 0

\frac{r^2\Delta_r R_c(r)}{R_c(r)} = c^2 = - \frac{\Delta_\theta F_c(\theta)}{F_c(\theta)} = 0

\Delta_\theta F_c(\theta) = -c^2 F_c(\theta) Eigenwertgleichung des Laplace-Operators

\frac{d^2}{d\theta^2}F_c{\theta) = -c^2 F_c(\theta)

Lösung dieser Gleichung ist die Fourier-Reihe:

F_c(\theta) = Ae^{ic\theta}

Normieren so dass F_c(\theta) \cdot  F_c(\theta)  = 1

gibt A = \frac{1}{\sqrt{2\Pi}}

Kugelflächenfunktionen

Der Laplace-Operator in Kugelkoordinaten:

\Delta f = \frac{d^2f}{dr^2} + \frac{2}{r}\frac{df}{dr}+\frac{1}{r^2}(\frac{d^2f}{d\theta^2}+  \frac{\cos \theta}{\sin \theta} \frac{df}{d\theta}+ \frac{1}{\sin^2 \theta} \frac{d^2f}{d\phi^2} ) =(\Delta_r +  \frac{1}{r^2}\Delta_{\theta, \phi})f

Der Ansatz ist jetzt der selbe wie in Polarkoordinaten. Also wieder Trennung der Variablen um die Partielle Differentialgleichung auf eine gewöhnliche Differentialgleichung zu verringern. Da wir jetzt insgesamt drei unabhängige Variablen haben, nämlich r, \theta und \phi, muss die Trennung der Variablen zweimal angewandt werden.

\Delta f(r, \theta, \phi) = 0

Der Ansatz ist also:

f = R_l(r)Y_{lm}(\theta, \phi) wieder sind l und m Konstanten die uns später noch begegnen werden. Y_{lm}(\theta, \phi) sind dann schlussendlich die Kugelflächenfunktionen.

Jetzt geht es weiter wie gewohnt.

(\Delta_r +  \frac{1}{r^2}\Delta_{\theta, \phi}) R_l(r)Y_{lm}(\theta, \phi) =   Y_{lm}(\theta, \phi) \Delta_r R_l(r) +   \frac{R_l(r)}{r^2}\Delta_{\theta, \phi}Y_{lm}(\theta, \phi)   = 0

Das führt dann Schlussendlich wieder zu

\frac{r^2\Delta_r R_l(r)}{R_l(r)} = l =   -\frac{\Delta_{\theta, \phi}Y_{lm}(\theta, \phi)}{  Y_{lm}(\theta, \phi) }

Dies liefert dann wieder zwei Eigenwertgleichung, eine für den Radialteil und eine für den Winkelanteil des Laplace-Operators.

\Delta_{\theta, \phi}Y_{lm}(\theta, \phi) = -l Y_{lm}(\theta, \phi)

Um nun diese Eigenwertgleichung zu lösen bedienen wir uns wieder der Trennung der Variablen.

Y_{lm}(\theta, \phi)  = \Theta_{lm} (\theta) \Phi_m (\phi)

(\frac{d^2}{d\theta^2}+  \frac{\cos \theta}{\sin \theta} \frac{d}{d\theta}+ \frac{1}{\sin^2 \theta} \frac{d^2f}{d\phi^2} )  \Theta_{lm} (\theta) \Phi_m (\phi) = l

Umsortieren liefert:

\frac{\sin^2 \theta}{ \Theta_{lm} (\theta) } (\frac{d^2}{d\theta^2}+  \frac{\cos \theta}{\sin \theta} \frac{d}{d\theta})  \Theta_{lm} (\theta) l\sin^2 \theta  = m^2 = - \frac{1}{ \Phi_m (\phi) }  \frac{d^2}{d\phi^2}    \Phi_m (\phi)

Hier bedarf es wiederum der Einführung einer neuen Konstanten, die wir zu m^2 wählen. Jetzt gibt es wieder zwei Differentialgleichungen, die bei genaueren Hinsehen beide auch Eigenwertgleichungen sind.

Die Azimutalgleichung:

\frac{d^2}{d\phi^2}    \Phi_m (\phi) = -m^2  \Phi_m (\phi) deren Lösung wie bereits beschrieben die Fourierreihe ist und die Polargleichung:

\frac{\sin^2 \theta}{ \Theta_{lm} (\theta) } (\frac{d^2}{d\theta^2}+  \frac{\cos \theta}{\sin \theta} \frac{d}{d\theta})  \Theta_{lm} (\theta)   = \frac{m^2}{ \sin^2 \theta } -l

Die Polargleichung hat die selbe Form wie die allgemeine Legendregleichung mit x= \cos \theta und wenn wir l = l(l+1) wählen, also sind die Lösungen die zugeordneten Legendrepolynome mit P_{lm}(\cos \theta)

Y_{lm}(\theta, \phi) = P_{lm}(\cos \theta)\exp(im\phi)

An dieser Stelle sind wir nun Final bei den Kugelflächenfunktionen angekommen. Ich habe versucht die Erklärung so zu gestalten, bzw. die Thematik auch so zu verstehen, so dass ich auch selbst auf die Formel hätte kommen können. Ich finde das dies einem letztendlich mehr bringt.

Anwendung in der Physik

Die Kugelflächenfunktionen begegnen einem auch in der Physik und zwar immer dann wenn der Laplace Operator in Kugelkoordinaten verwendet wird. Ein wichtiges Beispiel ist das Wasserstoffatom, wie es in der Quantenmechanik beschrieben wird.

Zentrale Gleichung in der Quantenmechanik ist die Schrödingergleichung:

i \hbar \frac{d}{dt} \psi = H \psi

wobei H der Hamiltonoperator ist, welcher folgendermaßen geschrieben werden kann:

H = \frac{\vec{p}^2}{2m} + V Hier verbirgt sich der Laplace-Operator in \vec{p}^2

\vec{p} = i \hbar \vec{\nabla}

Ein Wasserstoffatom besteht aus einem positiv geladenen Proton und ein negativ geladenen Elektronen. Die Wechselwirkung zwischen den beiden Teilchen ist das Coulombpotential mit:

V(r) = \frac{1}{4\pi \epsilon_0} \frac{1}{r}

Da das Potential nur vom Betrag des Ortsvektors, sprich den Radius, abhängt, wird das Problem in Kugelkoordinaten gelöst. Da dann das Quadrat des Impulsoperators den Laplaceoperator enthält und dieser in Kugelkoordinaten formuliert wird, sind die Kugelflächenfunktionen einen Teil der Lösung.

Um die Schrödingergleichung zu lösen wird ein Seperationsansatz verwendet der dann auf die Zeitunabhängige Schrödingergleichung führt:

H\psi = E \psi also die Eigenwertgleichung des Hamiltonoperators.

Ausblick

Als Ausblick bleibt noch zu sagen das es viele denkbare Erweiterungen für die Kugelflächenfunktionen gibt, wie eine Verallgemeinerung in die 4te Dimension, durch Verallgemeinerung der Kugelkoordinaten und durch Lösen der daraus enstehenden Laplace-Gleichung, wobei sich die Frage stellt ob diese Gleichung dann überhaupt noch lösbar wäre. Auch ist mir ein Thema begegnet welches ebenfalls sehr interessant anmutet und sicherlich auch eine genaue Betrachtung würdig wäre, das Sturm-Liouville-Problem. Dabei wird sich weiter mit dem Spektralsatz und Linearen Operatoren beschäftigt und weiteren Orthonormalen Basen, wie z.B. die Bessel-Funktionen.