Polynom Regression Herleitung
Verfahren 
Einsetzen der Punkte in eine Ausgleichsgerade 
ergibt ein GLS 
 geschrieben als Matrixgleichung 
A  = Y ===> 
Minimiere die Abweichungsquadrate Residuen R (Residuenquadratsumme bezeichnet Abweichungsquadratsumme). Erweitern auf Polynome höheren Grades erweitert die Matrix um Spalten mit Potenzen von xi (Parabel xi2 , kubische Parabel xi2 xi3)...
Min Q (Zeile 1-15)
suche lokales Minimum der Residuenfunktion  : 
minimiere (partielle Ableitungen):
  
was ein LGS ergibt
das als Matrixgleichung geschrieben führt auf
Normalengleichung (Zeile 15-)
aus Residuenfunktion Q   
Vom Gleichungssystem der Kurvenpunkte zur Normalengleichung 
 
 
  
 
 
→֍ Wahl des Regressionspolynoms durch Anpassung des Koeffizientenvektors  , Koeffizienten  mit dem Schieberegler n (Grad des Polynoms).  In der Liste Graph sind A_1 .. A_9 Punkte vorgelegt (aktuell A_1 .. A_6 verwendet) - maxA_n anpassen. Punkte anfassen und verschieben oder im Algebrafenster ändern...
Wahl des Regressionspolynoms durch Anpassung des Koeffizientenvektors  , Koeffizienten  mit dem Schieberegler n (Grad des Polynoms).  In der Liste Graph sind A_1 .. A_9 Punkte vorgelegt (aktuell A_1 .. A_6 verwendet) - maxA_n anpassen. Punkte anfassen und verschieben oder im Algebrafenster ändern...
 Wahl des Regressionspolynoms durch Anpassung des Koeffizientenvektors  , Koeffizienten  mit dem Schieberegler n (Grad des Polynoms).  In der Liste Graph sind A_1 .. A_9 Punkte vorgelegt (aktuell A_1 .. A_6 verwendet) - maxA_n anpassen. Punkte anfassen und verschieben oder im Algebrafenster ändern...
Wahl des Regressionspolynoms durch Anpassung des Koeffizientenvektors  , Koeffizienten  mit dem Schieberegler n (Grad des Polynoms).  In der Liste Graph sind A_1 .. A_9 Punkte vorgelegt (aktuell A_1 .. A_6 verwendet) - maxA_n anpassen. Punkte anfassen und verschieben oder im Algebrafenster ändern...App Polynom Regression Herleitung
App Beispiel
Eine kubische Regressionsparabel der Bauart
Punkte P1...P5 in Parabelform eingesetzt  LGS als Matrix-Gleichung
(10) 
Vandermonde Matrix
A (ai) = (yi)
Normalengleichung (orthogonal minimiere Überbestimmte LGS): 
AT A (ai) = AT (yi) 
(22) 
Löse 
 (ai) = (AT A)-1 AT (yi) 
(26) 
RegressionsGerade
Die Normalengleichung für eine Ausgleichsgerade schreib ich mit zusammengefassten Summen auf
, , , 
===>   
===>  
===> 
===> 
===>  , 
Eine Formel für die Geradenparameter mit leicht berechenbaren Summen aus den Koordinaten der Regressionspunkte.
Bestimmtheitsmaß
| Sx =Sum(X) Sy =Sum(Y) Sxx=Sum(X X) Sxy=Sum(X Y) | {{n, S_x}, {S_x, S_{xx}}}^-1 {S_y, S_{xy}} |  | 
