Prečo sa obyčajná metóda najmenších štvorcov používa v lineárnej regresii?

Prečo sa obyčajná metóda najmenších štvorcov používa v lineárnej regresii?
Anonim

odpoveď:

Ak Gauss-Markofove predpoklady platia, potom OLS poskytuje najnižšiu štandardnú chybu ľubovoľného lineárneho odhadcu

vysvetlenie:

Vzhľadom na tieto predpoklady

  1. Parametre co-efficents sú lineárne, to znamená, že # beta_0 a beta_1 # sú lineárne, ale. t #X# premenná nemusí byť lineárna, môže to byť # X ^ 2 #

  2. Údaje boli získané z náhodnej vzorky

  3. Neexistuje dokonalá multi-kolinearita, takže dve premenné nie sú úplne korelované.

  4. #EÚ#/#x_j) = 0 # priemerný podmienený predpoklad je nula, čo znamená, že # # X_j premenné neposkytujú žiadne informácie o priemere nezistených premenných.

  5. Rozdiely sú rovnaké pre každú danú úroveň #X# tj. #var (u) = sigma ^ 2 #

Potom je OLS najlepším lineárnym odhadom v populácii lineárnych odhadov alebo (Best Lineary Unrect Estimator) BLUE.

Ak máte tento dodatočný predpoklad:

  1. Rozdiely sú normálne rozdelené

Potom sa odhadovač OLS stane najlepším odhadcom bez ohľadu na to, či ide o lineárny alebo nelineárny odhad.

Čo to v podstate znamená, že ak predpoklady 1-5 platia, potom OLS poskytuje najnižšiu štandardnú chybu akéhokoľvek lineárneho odhadu a ak 1-6 drží, potom poskytuje najnižšiu štandardnú chybu akéhokoľvek odhadcu.