Some Decompositions of OLSEs and BLUEs Under a Partitioned Linear Model

Authors


Summary

We consider in this paper a partitioned linear model{y,  X1β1+X2β2,  σ2σ}and two corresponding small models{y,  X1β1,  σ2σ}and{y,  X2β2,  σ2σ}. We derive necessary and sufficient conditions for (i) the ordinary least squares estimator under the full model to be the sum of the ordinary least squares estimators under the two small models; (ii) the best linear unbiased estimator under the full model to be the sum of the best linear unbiased estimators under the two small models; (iii) the best linear unbiased estimator under the full model to be the sum of the ordinary least squares estimators under the two small models. The proofs of the main results in this paper also demonstrate how to use the matrix rank method for characterizing various equalities of estimators under general linear models.

Résumé

Nous considérons dans cet article un modèle linéaire partitionné{y, X1β1+X2β2, σ2Σ} et deux petits modèles correspondants {y, X1β1, σ2Σ} et {y, X2β2, σ2Σ}. Nous obtenons des conditions nécessaires et suffisantes pour que: (i) l'estimateur ordinaire des moindres carrés du modèle complet soit la somme des estimateurs des moindres carrés des deux petits modèles; (ii) le meilleur estimateur linéaire non biaisé du modèle complet soit la somme des estimateurs linéaires non biaisés des deux petits modèles; (iii) le meilleur estimateur linéaire non biaisé du modèle complet soit la somme des estimateurs des moindres carrés ordinaires des deux petits modèles. A partir des principaux résultats de cet article, nous montrons aussi comment utiliser la méthode de rang matricielle pour caractériser des égalités variées pour les estimateurs des modèles linéaires généraux.

Ancillary