SEARCH

SEARCH BY CITATION

Keywords:

  • Central matrix;
  • Central space;
  • dimension reduction;
  • inverse conditional moments;
  • inverse regression. Primary 62G08;
  • secondary 62G05

Abstract

Dimension reduction for regression analysis has been one of the most popular topics in the past two decades. It sees much progress with the introduction of the inverse regression, centered around the two key methods, sliced inverse regression (SIR) and sliced average variance estimation (SAVE). It is well known that SIR works poorly when the inverse conditional expectation inline image is close to being nonrandom. SAVE and its many generalizations, which do not suffer from this drawback, lag behind SIR in many other circumstances. Usually a certain weighted hybrid of SIR and SAVE is necessary to improve overall performance. However, it is difficult to find the optimal mixture weights in a hybrid, and most such hybrid methods, as well as SAVE, require the restrictive constant (conditional) variance condition. We propose a much weaker condition and a new accompanying algorithm. This enables us to create several new central matrices that perform very favourably to existing central matrix based methods without referring to hybrids. The Canadian Journal of Statistics 41: 421–438; 2013 © 2013 Statistical Society of Canada

Résumé

La réduction de la dimension en analyse de régression a été un sujet de prédilection au cours des deux dernières décennies. D'importants progrès ont été réalisés grâce à l'introduction de la régression inverse, axée sur les deux méthodes principales, soient la régression inverse par tranches (SIR) et l'estimation de la variance moyenne par tranches (SAVE). Il est bien connu que la méthode SIR fonctionne mal lorsque l'espérance conditionnelle inverse inline image est presque non aléatoire. La méthode SAVE et ses nombreuses généralisations ne présentent pas cet inconvénient, mais elles comportent des lacunes à bien d'autres égards par rapport à SIR. Une méthode pondérée hybride de SIR et SAVE est généralement nécessaire afin d'améliorer la performance globale. Cependant, il est difficile d’établir les poids de mélanges optimaux dans une méthode hybride, et la plupart de ces hybrides, de même que SAVE, nécessitent une condition restrictive de constance de la variance (conditionnelle). Les auteurs proposent une condition beaucoup moins contraignante et un nouvel algorithme. Cette approche permet de créer de nouvelles matrices centrales qui donnent de très bons résultats par rapport aux méthodes existantes fondées sur les matrices centrales sans toutefois se référer aux méthodes hybrides. La revue canadienne de statistique 41: 421–438; 2013 © 2013 Société statistique du Canada