Numéro spécial : analyse de mélanges
Regularized Maximum Likelihood Estimation and Feature Selection in Mixtures-of-Experts Models
[Estimation par maximum de vraisemblance régularisé et sélection de variables dans les modèles de mélanges d’experts]
Journal de la société française de statistique, Numéro spécial : analyse de mélanges, Tome 160 (2019) no. 1, pp. 57-85

Voir la notice de l'article provenant de la source Numdam

Mixture of Experts (MoE) are successful models for modeling heterogeneous data in many statistical learning problems including regression, clustering and classification. Generally fitted by maximum likelihood estimation via the well-known EM algorithm, their application to high-dimensional problems is still therefore challenging. We consider the problem of fitting and feature selection in MoE models, and propose a regularized maximum likelihood estimation approach that encourages sparse solutions for heterogeneous regression data models with potentially high-dimensional predictors. Unlike state-of-the art regularized MLE for MoE, the proposed modelings do not require an approximate of the penalty function. We develop two hybrid EM algorithms: an Expectation-Majorization-Maximization (EM/MM) algorithm, and an EM algorithm with coordinate ascent algorithm. The proposed algorithms allow to automatically obtaining sparse solutions without thresholding, and avoid matrix inversion by allowing univariate parameter updates. An experimental study shows the good performance of the algorithms in terms of recovering the actual sparse solutions, parameter estimation, and clustering of heterogeneous regression data.

Les mélanges d’experts (MoE) sont des modèles efficaces pour la modélisation de données hétérogènes dans de nombreux problèmes en apprentissage statistique, y compris en régression, en classification et en discrimination. Généralement ajustés par maximum de vraisemblance via l’algorithme EM, leur application aux problémes de grande dimension est difficile dans un tel contexte. Nous considérons le problème de l’estimation et de la sélection de variables dans les modèles de mélanges d’experts, et proposons une approche d’estimation par maximum de vraisemblance régularisé qui encourage des solutions parcimonieuses pour des modéles de données de régression hétérogènes comportant un nombre de prédicteurs potentiellement grand. La méthode de régularisation proposée, contrairement aux méthodes de l’état de l’art sur les mélanges d’experts, ne se base pas sur une pénalisation approchée et ne nécessite pas de seuillage pour retrouver la solution parcimonieuse. L’estimation parcimonieuse des paramètres s’appuie sur une régularisation de l’estimateur du maximum de vraisemblance pour les experts et les fonctions d’activations, mise en œuvre par deux versions d’un algorithme EM hybride. L’étape M de l’algorithme, effectuée par montée de coordonnées ou par un algorithme MM, évite l’inversion de matrices dans la mise à jour et rend ainsi prometteur le passage de l’algorithme à l’échelle. Une étude expérimentale met en évidence de bonnes performances de l’approche proposée.

Keywords: Mixture of experts, Model-based clustering, Feature selection, Regularization, EM algorithm, Coordinate ascent, MM algorithm, High-dimensional data
Mots-clés : Mélanges d’experts, Classification à base de modéle, Sélection de variable, Régularisation, Algorithme EM, Montée de coordonnées, Algorithme MM, Données de grande dimension
@article{JSFS_2019__160_1_57_0,
     author = {Chamroukhi, Faicel and Huynh, Bao-Tuyen},
     title = {Regularized {Maximum} {Likelihood} {Estimation} and {Feature} {Selection} in {Mixtures-of-Experts} {Models}},
     journal = {Journal de la soci\'et\'e fran\c{c}aise de statistique},
     pages = {57--85},
     publisher = {Soci\'et\'e fran\c{c}aise de statistique},
     volume = {160},
     number = {1},
     year = {2019},
     mrnumber = {3928540},
     zbl = {1417.62170},
     language = {en},
     url = {http://geodesic.mathdoc.fr/item/JSFS_2019__160_1_57_0/}
}
TY  - JOUR
AU  - Chamroukhi, Faicel
AU  - Huynh, Bao-Tuyen
TI  - Regularized Maximum Likelihood Estimation and Feature Selection in Mixtures-of-Experts Models
JO  - Journal de la société française de statistique
PY  - 2019
SP  - 57
EP  - 85
VL  - 160
IS  - 1
PB  - Société française de statistique
UR  - http://geodesic.mathdoc.fr/item/JSFS_2019__160_1_57_0/
LA  - en
ID  - JSFS_2019__160_1_57_0
ER  - 
%0 Journal Article
%A Chamroukhi, Faicel
%A Huynh, Bao-Tuyen
%T Regularized Maximum Likelihood Estimation and Feature Selection in Mixtures-of-Experts Models
%J Journal de la société française de statistique
%D 2019
%P 57-85
%V 160
%N 1
%I Société française de statistique
%U http://geodesic.mathdoc.fr/item/JSFS_2019__160_1_57_0/
%G en
%F JSFS_2019__160_1_57_0
Chamroukhi, Faicel; Huynh, Bao-Tuyen. Regularized Maximum Likelihood Estimation and Feature Selection in Mixtures-of-Experts Models. Journal de la société française de statistique, Numéro spécial : analyse de mélanges, Tome 160 (2019) no. 1, pp. 57-85. http://geodesic.mathdoc.fr/item/JSFS_2019__160_1_57_0/