Voir la notice de l'article provenant de la source Numdam
This paper presents a new algorithm to perform regression estimation, in both the inductive and transductive setting. The estimator is defined as a linear combination of functions in a given dictionary. Coefficients of the combinations are computed sequentially using projection on some simple sets. These sets are defined as confidence regions provided by a deviation (PAC) inequality on an estimator in one-dimensional models. We prove that every projection the algorithm actually improves the performance of the estimator. We give all the estimators and results at first in the inductive case, where the algorithm requires the knowledge of the distribution of the design, and then in the transductive case, which seems a more natural application for this algorithm as we do not need particular information on the distribution of the design in this case. We finally show a connection with oracle inequalities, making us able to prove that the estimator reaches minimax rates of convergence in Sobolev and Besov spaces.
Cette article présente un nouvel algorithme d'estimation de régression, dans les contextes inductifs et transductifs. L'estimateur est défini par une combinaison linéaire de fonctions choisies dans un dictionnaire donné. Les coefficients de cette combinaison sont calculés par des projections successives sur des ensembles simples. Ces ensembles sont définis comme des régions de confiance données par une inégalité de déviation (ou inégalité PAC). On démontre en particulier que chaque projection au cours de l'algorithme améliore effectivement l'estimateur obtenu. On donne tout d'abord les résultats dans le contexte inductif, où l'algorithme nécessite la connaissance de la distribution du design, puis dans le contexte transductif, plus naturel ici puisque l'algorithme s'applique sans la connaissance de cette distribution. On établit finalement un lien avec les inégalités d'oracle, permettant de montrer que notre estimateur atteint les vitesses optimales dans les espaces de Sobolev et de Besov.
@article{AIHPB_2008__44_1_47_0, author = {Alquier, Pierre}, title = {Iterative feature selection in least square regression estimation}, journal = {Annales de l'I.H.P. Probabilit\'es et statistiques}, pages = {47--88}, publisher = {Gauthier-Villars}, volume = {44}, number = {1}, year = {2008}, doi = {10.1214/07-AIHP106}, mrnumber = {2451571}, language = {en}, url = {http://geodesic.mathdoc.fr/articles/10.1214/07-AIHP106/} }
TY - JOUR AU - Alquier, Pierre TI - Iterative feature selection in least square regression estimation JO - Annales de l'I.H.P. Probabilités et statistiques PY - 2008 SP - 47 EP - 88 VL - 44 IS - 1 PB - Gauthier-Villars UR - http://geodesic.mathdoc.fr/articles/10.1214/07-AIHP106/ DO - 10.1214/07-AIHP106 LA - en ID - AIHPB_2008__44_1_47_0 ER -
%0 Journal Article %A Alquier, Pierre %T Iterative feature selection in least square regression estimation %J Annales de l'I.H.P. Probabilités et statistiques %D 2008 %P 47-88 %V 44 %N 1 %I Gauthier-Villars %U http://geodesic.mathdoc.fr/articles/10.1214/07-AIHP106/ %R 10.1214/07-AIHP106 %G en %F AIHPB_2008__44_1_47_0
Alquier, Pierre. Iterative feature selection in least square regression estimation. Annales de l'I.H.P. Probabilités et statistiques, Tome 44 (2008) no. 1, pp. 47-88. doi: 10.1214/07-AIHP106
Cité par Sources :