Show simple item record

[pt] ALGORITMOS PARA REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS

dc.contributorRUY LUIZ MILIDIU
dc.creatorRAUL PIERRE RENTERIA
dc.date2004-01-08
dc.date.accessioned2022-09-21T21:42:12Z
dc.date.available2022-09-21T21:42:12Z
dc.identifierhttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=4362@1
dc.identifierhttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=4362@2
dc.identifierhttp://doi.org/10.17771/PUCRio.acad.4362
dc.identifier.urihttps://hdl.handle.net/20.500.12032/42462
dc.description[pt] Muitos problemas da área de aprendizagem automática tem por objetivo modelar a complexa relação existente num sisitema , entre variáveis de entrada X e de saída Y na ausência de um modelo teórico. A regressão por mínimos quadrados parciais PLS ( Partial Least Squares) constitui um método linear para resolução deste tipo de problema , voltado para o caso de um grande número de variáveis de entrada quando comparado com número de amostras. Nesta tese , apresentamos uma variante do algoritmo clássico PLS para o tratamento de grandes conjuntos de dados , mantendo um bom poder preditivo. Dentre os principais resultados destacamos um versão paralela PPLS (Parallel PLS ) exata para o caso de apenas um variável de saída e um versão rápida e aproximada DPLS (DIRECT PLS) para o caso de mais de uma variável de saída. Por outro lado ,apresentamos também variantes para o aumento da qualidade de predição graças à formulação não linear. São elas o LPLS ( Lifted PLS ), algoritmo para o caso de apenas uma variável de saída, baseado na teoria de funções de núcleo ( kernel functions ), uma formulação kernel para o DPLS e um algoritmo multi-kernel MKPLS capaz de uma modelagemmais compacta e maior poder preditivo, graças ao uso de vários núcleos na geração do modelo.
dc.description[en] The purpose of many problems in the machine learning field isto model the complex relationship in a system between the input X and output Y variables when no theoretical model is available. The Partial Least Squares (PLS)is one linear method for this kind of problem, for the case of many input variables when compared to the number of samples. In this thesis we present versions of the classical PLS algorithm designed for large data sets while keeping a good predictive power. Among the main results we highlight PPLS (Parallel PLS), a parallel version for the case of only one output variable, and DPLS ( Direct PLS), a fast and approximate version, for the case fo more than one output variable. On the other hand, we also present some variants of the regression algorithm that can enhance the predictive quality based on a non -linear formulation. We indroduce LPLS (Lifted PLS), for the case of only one dependent variable based on the theory of kernel functions, KDPLS, a non-linear formulation for DPLS, and MKPLS, a multi-kernel algorithm that can result in a more compact model and a better prediction quality, thankas to the use of several kernels for the model bulding.
dc.languagept
dc.publisherMAXWELL
dc.subject[pt] REGRESSAO NAO LINEAR
dc.subject[pt] MULTI-KERNEL
dc.subject[pt] MINIMOS QUADRADOS PARCIAIS
dc.subject[pt] PARALELISMO
dc.subject[en] NONLINEAR REGRESSION
dc.subject[en] MULTI-KERNEL
dc.subject[en] PARTIAL LEAST SQUARES
dc.subject[en] PARALLELISM
dc.title[en] ALGORITHMS FOR PARTIAL LEAST SQUARES REGRESSION
dc.title[pt] ALGORITMOS PARA REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS
dc.typeTEXTO


Files in this item

FilesSizeFormatView

There are no files associated with this item.

This item appears in the following Collection(s)

Show simple item record


© AUSJAL 2022

Asociación de Universidades Confiadas a la Compañía de Jesús en América Latina, AUSJAL
Av. Santa Teresa de Jesús Edif. Cerpe, Piso 2, Oficina AUSJAL Urb.
La Castellana, Chacao (1060) Caracas - Venezuela
Tel/Fax (+58-212)-266-13-41 /(+58-212)-266-85-62

Nuestras redes sociales

facebook Facebook

twitter Twitter

youtube Youtube

Asociaciones Jesuitas en el mundo
Ausjal en el mundo AJCU AUSJAL JESAM JCEP JCS JCAP