regresión múltiple (lineal)

r proporciona soporte integral para la regresión lineal múltiple. Los temas a continuación se proporcionan en orden de complejidad creciente.

Ajuste del Modelo

# Multiple Linear Regression Example
fit <- lm(y ~ x1 + x2 + x3, data=mydata)
summary(fit) # show results

gráficos de Diagnóstico

gráficos de Diagnóstico proporcionan controles para heterocedasticidad, normalidad, e influyentes observerations.,

# diagnostic plots
layout(matrix(c(1,2,3,4),2,2)) # optional 4 graphs/page
plot(fit)

haga clic para ver

para una evaluación más completa del ajuste del modelo, consulte diagnóstico de regresión o los ejercicios de este curso interactivo sobre regresión.

comparación de modelos

puede comparar modelos anidados con la función anova (). El siguiente código proporciona una prueba simultánea que X3 Y x4 añaden a la predicción lineal por encima y más allá de x1 y x2.

# compare models
fit1 <- lm(y ~ x1 + x2 + x3 + x4, data=mydata)
fit2 <- lm(y ~ x1 + x2)
anova(fit1, fit2)

Validación Cruzada

Usted puede hacer K-Fold cross-validation utilizando el cv.función lm () en el paquete DAAG.,

# K-fold cross-validation
library(DAAG)
cv.lm(df=mydata, fit, m=3) # 3 fold cross-validation

sume el MSE para cada pliegue, divida por el número de observaciones, y tome la raíz cuadrada para obtener el error estándar de estimación cruzado validado.

Puede evaluar la contracción de R2 a través de la validación cruzada de K-fold. Usando la función crossval () del paquete bootstrap, haga lo siguiente:

selección de variables

Seleccionar un subconjunto de variables predictoras de un conjunto más grande (por ejemplo, selección paso a paso) es un tema controvertido. Puede realizar la selección paso a paso (adelante, atrás, ambos) usando la función stepAIC () del paquete masivo., stepAIC () realiza la selección del modelo paso a paso por AIC exacto.

alternativamente, puede realizar regresión de todos los subconjuntos usando la función leaps () del paquete leaps. En el siguiente código nbest indica el número de subconjuntos de cada tamaño a reportar. Aquí, los diez mejores modelos serán reportados para cada tamaño de subconjunto(1 predictor, 2 predictores, etc.).

haga clic para ver

Otras opciones para plot( ) son bic, Cp, y adjr2. Otras opciones para graficar con
subset( ) son bic, cp, adjr2 y rss.,

importancia relativa

El paquete relaimpo proporciona medidas de importancia relativa para cada uno de los predictores del modelo. Ver ayuda (calc.relimp) para obtener detalles sobre las cuatro medidas de importancia relativa proporcionadas.

haga clic para ver

mejoras gráficas

El Paquete car ofrece una amplia variedad de gráficas para regresión, incluyendo gráficas variables añadidas y gráficas de diagnóstico y dispersión mejoradas.

yendo más allá

regresión no lineal

El paquete nls proporciona funciones para la regresión no lineal., Ver regresión no lineal y mínimos cuadrados no lineales de John Fox para una visión general. Huet y sus colegas’ Statistical Tools for Nonlinear Regression: A Practical Guide with S-PLUS and R Examples es un valioso libro de referencia.

regresión robusta

hay muchas funciones en R para ayudar con la regresión robusta. Por ejemplo, puede realizar una regresión robusta con la función rlm( ) en el paquete masivo. John Fox (¿quién más?) Regresión robusta proporciona una buena visión general de partida. El Sitio Web de UCLA Statistical Computing tiene ejemplos robustos de regresión.,

El Paquete robusto proporciona una biblioteca completa de métodos robustos, incluida la regresión. El paquete robustbase también proporciona estadísticas robustas básicas, incluidos los métodos de selección de modelos. Y David Olive ha proporcionado una revisión detallada en línea de estadísticas robustas aplicadas con código R de muestra.

para practicar

Este curso de machine learning en R incluye ejercicios de regresión múltiple y validación cruzada.

Author: admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *