Tipos de regresión en estadística junto con sus fórmulas

Hay varios tipos de regresión en las estadísticas, pero antes de pasar a sus detalles. Vamos a dar algunos datos sobre ¿Qué es una regresión estadística? La regresión es la rama de la materia estadística que juega un papel importante en la predicción de datos analíticos. También se utiliza para calcular la conexión entre variables dependientes con una o más variables predictoras. El objetivo principal de la regresión es ajustar los datos proporcionados para que existan valores atípicos mínimos.

La regresión es el método de aprendizaje automático supervisado y una parte integral de los modelos predictivos. En otras palabras, la regresión indica una curva o línea que pasa a través de los puntos de datos requeridos del gráfico XY de una manera específica en la que la distancia entre la línea vertical y todos los puntos de datos se considera mínima. La distancia entre los puntos y las líneas especifica si la muestra tiene una conexión fuerte, por lo que se llama corrección.

El análisis de regresión se utiliza básicamente para el siguiente análisis:

  • Predecir el impacto del cambio.
  • Análisis causal.
  • Predecir tendencias.

Las aplicaciones de regresión lo hacen beneficioso para las ventas, la investigación de mercado y la previsión de existencias y más. Basado en varios tipos de regresión métodos que representan el número de variables independientes y la conexión entre estas variables. Lo diferente tipos de regresión Soy:

Tipos de regresión

regresión lineal

Es la muestra de regresión básica que se utiliza para analizar los conceptos básicos de la regresión. Si tenemos una sola variable (X) y otras variables (Y), entonces esto tipos de regresión se puede utilizar para mostrar la relación lineal entre ellos. Esto se conoce como regresión lineal. Si hay más de un solo predictor, esto se puede llamar una muestra de regresión lineal múltiple. La regresión lineal se puede definir como:

y = hacha + b + e

Donde a = pendiente de la línea, b = intersección en y, e = término de error.

La línea se puede usar para determinar los valores de los parámetros a y b y el coeficiente de x y la intercepción se puede predecir a partir del mínimo cuadrado, lo que minimiza la adición de errores cuadráticos dentro de los datos de muestra dados. La diferencia entre el valor calculado Y y el valor pronosticado y se denomina error de pronóstico, que se representa como:

Q = Σ (Yy) ^ 2

regresión polinomial

Es algo similar a la regresión lineal múltiple. En estos tipos de regresión, la relación entre las variables X e Y se representa como un K-ésimo grado del polinomio X. Se ajusta a datos de muestra no lineales, también se ajusta a muestras lineales para un estimador. Se puede adaptar usando la técnica de mínimos cuadrados pero se deben interpretar valores en monomios simples que deben estar altamente correlacionados. El valor supuesto de la variable dependiente Y se puede representar mediante la ecuación:

Y = a_1 * X_1 + (a_2) ² * X_2 + (a_3) ⁴ * X_3 ……. a_n * X_n + b

La línea que pasa por los puntos puede no ser recta pero puede ser curva ya que depende de la potencia de X. El grado más alto de los polinomios puede calcularse fácilmente introduciendo la mayor cantidad de oscilaciones dentro de las curvas observadas y puede tener una propiedad de interpolación baja. Utilizando enfoques modernos, la regresión polinomial se puede utilizar como núcleo para los algoritmos de máquinas de vectores de soporte.

Regresión de cresta

Podemos decir que es otro tipos de regresión esta es una versión robusta de la regresión lineal que es menos adecuada para valores sobreajustados. La muestra proporciona algunas penalizaciones o restricciones sobre la suma de cuadrados de los coeficientes de regresión. La técnica de mínimos cuadrados puede estimar los valores paramétricos de la mínima varianza. El factor de sesgo puede estar involucrado en el alivio de problemas si las variables predictivas son muy correctas. Para eliminar el problema, la regresión de cresta agrega un pequeño sesgo cuadrático a las variables:

minuto || Xw - y || ² + z || w || ²

O

minuto || Xw - y || ²

Donde X define las variables de las características, w define los pesos e y define la verdad fundamental.

Un método de matriz de sesgo utilizado para sumar las ecuaciones de mínimos cuadrados y, finalmente, la suma de cuadrados puede minimizar y ejecutar el valor de los parámetros de baja varianza. La matriz de sesgo también es importante para matrices escalares múltiples idénticas donde se debe seleccionar el valor óptimo.

Regresión LASSO

LASSO significa Operador de Selección de Contracción Mínima Absoluta. Y el tipos de regresión esta es una alternativa a la regresión de cresta. La única diferencia es que esto se usa para penalizar el tamaño del coeficiente de regresión. Usando el método de penalización, el coeficiente de contracción estimado hacia cero no es posible con el método de regresión de cresta.

Sin embargo, en lugar de usar una distorsión cuadrática como la regresión de cresta, el lazo usa un sesgo de valor absoluto:

minuto || Xw - y || ² + z || w ||

Esta técnica le permite usarla para selecciones de funciones donde la variable o el conjunto y los parámetros se seleccionan para construcciones de ejemplo. Toma ceros y características relevantes con valores irrelevantes que se utilizan para evitar el sobreajuste y también le permiten aprender más rápido. Es a la vez un ejemplo de regularización y una selección de características.

Regresión de ElasticNet

Es un híbrido para la regresión de Ridge y LASSO que agrega valores de penalización lineal L1 y L2 y puede anular las dos técnicas para diferentes aplicaciones. Puede calcular a partir de:

minuto || Xw - y || ² + z_1 || w || + z_2 || w || ²

La ventaja práctica de este intercambio de cresta a lazo es que este método le permite heredar la estabilidad de la cresta por debajo de los valores de rotación.

Los pocos puntos sobre la regresión de ElasticNet:

  • Úselo para fomentar el efecto de las variables de correlación, en lugar de valores claros como LASSO.
  • No tiene límites en el número de variables elegidas.

Conclusión

Este blog proporcionó 5 tipos de regresión involucrando lineal, cresta, lazo y mucho más. Todos estos se utilizan para analizar los diferentes conjuntos de variables en caso de multicolinealidad y dimensionalidad. Si todavía tiene dificultades con sus asignaciones estadísticas, puede comunicarse con nuestro gerente de atención al cliente. Tenemos un solucionador de tareas estadísticas que puede proporcionarle datos de alta calidad dentro del tiempo estipulado. Nuestros servicios están disponibles las 24 horas del día, los 7 días de la semana a un precio asequible que lo ayuda a obtener buenas calificaciones en sus estudios.

¿Ha sido útil el contenido?

Promedio de puntuación 0 / 5. Votos: 0

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.

Más contenido relacionado

Subir