Categorías
Articulos Inteligencia artificial

{ 5 Modelos de regresión en Machine Learning

Todo sobre los tipos de regresión

Los modelos de regresión se utilizan para predecir un valor continuo. La predicción de los precios de una casa dadas las características de la casa como tamaño, precio, etc. es uno de los ejemplos comunes de Regresión. Es una técnica supervisada. Una explicación detallada sobre los tipos de aprendizaje automático y algunos conceptos importantes se da en mi artículo anterior.

Siguenos en INSTAGRAM La comunidad de los verdaderos programadores.

Modelos de regresion en machine learning

  • Regresión lineal simple
  • Regresión polinómica
  • Regresión de vectores de soporte
  • Regresión del árbol de decisiones
  • Regresión forestal aleatoria

1) Regresión lineal simple

Este es uno de los tipos de técnica de regresión más comunes e interesantes. Aquí predecimos una variable objetivo Y basada en la variable de entrada X. Debe existir una relación lineal entre la variable objetivo y el predictor, y de ahí viene el nombre Regresión lineal.

Considere predecir el salario de un empleado en función de su edad. Podemos identificar fácilmente que parece haber una correlación entre la edad y el salario del empleado (más edad más es el salario).

2) Regresión polinómica

En la regresión polinómica, transformamos las características originales en características polinómicas de un grado dado y luego aplicamos la regresión lineal.

3) Regresión de vectores de soporte

En SVR, identificamos un hiperplano con un margen máximo tal que el número máximo de puntos de datos esté dentro de ese margen. Los SVR son casi similares al algoritmo de clasificación SVM. Discutiremos el algoritmo SVM en detalle en mi próximo artículo.

En lugar de minimizar la tasa de error como en la regresión lineal simple, tratamos de ajustar el error dentro de un cierto umbral. Nuestro objetivo en SVR es básicamente considerar los puntos que están dentro del margen. Nuestra mejor línea de ajuste es el hiperplano que tiene el número máximo de puntos.

4) Regresión del árbol de decisiones

Los árboles de decisión se pueden usar para la clasificación y la regresión. En los árboles de decisión, en cada nivel, necesitamos identificar el atributo de división. En el caso de la regresión, el algoritmo ID3 se puede usar para identificar el nodo de división al reducir la desviación estándar (en la clasificación se usa la ganancia de información) .

Un árbol de decisión se construye dividiendo los datos en subconjuntos que contienen instancias con valores similares (homogéneos). La desviación estándar se usa para calcular la homogeneidad de una muestra numérica. Si la muestra numérica es completamente homogénea, su desviación estándar es cero.

5) Regresión forestal aleatoria

El bosque aleatorio es un enfoque de conjunto en el que tenemos en cuenta las predicciones de varios árboles de regresión de decisiones.

Seleccione K puntos aleatorios

Identifique n donde n es el número de regresores de árbol de decisión que se crearán. Repita los pasos 1 y 2 para crear varios árboles de regresión.

El promedio de cada rama se asigna al nodo hoja en cada árbol de decisión.

Para predecir el resultado de una variable, se toma en cuenta el promedio de todas las predicciones de todos los árboles de decisión.

Entradas relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

2 × uno =