Categorías
Articulos Inteligencia artificial

► 10 Tipos de Algoritmos de Machine Learning ◄

Algoritmos de aprendizaje automático: Los 10 mejores para principiantes

1. Regresión lineal

En el aprendizaje automático, tenemos un conjunto de variables de entrada (x) que se utilizan para determinar una variable de salida (y). Existe una relación entre las variables de entrada y la variable de salida. El objetivo de ML es cuantificar esta relación.

Siguenos en INSTAGRAM La comunidad de los verdaderos programadores.

En la regresión lineal, la relación entre las variables de entrada (x) y la variable de salida (y) se expresa como una ecuación de la forma y = a + bx. Por lo tanto, el objetivo de la regresión lineal es encontrar los valores de los coeficientes a y b. Aquí, a es la intersección yb es la pendiente de la línea.

2. Regresión logística

Las predicciones de regresión lineal son valores continuos (es decir, lluvia en cm), las predicciones de regresión logística son valores discretos (es decir, si un estudiante aprobó / reprobó) después de aplicar una función de transformación.

La regresión logística es más adecuada para la clasificación binaria: conjuntos de datos donde y = 0 o 1, donde 1 denota la clase predeterminada.

Por ejemplo, al predecir si un evento ocurrirá o no, solo hay dos posibilidades: que ocurra (lo que denotamos como 1) o que no ocurra (0). Entonces, si estuviéramos prediciendo si un paciente estaba enfermo, etiquetaríamos a los pacientes enfermos usando el valor de 1en nuestro conjunto de datos.

La regresión logística lleva el nombre de la función de transformación que utiliza, que se denomina función logística h (x) = 1 / (1 + ex). Esto forma una curva en forma de S.

En la regresión logística, la salida toma la forma de probabilidades de la clase predeterminada (a diferencia de la regresión lineal, donde la salida se produce directamente). Como es una probabilidad, la salida se encuentra en el rango de 0-1.

Entonces, por ejemplo, si estamos tratando de predecir si los pacientes están enfermos, ya sabemos que los pacientes enfermos se denotan como 1, así que si nuestro algoritmo asigna la puntuación de 0,98 a un paciente, cree que es muy probable que el paciente esté enfermo .

3. CART

Los árboles de clasificación y regresión (CART) son una implementación de los árboles de decisión.

Los nodos no terminales de los árboles de clasificación y regresión son el nodo raíz y el nodo interno. Los nodos terminales son los nodos hoja.

Cada nodo no terminal representa una sola variable de entrada (x) y un punto de división en esa variable; los nodos hoja representan la variable de salida (y). El modelo se utiliza de la siguiente manera para hacer predicciones: recorra las divisiones del árbol para llegar a un nodo hoja y generar el valor presente en el nodo hoja.

4. Naïve Bayes

Para calcular la probabilidad de que ocurra un evento, dado que ya ha ocurrido otro evento, utilizamos el Teorema de Bayes. Para calcular la probabilidad de que la hipótesis (h) sea verdadera, dado nuestro conocimiento previo (d), utilizamos el Teorema de Bayes de la siguiente manera:

P (h | d) = (P (d | h) P (h)) / P (d)

dónde:

P (h | d) = probabilidad posterior. La probabilidad de que la hipótesis h sea verdadera, dados los datos d, donde P (h | d) = P (d1 | h) P (d2 | h)… .P (dn | h) P (d)

P (d | h) = Probabilidad. La probabilidad de los datos d dado que la hipótesis h era verdadera.

P (h) = Probabilidad previa de clase. La probabilidad de que la hipótesis h sea verdadera (independientemente de los datos)

P (d) = Probabilidad previa del predictor. Probabilidad de los datos (independientemente de la hipótesis)

Este algoritmo se llama «ingenuo» porque supone que todas las variables son independientes entre sí, lo cual es una suposición ingenua en los ejemplos del mundo real.

5. KNN

El algoritmo de Vecinos K-Nearest utiliza el conjunto de datos completo como conjunto de entrenamiento, en lugar de dividir el conjunto de datos en un conjunto de entrenamiento y un conjunto de prueba.

Cuando se requiere un resultado para una nueva instancia de datos, el algoritmo KNN recorre todo el conjunto de datos para encontrar las instancias k más cercanas a la nueva instancia, o el número k de instancias más similares al nuevo registro, y luego genera la media de los resultados (para un problema de regresión) o el modo (clase más frecuente) para un problema de clasificación. El valor de k es especificado por el usuario.

6. Apriori

El algoritmo Apriori se usa en una base de datos transaccional para extraer conjuntos de elementos frecuentes y luego generar reglas de asociación.

Se usa popularmente en el análisis de la cesta de la compra, donde se comprueban las combinaciones de productos que con frecuencia ocurren en la base de datos. En general, escribimos la regla de asociación para ‘si una persona compra el artículo X, entonces compra el artículo Y’ como: X -> Y.

La medida de soporte ayuda a reducir el número de conjuntos de elementos candidatos a tener en cuenta durante la generación frecuente de conjuntos de elementos. Esta medida de apoyo está guiada por el principio de Apriori. El principio de Apriori establece que si un conjunto de elementos es frecuente, todos sus subconjuntos también deben ser frecuentes.

7. K-Means

K-means es un algoritmo iterativo que agrupa datos similares en grupos. Calcula los centroides de k grupos y asigna un punto de datos a ese grupo que tiene la menor distancia entre su centroide y el punto de datos.

Así es como funciona:

Comenzamos eligiendo un valor de k. Aquí, digamos k = 3. Luego, asignamos aleatoriamente cada punto de datos a cualquiera de los 3 grupos. Calcule el centroide del clúster para cada uno de los clústeres. Las estrellas roja, azul y verde denotan los centroides para cada uno de los 3 grupos.

A continuación, reasigne cada punto al centroide de conglomerado más cercano. En la figura anterior, los 5 puntos superiores se asignaron al grupo con el centroide azul. Siga el mismo procedimiento para asignar puntos a los grupos que contienen los centroides rojos y verdes.

Luego, calcule los centroides para los nuevos grupos. Los viejos centroides son estrellas grises; Los nuevos centroides son las estrellas roja, verde y azul.

Finalmente, repita los pasos 2-3 hasta que no haya cambio de puntos de un grupo a otro. Una vez que no haya conmutación por 2 pasos consecutivos, salga del algoritmo K-means.

8. PCA

El análisis de componentes principales (PCA) se utiliza para facilitar la exploración y visualización de datos al reducir el número de variables. Esto se logra capturando la varianza máxima en los datos en un nuevo sistema de coordenadas con ejes llamados ‘componentes principales’.

Cada componente es una combinación lineal de las variables originales y es ortogonal entre sí. La ortogonalidad entre componentes indica que la correlación entre estos componentes es cero.

El primer componente principal captura la dirección de la máxima variabilidad en los datos. El segundo componente principal captura la varianza restante en los datos pero tiene variables no correlacionadas con el primer componente. Del mismo modo, todos los componentes principales sucesivos (PC3, PC4, etc.) capturan la variación restante sin correlacionarse con el componente anterior.

9. Bootstrap Sampling

El primer paso en el ensacado es crear múltiples modelos con conjuntos de datos creados usando el método de muestreo Bootstrap. En Bootstrap Sampling, cada conjunto de entrenamiento generado se compone de submuestras aleatorias del conjunto de datos original.

Cada uno de estos conjuntos de entrenamiento es del mismo tamaño que el conjunto de datos original, pero algunos registros se repiten varias veces y algunos registros no aparecen en absoluto.

Luego, todo el conjunto de datos original se utiliza como conjunto de prueba. Por lo tanto, si el tamaño del conjunto de datos original es N, entonces el tamaño de cada conjunto de entrenamiento generado también es N, y el número de registros únicos es aproximadamente (2N / 3); el tamaño del conjunto de prueba también es N.

El segundo paso en el ensacado es crear múltiples modelos usando el mismo algoritmo en los diferentes conjuntos de entrenamiento generados.

10. Adaptive Boosting.

El ensacado es un conjunto paralelo porque cada modelo se construye de forma independiente. Por otro lado, el refuerzo es un conjunto secuencial donde cada modelo se construye en función de corregir las clasificaciones erróneas del modelo anterior.

El ensacado implica principalmente ‘votación simple’, donde cada clasificador vota para obtener un resultado final, uno que está determinado por la mayoría de los modelos paralelos; impulsar implica ‘votación ponderada’, donde cada clasificador vota para obtener un resultado final que está determinado por la mayoría, pero los modelos secuenciales se construyeron asignando mayores pesos a instancias mal clasificadas de los modelos anteriores.

Entradas relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

cinco × uno =