Categorías
Articulos Inteligencia artificial

【 10 】Técnicas de Machine Learning

Los 10 mejores algoritmos de aprendizaje automático para principiantes

Los diez métodos descritos ofrecen una visión general, y una base sobre la que puede construir a medida que perfecciona sus conocimientos y habilidades de aprendizaje automático:

Siguenos en INSTAGRAM La comunidad de los verdaderos programadores.
  1. Regresión
  2. Clasificación
  3. Agrupación
  4. Reducción de dimensionalidad
  5. Métodos de conjunto
  6. Redes neuronales y aprendizaje profundo
  7. Transferir aprendizaje
  8. Aprendizaje reforzado
  9. Procesamiento natural del lenguaje
  10. Incrustaciones de palabras

Regresión

Los métodos de regresión caen dentro de la categoría de LD supervisado. Ayudan a predecir o explicar un valor numérico particular basado en un conjunto de datos anteriores, por ejemplo, prediciendo el precio de una propiedad en base a datos de precios anteriores para propiedades similares.

El método más simple es la regresión lineal donde usamos la ecuación matemática de la línea ( y = m * x + b ) para modelar un conjunto de datos.

Entrenamos un modelo de regresión lineal con muchos pares de datos (x, y) calculando la posición y la pendiente de una línea que minimiza la distancia total entre todos los puntos de datos y la línea. En otras palabras, calculamos la pendiente ( m ) y la intersección y ( b ) para una línea que se aproxima mejor a las observaciones en los datos.

Clasificación

Otra clase de LD supervisada, los métodos de clasificación predicen o explican un valor de clase. Por ejemplo, pueden ayudar a predecir si un cliente en línea comprará o no un producto.

La salida puede ser sí o no: comprador o no comprador. Pero los métodos de clasificación no se limitan a dos clases.

Por ejemplo, un método de clasificación podría ayudar a evaluar si una imagen dada contiene un automóvil o un camión. En este caso, la salida será de 3 valores diferentes: 1) la imagen contiene un automóvil, 2) la imagen contiene un camión o 3) la imagen no contiene un automóvil ni un camión.

El algoritmo de clasificación más simple es la regresión logística, lo que hace que parezca un método de regresión, pero no lo es. La regresión logística estima la probabilidad de que ocurra un evento en función de una o más entradas.

Agrupación

Con los métodos de agrupamiento, ingresamos a la categoría de NM sin supervisión porque su objetivo es agrupar o agrupar observaciones que tengan características similares. Los métodos de agrupamiento no usan información de salida para el entrenamiento, sino que dejan que el algoritmo defina la salida.

En los métodos de agrupamiento, solo podemos usar visualizaciones para inspeccionar la calidad de la solución.

El método de agrupación más popular es K-Means, donde «K» representa el número de agrupaciones que el usuario elige crear. (Tenga en cuenta que existen varias técnicas para elegir el valor de K, como el método del codo).

Reducción de dimensionalidad

Como su nombre indica, utilizamos la reducción de dimensionalidad para eliminar la información menos importante (a veces columnas redundantes) de un conjunto de datos.

En la práctica, a menudo veo conjuntos de datos con cientos o incluso miles de columnas (también llamadas características), por lo que es vital reducir el número total. Por ejemplo, las imágenes pueden incluir miles de píxeles, no todos los cuales son importantes para su análisis.

O al probar microchips dentro del proceso de fabricación, es posible que se apliquen miles de mediciones y pruebas a cada chip, muchas de las cuales proporcionan información redundante. En estos casos, necesita algoritmos de reducción de dimensionalidad para que el conjunto de datos sea manejable.

El método de reducción de dimensionalidad más popular es el Análisis de componentes principales (PCA), que reduce la dimensión del espacio de características al encontrar nuevos vectores que maximizan la variación lineal de los datos.

PCA puede reducir drásticamente la dimensión de los datos y sin perder demasiada información cuando las correlaciones lineales de los datos son fuertes. (Y, de hecho, también puede medir el alcance real de la pérdida de información y ajustar en consecuencia).

Otro método popular es la incrustación vecina t-estocástica (t-SNE), que realiza una reducción de dimensionalidad no lineal. Las personas generalmente usan t-SNE para la visualización de datos, pero también puede usarlo para tareas de aprendizaje automático, como reducir el espacio de características y la agrupación, por mencionar solo algunas.

Métodos de conjunto

Imagine que ha decidido construir una bicicleta porque no se siente satisfecho con las opciones disponibles en las tiendas y en línea. Puede comenzar por encontrar lo mejor de cada parte que necesita. Una vez que ensambles todas estas excelentes piezas, la bicicleta resultante eclipsará todas las demás opciones.

Los métodos de conjunto utilizan esta misma idea de combinar varios modelos predictivos (NM supervisado) para obtener predicciones de mayor calidad que cada uno de los modelos podría proporcionar por sí solo.

Por ejemplo, los algoritmos de Random Forest es un método de conjunto que combina muchos árboles de decisión entrenados con diferentes muestras de los conjuntos de datos. Como resultado, la calidad de las predicciones de un bosque aleatorio es mayor que la calidad de las predicciones estimadas con un solo árbol de decisión.

Redes neuronales y aprendizaje profundo

A diferencia de las regresiones lineales y logísticas que se consideran modelos lineales, el objetivo de las redes neuronales es capturar patrones no lineales en los datos agregando capas de parámetros al modelo.

Es especialmente difícil mantenerse al día con los avances en el aprendizaje profundo, en parte porque las comunidades de investigación e industria se han duplicado en sus esfuerzos de aprendizaje profundo, generando metodologías completamente nuevas todos los días.

Para obtener el mejor rendimiento, las técnicas de aprendizaje profundo requieren una gran cantidad de datos, y mucha potencia de cómputo, ya que el método está autoajustando muchos parámetros en arquitecturas enormes. Rápidamente queda claro por qué los profesionales de aprendizaje profundo necesitan computadoras muy potentes mejoradas con GPU (unidades de procesamiento gráfico).

Transferir aprendizaje

Supongamos que eres un científico de datos que trabaja en la industria minorista. Has pasado meses entrenando un modelo de alta calidad para clasificar imágenes como camisas, camisetas y polos.

Su nueva tarea es construir un modelo similar para clasificar imágenes de vestidos como jeans, cargo, casual y pantalones de vestir. ¿Puede transferir el conocimiento incorporado al primer modelo y aplicarlo al segundo modelo? Sí, puedes, usando Transfer Learning.

Transfer Learning se refiere a reutilizar parte de una red neuronal previamente capacitada y adaptarla a una tarea nueva pero similar.

Específicamente, una vez que entrena una red neuronal usando datos para una tarea, puede transferir una fracción de las capas entrenadas y combinarlas con unas pocas capas nuevas que puede entrenar usando los datos de la nueva tarea. Al agregar algunas capas, la nueva red neuronal puede aprender y adaptarse rápidamente a la nueva tarea.

Aprendizaje reforzado

Imagina un ratón en un laberinto tratando de encontrar trozos de queso escondidos. Cuantas más veces expongamos el mouse al laberinto, mejor será encontrar el queso. Al principio, el mouse puede moverse al azar, pero después de un tiempo, la experiencia del mouse lo ayuda a darse cuenta de qué acciones lo acercan al queso.

El proceso para el mouse refleja lo que hacemos con Reinforcement Learning (RL) para entrenar un sistema o un juego. En términos generales, RL es un método de aprendizaje automático que ayuda a un agente a aprender de la experiencia. Al registrar acciones y utilizar un enfoque de prueba y error en un entorno establecido, RL puede maximizar una recompensa acumulativa.

Procesamiento natural del lenguaje

Un gran porcentaje de los datos y el conocimiento del mundo está en alguna forma de lenguaje humano. ¿Te imaginas poder leer y comprender miles de libros, artículos y blogs en segundos? Obviamente, las computadoras aún no pueden entender completamente el texto humano, pero podemos entrenarlos para realizar ciertas tareas.

Por ejemplo, podemos entrenar a nuestros teléfonos para que completen automáticamente nuestros mensajes de texto o para corregir palabras mal escritas. Incluso podemos enseñarle a una máquina a tener una conversación simple con un humano.

El procesamiento del lenguaje natural (PNL) no es un método de aprendizaje automático per se, sino una técnica ampliamente utilizada para preparar texto para el aprendizaje automático. Piense en toneladas de documentos de texto en una variedad de formatos (word, blogs en línea, …).

La mayoría de estos documentos de texto estarán llenos de errores tipográficos, caracteres faltantes y otras palabras que se deben filtrar. Por el momento, el paquete más popular para procesar texto es NLTK (Natural Language ToolKit), creado por investigadores de Stanford.

Incrustaciones de palabras

TFM y TFIDF son representaciones numéricas de documentos de texto que solo consideran la frecuencia y las frecuencias ponderadas para representar documentos de texto. Por el contrario, las incrustaciones de palabras pueden capturar el contexto de una palabra en un documento.

Con el contexto de la palabra, las incrustaciones pueden cuantificar la similitud entre las palabras, lo que a su vez nos permite hacer aritmética con las palabras.

Word2Vec es un método basado en redes neuronales que asigna palabras en un corpus a un vector numérico. Entonces podemos usar estos vectores para encontrar sinónimos, realizar operaciones aritméticas con palabras o representar documentos de texto (tomando la media de todos los vectores de palabras en un documento).

Conclusión

He tratado de cubrir los diez métodos o técnicas de aprendizaje automático más importantes: desde el más básico hasta el más avanzado. Estudiar estos métodos bien y comprender completamente los conceptos básicos de cada uno puede servir como un punto de partida sólido para el estudio posterior de algoritmos y métodos más avanzados.

Entradas relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

1 × cuatro =