¡Acceso ilimitado 24/7 a todos nuestros libros y vídeos! Descubra la Biblioteca Online ENI. Pulse aquí
¡Acceso ilimitado 24/7 a todos nuestros libros y vídeos! Descubra la Biblioteca Online ENI. Pulse aquí
  1. Libros
  2. Inteligencia artificial fácil
  3. Principales algoritmos de Machine Learning
Extrait - Inteligencia artificial fácil Machine Learning y Deep Learning prácticos
Extractos del libro
Inteligencia artificial fácil Machine Learning y Deep Learning prácticos
3 opiniones
Volver a la página de compra del libro

Principales algoritmos de Machine Learning

Lo que vamos a descubrir y requisitos

En el capítulo anterior hemos aprendido o repasado los fundamentos del análisis estadístico descriptivo que, como veremos con la práctica, nos permitirán comprender y preparar nuestros datos antes del aprendizaje. Ahora vamos a conocer los algoritmos principales de Machine Learning que nos permitirán hacer este aprendizaje.

Recuerde que nuestro objetivo al escribir este libro es difundir los conceptos de la inteligencia artificial. Por lo tanto, no incluiremos las explicaciones teóricas ni matemáticas de todos los algoritmos de aprendizaje.

Nos quedaremos con una explicación lo más explícita posible ilustrada con uno o varios ejemplos si es necesario. Haciendo una comparación con el mundo del bricolaje, vamos a presentarle las distintas herramientas que hay que utilizar en función del trabajo que vamos a hacer, pero no le explicaremos cómo se han fabricado.

Le recomendamos que considere este capítulo como un cuaderno de notas que puede consultar conforme vaya leyendo para entender por qué utilizamos uno u otro algoritmo y comprender su funcionamiento a grandes rasgos.

Requisitos necesarios para abordar este capítulo correctamente: haber leído el capítulo Estadísticas para comprender los datos.

¿Supervisado o no supervisado? ¿Regresión o clasificación?

Realizar un aprendizaje supervisado consiste en proporcionarle a la máquina datos etiquetados y propicios para el aprendizaje. Es decir, que vamos a analizar y preparar los datos y a darles un significado. La máquina realizará su aprendizaje a partir de este significado. El objetivo es indicarle a la máquina que, para una serie de datos y para una observación precisa, el valor que se ha de predecir es un gato, un perro u otro valor.

Cuando se trata de predecir un valor, hablaremos de regresión; en caso contrario hablaremos de clasificación. Predecir el porcentaje de éxito de un equipo de fútbol durante un partido es una regresión; predecir que la foto mostrada es un gato o un perro es una clasificación.

Los algoritmos de aprendizaje supervisados por la regresión (predicción de valores)

1. Regresión lineal simple (linear regression)

Este algoritmo busca establecer, en la forma de una recta, una relación entre una variable explicada y una variable explicativa. Por ejemplo, predecir una nota de un examen (variable explicada) en función del número de horas de revisiones (variable explicativa).

En otras palabras, los datos de una serie de observaciones se representan en la forma de una nube de puntos y se busca encontrar una recta que pase lo más cerca posible de estos puntos.

images/Ch04_01.PNG

Regresión lineal simple

De esta manera, conociendo la cantidad de horas de estudio, podemos predecir de manera aproximada la nota que se obtendrá en el próximo examen.

2. Regresión lineal múltiple (Multiple Linear Regression-MLR)

Allí donde utilizamos una sola variable explicativa para explicar otra variable (una nota en función del tiempo de estudio), en la regresión lineal vamos a utilizar varias variables explicativas.

Por ejemplo, queremos predecir el tiempo que va a invertir un ciclista para ganar una etapa del Tour de Francia, en función de su edad, del tiempo que ha invertido en hacer la etapa anterior, de su clasificación en el pelotón y otros datos.

Una fase importante durante el uso de múltiples variables explicativas es su normalización (adaptación de la escala). En nuestro ejemplo, es posible que el tiempo invertido en minutos durante la etapa precedente varíe de 160 a 200, y la posición en el pelotón, entre 1 y 80 en función de la cantidad de participantes en el Tour de Francia.

Por lo tanto, no todas las variables explicativas están en la misma escala (de 160 a 200 frente a de 1 a 80).

La adaptación a la escala (scaling) consistirá en conseguir que la media de cada serie de observaciones sea igual a 0, y que la varianza y la desviación típica sean iguales a 1. Este método también se llama centrar una variable.

Después de esta fase podemos pasar a la predicción gracias al método de descenso del gradiente o también al método de los mínimos cuadrados. Estos dos métodos toman en cuenta las distintas variables explicativas que se ponen a escala con objeto de predecir la variable explicada....

Algoritmos para aprendizajes no supervisados

Ahora entramos en el campo de los algoritmos de aprendizaje no supervisados. Al contrario de lo que sucede con un aprendizaje supervisado, durante la fase de aprendizaje no supervisado no le indicamos a la máquina si la observación estudiada pertenece a un grupo preciso. Es la máquina sola la que debe determinar a qué grupo pertenece (llamado clúster).

1. K-Medias (KMeans)

K-Medias (K-means) es uno de los algoritmos de formación de agrupaciones (clustering) más utilizados.

Su principio de funcionamiento es relativamente sencillo, después de haberle indicado al algoritmo la cantidad de clústeres que hay que encontrar, este utiliza iteraciones sucesivas para intentar determinar centroides (uno por clúster) alrededor de los que se pueden reagrupar los datos. Las reagrupaciones se llevan a cabo calculando la distancia de cada observación a un punto central de reagrupación llamado centroide. Así es posible clasificar las observaciones en varios grupos de manera automática.

En la siguiente figura, le hemos indicado al algoritmo que clasifique las observaciones en dos clústeres. Lo ha conseguido encontrando automáticamente dos centroides que permiten dividir las observaciones en dos grupos distintos.

images/Ch04_17.PNG

Algoritmo K-Medias

2. Mean-shift

Mean-shift es un algoritmo basado en una idea de «ventana corredera» que recorre el conjunto de observaciones en busca de zonas que tienen una densidad de observaciones...

¿Y eso es todo?

En este capítulo hemos visto y descrito brevemente los distintos algoritmos de Machine Learning más conocidos y mencionados. Por supuesto, hay otros que no hemos mencionado. Tampoco hemos explicado las redes de neuronas que abordaremos en detalle un poco más adelante en este libro.

Este capítulo nos ha proporcionado una vista de conjunto de los algoritmos, su funcionamiento y cuándo utilizarlos en función del problema que tenga que tratar: regresión o clasificación en el marco de un aprendizaje supervisado y clustering en el caso de aprendizajes no supervisados. La tabla que aparece más abajo recoge los distintos algoritmos que hemos abordado. Puede completarla con los algoritmos que descubra y pruebe en el futuro.

Algoritmo

Aprendizaje supervisado- regresión

Aprendizaje supervisado- categorización

Aprendizaje no supervisado

Regresión lineal simple

X

Regresión lineal múltiple

X

Regresión polinomial

X

Regresión logística

X

Árboles de decisión

X

X

Bosque aleatorio

X

X

Máquina de vectores de soporte

X

KNN

X

Bayesiano ingenuo

X

K-medias

X

Mean-shift

X

DBSCAN

X

Mezcla gaussiana

X

Ya hemos terminado la parte teórica y de presentación. En el capítulo siguiente vamos a iniciar nuestro primer caso práctico de Machine Learning mediante un ejemplo bastante sorprendente que utiliza el universo...