Autoplay
Autocompletar
Lección previa
Completar y continuar
Curso completo para ser experto en Machine Learning - Data Science con Python
Sección 1: Bienvenido a nuestro curso de Mahchine Learning
Bienvenido al curso de Machine Learning con Python (6:53)
Pregunta tus dudas en la comunidad de Discord (3:45)
Conoce a tu instructor Juan Gabriel Gomila (2:12)
Sección 2: Instalando nuestra herramienta de trabajo.
Cómo instalar Python con Anaconda Navigator (11:21)
Como instalar paquetes de Python con pip (12:01)
Las librerias estandar de MachineLearning en Python (19:03)
Los editores para programar en Python (9:53)
Cómo instalar las mismas librerías que tengo en el curso (10:28)
IMPORTANTE: Si el entorno anterior no funciona, prueba con el adjunto aquí
Algunos cambios en la versión 3.7 de Python
Sección 3: Una introducción al análisis predictivo y al Machine Learning.
Ser Data Scientist es la profesión más sexy del siglo XXI (15:46)
¿Qué es el análisis predictivo de datos? (18:49)
Data Scientist = Matemáticas + Programación + Business (10:48)
Aplicaciones y ejemplos del mundo del Data Science (26:31)
Las 5 etapas del análisis de datos (13:10)
¿Qué es el Machine Learning? (6:36)
Sección 4: Limpieza de Datos
Data cleaning (4:40)
El concepto de data frame (9:23)
El repositorio Git del curso (5:28)
¿Qué hago si no me autocompleta Jupyter?
Acerca de las barras en Windows
Leer datos procedentes de un .CSV (13:50)
Los parámetros de la función read/csv (17:26)
Ejemplos de diferentes cargas de datos con read/csv (14:58)
El método open para la carga manual de datos (14:39)
Cuidado con el método open
Leer y escribir en un fichero con Python (7:56)
Leer los datos desde una URL externa (12:45)
La carga de datos desde una hoja de cálculo (8:35)
Ejercicio descargar y procesar datos desde una URL externa (19:24)
Las funciones básicas de resumen, estructura, dimensiones y cabecera (16:45)
¿Por qué faltan valores en los data sets? (13:53)
¿Qué hacer cuando faltan valores en el data set? (18:24)
Las variables dummy (13:18)
Visualización básica de un dataset: el scatterplot (15:35)
Visualizaión básica de un dataset: el histograma de frecuencias (9:45)
Visualización básica de un dataset: el boxplot (12:58)
Sección 5: Operaciones de manejo de datos.
Data Wrangling (7:29)
Una chuleta de pandas para Data Wrangling
Fe de erratas
Bucar un subconjunto de datos de un dataset (19:54)
Filtrados alternativos
Subconjuntos de filas conciertas condiciones (18:12)
Subconjuntos con loc e iloc y creación de nuevas columnas (16:33)
Generar números aleatorios (19:45)
La semilla de la generación aleatoria (5:06)
Funciones de distribución de probabilidades (5:41)
La distribución uniforme (8:59)
La distribución normal N (15:10)
El método de la simulación de Monte-Carlo para encontrar el valor de Pi (21:56)
Generando dummy data frames (10:51)
Un dummy data frame con variables categóricas (12:05)
Agrupación de los datos por categorias (8:13)
Agregación de datos (11:22)
Filtrado, transformación y otras operaciones útiles (14:40)
Conjunto de entrenamiento y de testing (5:48)
Actualización: cómo dividir conjunto de entrenamiento y test
Muestreo aleatorio: Cómo dividir un dataset en conjunto de entreno y validación (13:30)
Concatenar dos datasets por filas (17:18)
Carga de cientos de datos distribuidos (23:18)
Ejercicio: El dataset de los juegos olímpicos (19:57)
Concatenar los datos con merge (13:46)
Formas de cruzar tablas con joins (14:26)
Eliminar datos de datasets con restricciones de conjunto (13:01)
Ejemplos de joins con Python (16:41)
Ya conoces las bases del manejo de datos (4:00)
¿Te gusta el curso? ¡Valóralo y cuéntanos tu opinión! (1:44)
Sección 6: Conceptos básicos de estadística para la modelización predictva
Los conceptos fundamentales de estadística (6:59)
Un resumen de los estadísticos básicos (en R). (25:46)
El resumen de estadísticos en Python (propuesta de un estudiante)
Muestreo aleatorio y el teorema central del límite (12:26)
Los contrastes de hipótesis (12:46)
Cómo hacer un contraste de hipótesis paso a paso (19:02)
Test de la chi cuadrado (16:19)
Correlación entre variables (30:38)
Un resumen de lo aprendido (3:24)
Sección 7: Regresión lineal con Python
La regresión lineal (6:24)
Las matemáticas tras una regresión lineal (10:18)
Demostración de la obtención de los parámetros del modelo lineal (19:52)
Errores normalmente distribuidos (2:24)
Sumas de los cuadrados totales, de las diferencias y de la regresión (32:22)
Ejercicio: Demostrar que SST = SSR + SSD
Encontrando los coeficientes óptimos de la regresión (14:42)
Interpretar los parámetros de la regresión (14:51)
Implementar una regresión lineal con Python (20:49)
Regresión lineal múltiple (23:13)
El problema de la multicolinealidad (12:13)
Validando nuestro modelo (14:54)
El resumen de todos lo modelos lineales creados (6:11)
Regresión lineal con scikit-learn (11:46)
Modelos lineales con variables categóricas (6:13)
Variables categóricas en una regresión lineal (27:43)
Otra forma más simple de calcular las predicciones
Enmascarado de variables categóricas redundantes (16:05)
Transformar las variables en relaciones no lineales (33:22)
El problema de los outliers (16:38)
Otros problemas y consideraciones de la regresión lineal (11:17)
Un resumen de la regresión lineal (5:49)
Sección 8: Regresión logística con Python
La regresión logística (3:21)
Regresión lineal vs regresión logística (7:26)
Las matemáticas que hay detrás de la regresión logística (11:01)
Probabilidades condicionadas (13:03)
Cociente de probabilidades (13:41)
De la regresión lineal a la logística (19:25)
Estimación con el método de máxima verosimilitud (40:10)
Crear un modelo logístico desde cero (49:56)
Análisis exploratorio de los datos (29:33)
La selección de variables del dataset para el modelo logístico (21:10)
Implementar una regresión logística con Python (13:50)
Validación del modelo y evaluación del mismo (16:12)
La validación cruzada. (13:39)
Validación cruzada con Python (11:56)
Las matrices de confusión y las curvas ROC (8:14)
Implementación de las curvas ROC en Python (31:30)
Resumen de la regresión logística (6:19)
Sección 9: Clústering y clasificación
Clustering (6:16)
¿Qué es y para qué sirve el clustering? (17:35)
El concepto de distancia (16:23)
Matriz de distancias en Python (12:16)
Métodos de enlace (11:41)
Uniendo datos manualmente (26:34)
Clustering jerárquico en Python (14:03)
Un clustering completo: La fase de exploración de datos (17:58)
Un clustering completo: Representación del dendrograma (29:04)
Un clustering completo: Por donde cortamos el dendrograma (30:18)
Un clustering completo: Visualización final del clustering (10:14)
El método k-means (7:08)
Implementando k-means en Python (8:52)
Ejercicio: Segmentación de los vinos (27:27)
El metodo del codo (3:51)
El coeficiente de la silueta (7:03)
Implementando la técnica del codo y el coeficiente de la silueta (35:08)
Propagación de la afinidad (7:57)
Implementando la propagación de la afinidad (19:06)
Generando distribuciones en forma de anillo (10:54)
Los K medoides y el clustering espectral (15:39)
Resumen del clustering (3:58)
Sección 10: Árboles y bosques aleatorios
Arboles y bosques aleatorios (3:35)
¿Qué es un árbol de decisión? (9:16)
Homogeneidad en los datos (7:11)
Entropía y ganancia de información (15:22)
Algoritmos para la generación de árboles de clasificación (15:53)
La poda del árbol (6:45)
Los problemas del árbol (12:13)
Los árboles de clasificación con Python (16:23)
El tratamiento de ficheros dot (15:27)
La validación cruzada de un árbol de clasificación (12:29)
Los árboles de regresión (8:07)
El data set de las casas de Boston y Kaggle (10:42)
Árboles de regresión con Python (16:56)
Random forests (9:34)
Random forests para regresión (9:57)
Random forests para clasificación (4:44)
¿Por que funcionan los random forest? (6:31)
Resumen de árboles y bosques aleatorios (3:35)
Sección 11: Máquinas de Soporte Vectorial
Las máquinas de soporte vectorial (4:51)
Las support vector machines (12:12)
El problema de clasificación no óptimo (14:02)
Los núcleos no lineales y el problema de la dimensión (10:59)
Soporte Vectorial Clasificador Lineal (7:40)
Creando el modelo clasificador lineal (8:08)
Representación gráfica del hiperplano separador en 2D (7:25)
El problema de la separación (9:36)
Maximizar el margen de clasificación (4:58)
Los soportes de SVM (26:21)
Kernels no lineales (13:26)
Radial basis function (9:32)
Ajustando las SVM (13:29)
Práctica de SVM: Reconocimiento facial a lo CSI (31:44)
Práctica de SVM: Clasificación de las flores de iris (28:35)
Truco: qué hacer cuando me toca hacer un análisis de datos (13:37)
SVM para regresión (17:48)
Sección 12: K Nearest Neighbours
La decisión de los K vecinos (2:54)
Los K vecinos más cercanos (11:26)
Limpieza del dataset del Cáncer (8:29)
Clasificación según los K vecinos (9:43)
Clasificando nuevos datos de los tests médicos (6:55)
Creando los datos para la clasificación (10:36)
Implementando la decisión por mayoria (16:09)
Nuestro algoritmo versus scikit-learn (13:04)
Una opinión final sobre los algoritmos de machine learning (6:38)
Sección 13: Sistemas de recomendación
El rol de las recomendaciones dinámicas en el siglo XXI (5:14)
El dataset de películas de Movie Lens (7:18)
Análisis exploratorio de datos y distribución de las valoraciones (6:27)
Esparsiedad de los datos (6:31)
División en entrenamiento y validación (4:03)
La matriz de similaridad entre usuarios (7:28)
Predecir la valoración de un ítem para un usuario (6:16)
Filtrando con los K nearest neigbours (13:34)
Sistemas de recomendación basados en items (10:47)
Recomendando con los K ítems más parecidos (6:27)
Los resultados finales (8:31)
Corrección: Error en la clase anterior
Sección 14: Análisis de componentes principales
Análisis de componentes principales (3:57)
El problema de la dimensión (10:31)
Demostración de como se hace un ACP (26:26)
Implementando nuestro propio ACP en Python (28:12)
Plotly, la libreria de gráficos personalizados e interactivos (8:53)
Los valores y vectores propios de la matriz de covarianzas (10:21)
La matriz de correlaciones y el Singular Value Decomposition (6:22)
La selección de componentes principales (18:17)
La proyección en el subespacio vectorial resultante (10:10)
Implementación de ACP con sklearn (8:00)
Más gráficos con plotly (9:37)
Personalizando los gráficos con plotly (17:25)
Coloraciones y etiquetas de plotly (15:59)
Sección 15: Introducción a las redes neuronales y al deep learning con TensorFlow
Redes neuronales del futuro (6:42)
Introducción al tensorflow (5:22)
Acerca de las redes neuronales y el deep learning (11:52)
IMPORTANTE: Versión de TensorFlow a utilizar
Instalando tensorflow en tu ordenador (12:35)
Si tienes problemas con la instalación de TensorFlow
La carga del dataset de imagenes (22:59)
Análisis exploratorio de los datos (11:17)
Un resumen visual de imágenes (16:59)
Pre procesado de imágenes previo al ML (15:06)
Creación del modelo (14:13)
Entrenamiento del modelo (10:22)
Validación del modelo (21:18)
El data set de reconocimiento de dígitos (8:08)
De datos desestructurados a espacios vectoriales n-dimensionales (5:24)
La regresión softmax (9:31)
Tensorflow y la regresión softmax (10:53)
La fase de entrenamiento de la red neuronal (15:45)
La fase de evaluación de la red neuronal (6:43)
Sección 16: Juntar código de R y Python con la libreria rpy2
Cuando Python conoce a R, no hay limites en el BigData (3:10)
Instalar la libreria rpy2 (9:49)
Nota adicional para instalar rpy2 en Windows
Llevando objetos de R a Python (7:29)
Llevando objetos de Python a R (10:11)
Como instalar y cargar paquetes de R desde Python (5:49)
La libreria extRemes en acción desde Python (22:00)
Rmagic (11:34)
Lo bueno de programación en Python, lo mejor de estadística con R (13:52)
Sección 17: ¿Qué nos depara el futuro?
Proyecto final. ¿Qué me depara el futuro? (9:31)
Ejemplo: dashboard con las valoraciones de las películas
Radial basis function
Contenido bloqueado
Si ya estás inscrito,
deberás iniciar sesión
.
Inscríbase en el curso para desbloquear