🎯 Intermedio

Machine Learning Aplicado

En 10 sesiones, el estudiante pasa de entender qué es Machine Learning a construir, evaluar y desplegar modelos predictivos con Python. Cada clase combina teoría concisa con código en vivo. Se trabaja con datasets experimentales, y al final del curso cada estudiante tiene un portafolio con al menos 4 modelos funcionales

⏱️ 20 horas 📅 Inicia: 23/05/2026
¡Oferta de Inscripción Anticipada!
Inversión del curso
Precio de Lanzamiento!
37 USDT
Precio regular 50 USDT
Ahorras 13 USDT
Pago seguro en criptomoneda
20 cupos
on
Inscribirme Ahora


Detalles del Curso

¿Para quién es este curso?

• Programadores que quieren entrar al mundo de la inteligencia artificial.
• Estudiantes universitarios de ingeniería, sistemas o afines.
• Profesionales que necesitan tomar decisiones basadas en datos.

Prerrequisitos:

• Python básico (variables, estructuras de control, listas).
• Álgebra básica (ecuaciones, funciones).
• No se requiere experiencia previa en ML ni en matemáticas avanzadas.

Herramientas:

• Google Colab (no requiere instalación). - Anaconda - Jupyter (se instalara con el docente)
• Librerías: NumPy, Pandas, Matplotlib, Seaborn, Scikit-learn, TensorFlow/Keras.

BLOQUE 1 — FUNDAMENTOS Y DATOS (Clases 1–3)

Clase 1: El Mapa del Machine Learning
De la programación tradicional a los sistemas que aprenden
Objetivo: Que el estudiante entienda qué es ML, cuándo usarlo y cómo se estructura un proyecto de ML de principio a fin.

Contenidos:
• ¿Qué es Machine Learning y por qué importa hoy?
• Diferencia clave: programación clásica vs. ML (reglas vs. datos)
• Los 3 tipos de aprendizaje:
• Supervisado (clasificación y regresión) — el foco del curso
• No supervisado (clustering, reducción de dimensionalidad)
• Por refuerzo (mención conceptual)
• Flujo completo de un proyecto ML: datos → preparación → modelo → evaluación → despliegue
• Setup del entorno: Google Colab + librerías esenciales

Proyecto práctico: Explorar un dataset real en Colab: cargar, inspeccionar, hacer preguntas sobre los datos.

Clase 2: Datos Limpios, Modelos Fuertes

La preparación de datos decide el 80% del resultado
Objetivo: Dominar las técnicas fundamentales de limpieza y transformación de datos para alimentar modelos de ML.

Contenidos:
• Por qué “basura entra, basura sale” es la regla #1 de ML
• Técnicas de limpieza:
• Detección y tratamiento de valores nulos (eliminación vs. imputación)
• Identificación de outliers
• Manejo de datos duplicados
• Transformación de datos:
• Codificación de variables categóricas (Label Encoding, One-Hot Encoding)
• Escalado: normalización vs. estandarización
• División train/test: por qué nunca entrenamos con los datos de evaluación

Proyecto práctico: Limpiar y preparar el dataset completo, listo para modelar.

Clase 3: Tu Primer Modelo: Regresión Lineal
Predecir números a partir de datos
Objetivo: Construir, entrenar y evaluar un modelo de regresión lineal desde cero con Scikit-learn.

Contenidos:
• Intuición de la regresión: encontrar la línea que mejor se ajusta
• Variables independientes vs. dependiente
• Implementación con Scikit-learn paso a paso
• Métricas de evaluación para regresión:
• Error Cuadrático Medio (MSE)
• Error Absoluto Medio (MAE)
• R² (coeficiente de determinación)
• Visualización de predicciones vs. valores reales

Proyecto práctico: Predecir y visualizar resultados.

BLOQUE 2 — MODELOS DE CLASIFICACIÓN (Clases 4–6)

Clase 4: Clasificación: Sí o No

Regresión Logística para decisiones binarias
Objetivo: Entender cómo un modelo toma decisiones de clasificación y evaluar su calidad.

Contenidos:
• De regresión a clasificación: ¿cuál es el salto conceptual?
• La función sigmoide: convertir números en probabilidades
• Umbral de decisión: ¿cuándo decimos “sí”?
• Métricas de clasificación:
• Accuracy: lo básico pero no siempre suficiente
• Matriz de confusión: verdaderos/falsos positivos y negativos
• Precisión vs. Recall (introducción)

Proyecto práctico: Clasificar con Regresión Logística. Interpretar la matriz de confusión.

Clase 5: Vecinos y Árboles: Dos Formas de Decidir

KNN y Árboles de Decisión
Objetivo: Comprender dos algoritmos clásicos de clasificación y saber cuándo elegir cada uno.

Contenidos:
• K-Nearest Neighbors (KNN):
• Intuición: “Dime con quién andas y te diré quién eres”
• Concepto de distancia (euclidiana)
• El parámetro K: cómo elegirlo y qué pasa si es muy pequeño o muy grande
• Árboles de Decisión:
• Intuición: un flujo de preguntas Sí/No
• Cómo se construyen las reglas de división
• Visualización e interpretación del árbol
• Comparación directa: ¿cuál es mejor y cuándo?

Proyecto práctico: Clasificar con ambos algoritmos y comparar resultados.

Clase 6: El Poder del Grupo: Random Forest

Por qué muchos modelos juntos son mejores que uno solo
Objetivo: Entender el concepto de ensambles y aplicar Random Forest como modelo robusto de clasificación.

Contenidos:
• Limitaciones de un solo árbol: sobreajuste y sensibilidad
• Concepto de ensamble:
• Bagging: entrenar múltiples modelos con subconjuntos de datos
• Votación: la decisión colectiva del bosque
• Random Forest paso a paso con Scikit-learn
• Importancia de features: ¿qué variables pesan más?
• Ajuste básico de hiperparámetros (n_estimators, max_depth)

Proyecto práctico: Aplicar Random Forest al dataset y comparar contra Regresión Logística y Árbol individual.

BLOQUE 3 — EVALUACIÓN RIGUROSA (Clase 7)

Clase 7: Tu Modelo Miente (y Cómo Detectarlo)

Evaluación honesta de modelos de ML
Objetivo: Saber si un modelo realmente funciona, detectar sobreajuste, y elegir el mejor modelo con criterio.

Contenidos:
• Los dos enemigos del ML:
• Overfitting: memoriza en vez de aprender
• Underfitting: no aprende lo suficiente
• Cómo detectarlos (train score vs. test score)
• Validación cruzada (Cross-Validation):
• Por qué un solo train/test split no es confiable
• K-Fold Cross-Validation paso a paso
• Métricas avanzadas:
• Precisión, Recall y F1-Score (en profundidad)
• Cuándo cada métrica importa más (fraude vs. spam vs. médico)
• Comparación sistemática de modelos con tabla de resultados

Proyecto práctico: Evaluar los 4 modelos construidos hasta ahora con cross-validation y elegir el mejor con justificación.

BLOQUE 4 — DEEP LEARNING (Clases 8–9)

Clase 8: Redes Neuronales: Tu Primer Cerebro Artificial

De la neurona al modelo multicapa
Objetivo: Comprender la arquitectura de una red neuronal y construir una desde cero con Keras.

Contenidos:
• De la inspiración biológica al modelo matemático
• El perceptrón: la neurona artificial más simple
• Arquitectura de una red neuronal:
• Capa de entrada, capas ocultas, capa de salida
• Funciones de activación: ReLU, Sigmoid, Softmax — cuándo usar cada una
• Cómo aprende una red:
• Forward propagation (la predicción)
• Loss function (el error)
• Backpropagation (el ajuste) — explicación conceptual sin cálculo
• Implementación con TensorFlow/Keras: Sequential, Dense, compile, fit

Proyecto práctico: Construir y diseñar una red neuronal

Clase 9: Visión por Computadora: Redes Convolucionales

Enseñando a la máquina a ver imágenes
Objetivo: Entender cómo las CNNs procesan imágenes y construir un clasificador visual.

Contenidos:
• Por qué las redes densas no son eficientes para imágenes
• Convolución:
• Filtros como detectores de características (bordes, texturas, formas)
• Visualización de lo que “ve” cada filtro
• Pooling: reducir dimensiones sin perder información clave
• Arquitectura típica de una CNN:
• Conv → Pool → Conv → Pool → Flatten → Dense
• Implementación con Keras
• Data Augmentation: generar más datos artificialmente

Proyecto práctico: Construir un modelo clasificador de imagenes

BLOQUE 5 — EL MUNDO REAL (Clase 10)

Clase 10: Transfer Learning y Proyecto Final

Usar la inteligencia de otros modelos + presentación de proyectos
Objetivo: Aplicar Transfer Learning para resolver problemas complejos sin entrenar desde cero, y presentar un proyecto integrador.

Contenidos:
• ¿Por qué entrenar desde cero cuando alguien ya lo hizo?
• Transfer Learning:
• Concepto: reutilizar modelos preentrenados (VGG, ResNet, MobileNet)
• Fine-tuning vs. Feature extraction
• Implementación con Keras: cargar modelo, congelar capas, entrenar
• ¿Y después qué? Rutas para seguir aprendiendo (NLP, GANs, MLOps, Reinforcement Learning)

Proyecto práctico: El estudiante implementara en un proyecto modelos ya entrenados combinandos con modelos propios.

⏱️ Duración y Formato

5 semanas de formación práctica intensiva
20 horas en vivo — 10 clases de 2 horas cada una
Clases grabadas disponibles de por vida para repasar cuando quieras
Máximo 20 estudiantes para garantizar atención personalizada

📅 Horario de Clases

Sábado y domingo, inicio 23 de mayo de 2026

🇧🇴 Bolivia, 19:00 – 21:00 hrs
🇵🇪 Perú, 18:00 – 20:00 hrs
🇨🇴 Colombia, 18:00 – 20:00 hrs
🇪🇨 Ecuador, 18:00 – 20:00 hrs
🇨🇱 Chile, 20:00 – 22:00 hrs
🇦🇷 Argentina, 20:00 – 22:00 hrs
🇲🇽 México (CDMX), 17:00 – 19:00 hrs

⚠️ Las clases quedan grabadas — si tu horario no es conveniente, puedes verlas después.