¿Para quién es este curso?
• Programadores que quieren entrar al mundo de la inteligencia artificial.
• Estudiantes universitarios de ingeniería, sistemas o afines.
• Profesionales que necesitan tomar decisiones basadas en datos.
Prerrequisitos:
• Python básico (variables, estructuras de control, listas).
• Álgebra básica (ecuaciones, funciones).
• No se requiere experiencia previa en ML ni en matemáticas avanzadas.
Herramientas:
• Google Colab (no requiere instalación). - Anaconda - Jupyter (se instalara con el docente)
• Librerías: NumPy, Pandas, Matplotlib, Seaborn, Scikit-learn, TensorFlow/Keras.
BLOQUE 1 — FUNDAMENTOS Y DATOS (Clases 1–3)
Clase 1: El Mapa del Machine Learning
De la programación tradicional a los sistemas que aprenden
Objetivo: Que el estudiante entienda qué es ML, cuándo usarlo y cómo se estructura un proyecto de ML de principio a fin.
Contenidos:
• ¿Qué es Machine Learning y por qué importa hoy?
• Diferencia clave: programación clásica vs. ML (reglas vs. datos)
• Los 3 tipos de aprendizaje:
• Supervisado (clasificación y regresión) — el foco del curso
• No supervisado (clustering, reducción de dimensionalidad)
• Por refuerzo (mención conceptual)
• Flujo completo de un proyecto ML: datos → preparación → modelo → evaluación → despliegue
• Setup del entorno: Google Colab + librerías esenciales
Proyecto práctico: Explorar un dataset real en Colab: cargar, inspeccionar, hacer preguntas sobre los datos.
Clase 2: Datos Limpios, Modelos Fuertes
La preparación de datos decide el 80% del resultado
Objetivo: Dominar las técnicas fundamentales de limpieza y transformación de datos para alimentar modelos de ML.
Contenidos:
• Por qué “basura entra, basura sale” es la regla #1 de ML
• Técnicas de limpieza:
• Detección y tratamiento de valores nulos (eliminación vs. imputación)
• Identificación de outliers
• Manejo de datos duplicados
• Transformación de datos:
• Codificación de variables categóricas (Label Encoding, One-Hot Encoding)
• Escalado: normalización vs. estandarización
• División train/test: por qué nunca entrenamos con los datos de evaluación
Proyecto práctico: Limpiar y preparar el dataset completo, listo para modelar.
Clase 3: Tu Primer Modelo: Regresión Lineal
Predecir números a partir de datos
Objetivo: Construir, entrenar y evaluar un modelo de regresión lineal desde cero con Scikit-learn.
Contenidos:
• Intuición de la regresión: encontrar la línea que mejor se ajusta
• Variables independientes vs. dependiente
• Implementación con Scikit-learn paso a paso
• Métricas de evaluación para regresión:
• Error Cuadrático Medio (MSE)
• Error Absoluto Medio (MAE)
• R² (coeficiente de determinación)
• Visualización de predicciones vs. valores reales
Proyecto práctico: Predecir y visualizar resultados.
BLOQUE 2 — MODELOS DE CLASIFICACIÓN (Clases 4–6)
Clase 4: Clasificación: Sí o No
Regresión Logística para decisiones binarias
Objetivo: Entender cómo un modelo toma decisiones de clasificación y evaluar su calidad.
Contenidos:
• De regresión a clasificación: ¿cuál es el salto conceptual?
• La función sigmoide: convertir números en probabilidades
• Umbral de decisión: ¿cuándo decimos “sí”?
• Métricas de clasificación:
• Accuracy: lo básico pero no siempre suficiente
• Matriz de confusión: verdaderos/falsos positivos y negativos
• Precisión vs. Recall (introducción)
Proyecto práctico: Clasificar con Regresión Logística. Interpretar la matriz de confusión.
Clase 5: Vecinos y Árboles: Dos Formas de Decidir
KNN y Árboles de Decisión
Objetivo: Comprender dos algoritmos clásicos de clasificación y saber cuándo elegir cada uno.
Contenidos:
• K-Nearest Neighbors (KNN):
• Intuición: “Dime con quién andas y te diré quién eres”
• Concepto de distancia (euclidiana)
• El parámetro K: cómo elegirlo y qué pasa si es muy pequeño o muy grande
• Árboles de Decisión:
• Intuición: un flujo de preguntas Sí/No
• Cómo se construyen las reglas de división
• Visualización e interpretación del árbol
• Comparación directa: ¿cuál es mejor y cuándo?
Proyecto práctico: Clasificar con ambos algoritmos y comparar resultados.
Clase 6: El Poder del Grupo: Random Forest
Por qué muchos modelos juntos son mejores que uno solo
Objetivo: Entender el concepto de ensambles y aplicar Random Forest como modelo robusto de clasificación.
Contenidos:
• Limitaciones de un solo árbol: sobreajuste y sensibilidad
• Concepto de ensamble:
• Bagging: entrenar múltiples modelos con subconjuntos de datos
• Votación: la decisión colectiva del bosque
• Random Forest paso a paso con Scikit-learn
• Importancia de features: ¿qué variables pesan más?
• Ajuste básico de hiperparámetros (n_estimators, max_depth)
Proyecto práctico: Aplicar Random Forest al dataset y comparar contra Regresión Logística y Árbol individual.
BLOQUE 3 — EVALUACIÓN RIGUROSA (Clase 7)
Clase 7: Tu Modelo Miente (y Cómo Detectarlo)
Evaluación honesta de modelos de ML
Objetivo: Saber si un modelo realmente funciona, detectar sobreajuste, y elegir el mejor modelo con criterio.
Contenidos:
• Los dos enemigos del ML:
• Overfitting: memoriza en vez de aprender
• Underfitting: no aprende lo suficiente
• Cómo detectarlos (train score vs. test score)
• Validación cruzada (Cross-Validation):
• Por qué un solo train/test split no es confiable
• K-Fold Cross-Validation paso a paso
• Métricas avanzadas:
• Precisión, Recall y F1-Score (en profundidad)
• Cuándo cada métrica importa más (fraude vs. spam vs. médico)
• Comparación sistemática de modelos con tabla de resultados
Proyecto práctico: Evaluar los 4 modelos construidos hasta ahora con cross-validation y elegir el mejor con justificación.
BLOQUE 4 — DEEP LEARNING (Clases 8–9)
Clase 8: Redes Neuronales: Tu Primer Cerebro Artificial
De la neurona al modelo multicapa
Objetivo: Comprender la arquitectura de una red neuronal y construir una desde cero con Keras.
Contenidos:
• De la inspiración biológica al modelo matemático
• El perceptrón: la neurona artificial más simple
• Arquitectura de una red neuronal:
• Capa de entrada, capas ocultas, capa de salida
• Funciones de activación: ReLU, Sigmoid, Softmax — cuándo usar cada una
• Cómo aprende una red:
• Forward propagation (la predicción)
• Loss function (el error)
• Backpropagation (el ajuste) — explicación conceptual sin cálculo
• Implementación con TensorFlow/Keras: Sequential, Dense, compile, fit
Proyecto práctico: Construir y diseñar una red neuronal
Clase 9: Visión por Computadora: Redes Convolucionales
Enseñando a la máquina a ver imágenes
Objetivo: Entender cómo las CNNs procesan imágenes y construir un clasificador visual.
Contenidos:
• Por qué las redes densas no son eficientes para imágenes
• Convolución:
• Filtros como detectores de características (bordes, texturas, formas)
• Visualización de lo que “ve” cada filtro
• Pooling: reducir dimensiones sin perder información clave
• Arquitectura típica de una CNN:
• Conv → Pool → Conv → Pool → Flatten → Dense
• Implementación con Keras
• Data Augmentation: generar más datos artificialmente
Proyecto práctico: Construir un modelo clasificador de imagenes
BLOQUE 5 — EL MUNDO REAL (Clase 10)
Clase 10: Transfer Learning y Proyecto Final
Usar la inteligencia de otros modelos + presentación de proyectos
Objetivo: Aplicar Transfer Learning para resolver problemas complejos sin entrenar desde cero, y presentar un proyecto integrador.
Contenidos:
• ¿Por qué entrenar desde cero cuando alguien ya lo hizo?
• Transfer Learning:
• Concepto: reutilizar modelos preentrenados (VGG, ResNet, MobileNet)
• Fine-tuning vs. Feature extraction
• Implementación con Keras: cargar modelo, congelar capas, entrenar
• ¿Y después qué? Rutas para seguir aprendiendo (NLP, GANs, MLOps, Reinforcement Learning)
Proyecto práctico: El estudiante implementara en un proyecto modelos ya entrenados combinandos con modelos propios.
⏱️ Duración y Formato
5 semanas de formación práctica intensiva
20 horas en vivo — 10 clases de 2 horas cada una
Clases grabadas disponibles de por vida para repasar cuando quieras
Máximo 20 estudiantes para garantizar atención personalizada
📅 Horario de Clases
Sábado y domingo, inicio 23 de mayo de 2026
🇧🇴 Bolivia, 19:00 – 21:00 hrs
🇵🇪 Perú, 18:00 – 20:00 hrs
🇨🇴 Colombia, 18:00 – 20:00 hrs
🇪🇨 Ecuador, 18:00 – 20:00 hrs
🇨🇱 Chile, 20:00 – 22:00 hrs
🇦🇷 Argentina, 20:00 – 22:00 hrs
🇲🇽 México (CDMX), 17:00 – 19:00 hrs
⚠️ Las clases quedan grabadas — si tu horario no es conveniente, puedes verlas después.