LIVEBootcamps IA · Mayo 2026 · 🇫🇷 CET
Academy · 6-week cohort/Live Q&A/Replays/Templates/300+ students/4.7/5
FREE · NEXT COHORT OPENS MAY

FORMACIÓN HUGGING FACE: DOMINA LA IA SIN PARTIR DE CERO

Hack'celeration te propone una formación Hugging Face para aprender a usar modelos de inteligencia artificial pre-entrenados sin tener que construirlos tú mismo. Nada de pasar meses entrenando modelos desde cero. Vas directamente a lo que funciona.

Vamos a ver cómo navegar el Hub, elegir el modelo correcto para tu caso de uso, usar la librería Transformers, crear pipelines de inferencia, hacer fine-tuning de modelos existentes, y desplegar tus propias aplicaciones con Spaces. Todo lo que necesitas para integrar IA en tus proyectos.

Ya seas desarrollador que quiere añadir IA a su stack, data scientist que busca acelerar sus proyectos, o simplemente alguien curioso que quiere entender cómo usar estos modelos sin un doctorado en machine learning, esta formación es para ti.

Enfoque 100% práctico. Cero teoría abstracta. Al final, sabes usar Hugging Face de manera autónoma para tus propios proyectos.

MTA+
300+ students trained
★★★★★ 4.7/5 satisfaction
Hack'celeration Academy

Empieza a aprender gratis.

✓ 6 semanas · ✓ replays · ✓ Q&A en vivo
Live Session
Live session
Trainer speaking
Hugging-Face Training — live session extract.
★★★★★★★★★★4.7300+ students
Format
6 weeks
Self-paced + 1h live Q&A weekly
Modules
06
FUNDAMENTOS DE HUGGI · LA LIBRERÍA TRANSFOR · TRABAJAR CON DATASET · FINE-TUNING DE MODEL · DESPLIEGUE CON SPACE · CASOS PRÁCTICOS Y PR
Price
FREE
Preview cohort · no commitment
For
Builders
No-code creators & low-code devs
Programa

What you'll learn in our Hugging-Face training

06Modules · curriculum
01

MÓDULO 1: FUNDAMENTOS DE HUGGING FACE

Empezamos por el principio: entender qué es Hugging Face, cómo funciona el ecosistema, y por qué se ha convertido en la referencia para IA.

Vas a descubrir el Hub y su organización. Modelos, datasets, Spaces. Entiendes cómo navegar, buscar, y filtrar para encontrar exactamente lo que necesitas entre los cientos de miles de recursos disponibles.

Vas a crear tu cuenta, configurar tu perfil, y entender el sistema de tokens de autenticación para acceder a modelos privados o con restricciones.

Vas a aprender a leer una Model Card. Qué información te da, cómo evaluar si un modelo es fiable, y qué métricas mirar antes de usarlo.

Al final de este módulo, navegas el Hub con confianza. Sabes dónde buscar y cómo evaluar lo que encuentras.

02

MÓDULO 2: LA LIBRERÍA TRANSFORMERS

Pasamos a la práctica con la librería Transformers. La herramienta core que te permite usar cualquier modelo del Hub en tu código.

Vas a instalar el entorno y entender la estructura. Pipeline, AutoModel, AutoTokenizer. Cada componente tiene su rol y vas a saber cuándo usar cuál.

Vas a crear tu primer pipeline de inferencia. En 3 líneas de código, haces análisis de sentimiento, generación de texto, o clasificación de imágenes. Sin configuración compleja.

Vas a entender los tokenizers. Cómo transforman texto en números que el modelo puede procesar, por qué es importante, y cómo evitar errores comunes.

Vas a explorar diferentes tareas: text-classification, question-answering, summarization, translation, text-generation. Un modelo diferente para cada problema.

Al final de este módulo, escribes código que usa modelos de IA. Sabes elegir el pipeline correcto y obtener resultados explotables.

03

MÓDULO 3: TRABAJAR CON DATASETS

Un modelo es tan bueno como los datos con los que trabaja. Aquí aprendes a gestionar datasets como un pro.

Vas a usar la librería Datasets de Hugging Face. Cargar datasets del Hub, explorarlos, filtrarlos, y prepararlos para entrenamiento o evaluación.

Vas a crear tus propios datasets. Desde archivos CSV, JSON, o bases de datos como Airtable. Los formateas correctamente para que funcionen con los modelos.

Vas a aprender las técnicas de preprocessing. Tokenización batch, padding, truncation. Todo lo que necesitas para que tus datos entren en el modelo sin problemas.

Vas a entender el streaming de datos. Para datasets masivos que no caben en memoria, procesas los datos sobre la marcha sin saturar tu máquina.

Al final de este módulo, gestionas datos de manera eficiente. Desde la carga hasta el preprocessing, tienes un pipeline de datos limpio.

04

MÓDULO 4: FINE-TUNING DE MODELOS

Los modelos pre-entrenados son buenos. Los modelos fine-tuneados para tu caso específico son mejores. Aquí aprendes a adaptarlos.

Vas a entender cuándo hacer fine-tuning. No siempre es necesario. A veces un modelo genérico basta. Sabes evaluar si vale la pena el esfuerzo.

Vas a usar el Trainer API. La manera más simple de fine-tunear un modelo. Configuras los hiperparámetros, lanzas el entrenamiento, y monitorizas el progreso.

Vas a aprender técnicas de optimización. Learning rate scheduling, early stopping, gradient accumulation. Los trucos que marcan la diferencia entre un fine-tuning mediocre y uno que funciona.

Vas a gestionar los recursos. Cómo entrenar con GPU limitada, usar mixed precision (fp16), y optimizar para no explotar tu presupuesto cloud.

Al final de este módulo, puedes adaptar cualquier modelo a tus datos. Tienes un workflow de fine-tuning reproducible y eficiente.

05

MÓDULO 5: DESPLIEGUE CON SPACES E INFERENCE API

Tener un modelo que funciona en tu ordenador está bien. Tener un modelo accesible para otros está mejor. Aquí aprendes a desplegar.

Vas a crear un Space con Gradio. En minutos, tienes una interfaz web donde cualquiera puede probar tu modelo. Sin gestionar servidores, sin código frontend complejo.

Vas a explorar Streamlit para Spaces. Otra opción para crear demos más personalizadas con dashboards y visualizaciones.

Vas a usar la Inference API. Llamadas HTTP para usar modelos sin instalar nada. Ideal para integrar IA en aplicaciones existentes sin tocar la infraestructura.

Vas a entender las opciones de despliegue. Inference Endpoints para producción, Spaces para demos, API para integraciones. Cada opción tiene su caso de uso.

Al final de este módulo, despliegas modelos de manera profesional. Tienes demos funcionales y sabes cómo escalar si es necesario.

06

MÓDULO 6: CASOS PRÁCTICOS Y PROYECTOS

Cerramos con proyectos completos que combinan todo lo aprendido. De principio a fin, desde la idea hasta el despliegue.

Vas a construir un chatbot con modelos de text-generation. Desde la selección del modelo hasta la interfaz conversacional, pasando por la gestión del contexto.

Vas a crear un sistema de análisis de documentos. Extracción de información, clasificación, resumen automático. Un pipeline completo para procesar textos.

Vas a desarrollar una aplicación de búsqueda semántica. Embeddings, similitud de vectores, y retrieval. La base de muchos sistemas RAG modernos.

Vas a aprender a debuggear. Cuando algo no funciona (y pasará), sabes dónde mirar, qué logs revisar, y cómo iterar rápido.

Al final de este módulo, tienes proyectos terminados en tu portfolio. Sabes usar Hugging Face para resolver problemas reales de principio a fin.

Por qué nosotros

¿Por qué formarte con Hack'celeration?

UNA AGENCIA EXPERTA QUE USA HUGGING FACE PARA CLIENTES TODOS LOS DÍAS

Descubrir nuestra Agencia Hugging Face

Preguntas frecuentes

01¿Es realmente gratis?+
Sí. Formas parte de los primeros inscritos en beneficiarse del programa en primicia. Sin costes ocultos, sin compromiso. Solo acceso completo a 6 módulos, replays, y acompañamiento de nuestros expertos.
02¿Cuánto dura la formación Hugging Face?+
6 semanas. Avanzas a tu ritmo con bloques de formación de 2h en autonomía (vídeos, ejercicios, código de ejemplo). Más 1 sesión colectiva de 1h por semana para hacer preguntas y trabajar casos prácticos con nuestros formadores.
03¿Es en directo o en replay?+
Ambos. Los contenidos de formación están en replay para que avances cuando quieras. Las sesiones semanales de preguntas/respuestas se hacen en directo, pero también se graban si te pierdes una sesión.
04¿Cómo me inscribo?+
Formulario de inscripción en esta página. Una vez inscrito, recibes un email de confirmación con los accesos a la plataforma, el calendario de sesiones, y los primeros contenidos para empezar.
05¿Necesito saber programar para seguir la formación?+
Sí, necesitas bases de Python. No hace falta ser experto, pero debes saber escribir funciones, usar librerías, y entender conceptos básicos como variables, bucles y listas. Si nunca has tocado código, esta formación te va a costar. Si has hecho algún proyecto en Python, aunque sea pequeño, estás listo.
06Hugging Face vs OpenAI API: ¿cuándo elegir Hugging Face?+
OpenAI es más simple para empezar: una API, pagas por uso, listo. Hugging Face te da más control: eliges entre miles de modelos, puedes hacer fine-tuning con tus datos, y alojar todo en tu infraestructura si quieres. Si necesitas personalización, privacidad de datos, o evitar costes recurrentes de API, Hugging Face gana. Si quieres resultados rápidos sin complicarte, OpenAI puede bastar. En la formación vemos cuándo usar cada opción.
07¿Necesito una GPU potente para seguir la formación?+
No necesariamente. Para inferencia (usar modelos), un ordenador normal funciona para modelos pequeños. Para fine-tuning, sí que necesitas GPU. Pero te enseñamos alternativas: Google Colab gratuito, Hugging Face Spaces con GPU incluida, o servicios cloud económicos. No tienes que invertir en hardware antes de empezar.
08¿Puedo integrar Hugging Face con Make o n8n?+
Totalmente. La Inference API de Hugging Face se conecta fácilmente con cualquier herramienta de automatización vía HTTP. Puedes crear escenarios Make o workflows n8n que llaman modelos de IA automáticamente. Clasificar emails, analizar documentos, generar respuestas. En el módulo 5 vemos exactamente cómo hacer estas integraciones.
09¿Qué tipo de proyectos puedo hacer después de la formación?+
Chatbots personalizados, sistemas de análisis de documentos, clasificadores de texto o imágenes, motores de búsqueda semántica, generadores de contenido, asistentes de código. Básicamente, cualquier aplicación que use IA para procesar texto, imágenes o audio. Te damos las bases para atacar estos proyectos de manera autónoma.
10¿La formación cubre los modelos de lenguaje grandes (LLMs)?+
Sí. Vemos cómo usar LLMs open source disponibles en el Hub (Llama, Mistral, Falcon, etc.), cómo elegir el tamaño correcto según tus recursos, y cómo hacer inference eficiente. También tocamos técnicas como quantization para correr modelos grandes en hardware limitado. No es un curso específico de LLMs, pero cubres lo esencial.
Hack'celeration Academy

Empieza a aprender gratis.

✓ 6 semanas · ✓ replays · ✓ Q&A en vivo