LIVEBootcamps IA · Mayo 2026 · 🇫🇷 CET
Recursos · Integraciones · n8n FREE · 2026Logo de BrightData avec le nom de l'entreprise en caractères modernes

INTEGRACIÓN BRIGHTDATA n8n: AUTOMATIZAR BRIGHTDATA CON N8N

INTEGRACIÓN BRIGHTDATA N8N: AUTOMATIZAR BRIGHTDATA CON N8N

Necesitas ayuda

¿Necesitas ayuda para automatizar Brightdata con n8n?

Nuestro equipo te responde en minutos.

Respuesta en menos de una hora
Por qué automatizar

Why automate Brightdata with n8n?

La integración BrightData n8n te ofrece 16 acciones que cubren todo el ciclo de vida de la extracción de datos web: desde el lanzamiento de peticiones con el Web Unlocker hasta la entrega de snapshots a tu infraestructura cloud. Esto significa que puedes orquestar operaciones complejas de scraping sin escribir código ni cambiar de herramienta.

El ahorro de tiempo es considerable. Ya no necesitas ejecutar scripts manualmente ni monitorear el estado de tus extracciones. Configura workflows que lancen automáticamente la recolección de datos cuando lo necesites, filtren los resultados según tus criterios y los envíen directamente a tu data warehouse o CRM. Con n8n monitoreando 24/7, cada snapshot completado puede activar inmediatamente el siguiente paso de tu pipeline de datos.

Algunos ejemplos concretos de lo que puedes automatizar: lanzar extracciones masivas de URLs cada mañana y recibir los datos en Slack cuando estén listos, sincronizar automáticamente los datasets del Marketplace de BrightData con tu base de datos, monitorear el progreso de tus scrapes y recibir alertas si algo falla, o entregar snapshots comprimidos a S3 para procesamiento posterior con otras herramientas de tu stack.

Credenciales

How to connect Brightdata to n8n?

  1. !
    1 step

    How to connect Brightdata to n8n?

    1. 01

      Add the node

      Configuración básica:Obtén tus credenciales API: Accede a tu panel de BrightData, navega a la sección de configuración de API y genera un token de acceso. Copia este token de forma segura.Crea las credenciales en n8n: En n8n, ve a Settings > Credentials > Add Credential y busca "BrightData". Pega tu token de API en el campo correspondiente.Configura tus zonas: Identifica los nombres de las zonas que utilizarás (como web_unlocker1) ya que las necesitarás en varias acciones.Prueba la conexión: Añade un nodo BrightData a un workflow, selecciona tus credenciales y ejecuta una acción simple como "List Datasets" para verificar que todo funciona.

    Brightdata credentials
    TIP
    💡 CONSEJO: Crea credenciales separadas para entornos de desarrollo y producción. Esto te permite probar tus workflows con límites de uso controlados antes de escalar, y facilita la gestión de costes ya que BrightData factura por uso.
Necesitas ayuda

¿Necesitas ayuda para automatizar Brightdata con n8n?

Nuestro equipo te responde en minutos.

Respuesta en menos de una hora
Acciones

Brightdata actions available in n8n

  1. 01
    Acción 01

    Access and extract data...

    Esta acción te permite enviar peticiones web a través del Web Unlocker de BrightData, la solución que evita bloqueos y CAPTCHAs automáticamente. Es la puerta de entrada para acceder a sitios web que normalmente bloquearían peticiones automatizadas.

    Parámetros clave: Zone (zona del Web Unlocker, requerido), Country (código de país, requerido), Method (método HTTP, requerido), URL (URL objetivo, requerido), Format (formato de respuesta, requerido).

    Casos de uso típicos: Extraer precios de competidores desde sitios e-commerce protegidos, recopilar datos públicos de redes sociales o directorios profesionales, acceder a contenido geo-restringido simulando ubicaciones específicas.

    Utiliza esta acción cuando necesites acceder a sitios web que bloquean scrapers tradicionales o cuando requieras rotar IPs y simular navegadores reales automáticamente.

    Access and extract data...
  2. 02
    Acción 02

    Get filtered snapshots

    Esta acción recupera snapshots filtrados desde tus Web Scrapers configurados en BrightData. Es ideal para obtener solo los datos que necesitas sin descargar datasets completos, aplicando filtros de fecha y paginación.

    Parámetros clave: Dataset (dataset del cual extraer snapshots, requerido), Skip (número de elementos a omitir, opcional, por defecto 0), Limit (máximo de elementos, opcional, por defecto 50), From Date (fecha inicial para filtrar, opcional).

    Casos de uso típicos: Obtener solo los snapshots de la última semana para procesamiento incremental, paginar resultados grandes en lotes manejables, filtrar datos históricos para análisis de tendencias.

    Usa esta acción cuando trabajes con datasets que generan múltiples snapshots y necesites recuperar solo un subconjunto específico.

    Get filtered snapshots
  3. 03
    Acción 03

    Initiate batch extraction

    Esta acción lanza extracciones masivas enviando una lista de URLs a tu Web Scraper configurado. Perfecta para operaciones de scraping a gran escala donde necesitas procesar cientos o miles de páginas.

    Parámetros clave: Dataset (dataset/scraper que procesará las URLs, requerido), URLs (lista de URLs en formato JSON, requerido), Endpoint (endpoint de destino, requerido), Notify (URL de webhook para notificaciones, requerido).

    Casos de uso típicos: Lanzar scraping de catálogos de productos completos cada noche, extraer datos de listas de empresas desde directorios B2B, procesar URLs generadas dinámicamente desde otras fuentes en tu workflow.

    Ideal cuando tienes una lista de URLs que procesar y quieres lanzar todo en una sola operación, recibiendo notificación cuando termine.

    Initiate batch extraction
  4. 04
    Acción 04

    Extract structured data

    La acción "Scrape By URL" extrae datos estructurados directamente desde URLs específicas usando tus scrapers configurados. Devuelve los datos inmediatamente en el formato que especifiques.

    Parámetros clave: Dataset (scraper a utilizar, requerido), URLs (lista de URLs objetivo en JSON, requerido), Include Errors (toggle para incluir mensajes de error, opcional), Format (formato de salida, típicamente JSON, requerido).

    Casos de uso típicos: Extraer datos de producto de páginas específicas en tiempo real, obtener información de perfiles o empresas bajo demanda, validar datos de URLs individuales antes de lanzar extracciones masivas.

    Utiliza esta acción para extracciones puntuales o en tiempo real donde necesitas los datos inmediatamente sin esperar a que se complete un batch.

    Extract structured data
  5. 05
    Acción 05

    Download Snapshot

    Descarga el contenido de un snapshot específico desde tu Web Scraper. Esta acción te da control granular sobre qué datos descargar y en qué formato.

    Parámetros clave: Snapshot ID (identificador único del snapshot, requerido), Batch Size (número de registros por petición, requerido), Part (número de parte del snapshot, requerido), Format (formato de descarga como JSON o CSV, requerido), Compress (toggle para comprimir, opcional).

    Casos de uso típicos: Descargar datos de scraping completados para procesamiento, recuperar partes específicas de snapshots grandes, obtener datos en formato comprimido para transferencias eficientes.

    Esencial cuando necesitas acceder al contenido real de tus extracciones para procesarlo en los siguientes pasos del workflow.

    Download Snapshot
  6. 06
    Acción 06

    Check the status of a browser automation

    Monitorea el progreso de tus operaciones de scraping en curso. Esta acción te permite verificar si una extracción ha terminado antes de intentar descargar los resultados.

    Parámetros clave: Resource (tipo de recurso, configurado como Web Scraper, requerido), Operation (operación "Monitor Progress Snapshot", requerido), Snapshot ID (ID del snapshot a monitorear, opcional).

    Casos de uso típicos: Implementar lógica de espera antes de descargar resultados, crear alertas cuando extracciones tardan más de lo esperado, construir dashboards de estado de tus operaciones de scraping.

    Úsala en combinación con nodos de espera o condicionales para crear workflows que reaccionen al estado de tus extracciones.

    Check the status of a browser automation
  7. 07
    Acción 07

    Get metadata for a selected snapshot

    Recupera los metadatos de un snapshot específico del Marketplace Dataset. Útil para obtener información sobre el snapshot sin descargar todo su contenido.

    Parámetros clave: Resource (selección de Marketplace Dataset, requerido), Operation (configurado como "Get Snapshot Metadata", requerido), Snapshot ID (identificador del snapshot, opcional).

    Casos de uso típicos: Verificar el tamaño y fecha de un snapshot antes de descargarlo, obtener estadísticas sobre los datos disponibles, validar que un snapshot contiene los datos esperados.

    Ideal para workflows que necesitan tomar decisiones basadas en las características del snapshot.

    Get metadata for a selected snapshot
  8. 08
    Acción 08

    Deliver a snapshot to s...

    Entrega automáticamente snapshots de tu Web Scraper a destinos externos como Amazon S3. Automatiza completamente el pipeline desde la extracción hasta el almacenamiento.

    Parámetros clave: Snapshot ID (ID del snapshot a entregar, requerido), Deliver Type (destino de entrega como Amazon S3, requerido), Filename Template (plantilla para nombrar el archivo, opcional), File Extension (formato del archivo, requerido), Bucket (nombre del bucket S3, opcional).

    Casos de uso típicos: Enviar datos scrapeados directamente a tu data lake, crear backups automáticos de extracciones importantes, integrar con pipelines de ETL existentes.

    Perfecta para automatizar la entrega de datos sin intervención manual.

    Deliver a snapshot to s...
  9. 09
    Acción 09

    List all your snapshot ids

    Lista todos los IDs de snapshots disponibles para un dataset específico del Marketplace. Te da visibilidad sobre qué datos tienes disponibles.

    Parámetros clave: Resource (Marketplace Dataset, requerido), Operation ("List Snapshots", requerido), Dataset (dataset del cual listar snapshots, requerido), View (vista específica a aplicar, opcional), Status (muestra el estado como Ready).

    Casos de uso típicos: Obtener inventario de snapshots disponibles para procesamiento, identificar el snapshot más reciente para descarga, crear reportes de datos disponibles.

    Útil como primer paso para workflows que procesan múltiples snapshots.

    List all your snapshot ids
  10. 10
    Acción 10

    Split snapshot data to parts

    Divide snapshots grandes en partes manejables para procesamiento. Esencial cuando trabajas con datasets masivos que no puedes procesar de una vez.

    Parámetros clave: Resource (Marketplace Dataset, requerido), Operation ("Get Snapshot Parts", requerido), Snapshot ID (ID del snapshot a dividir, requerido).

    Casos de uso típicos: Preparar datasets grandes para procesamiento paralelo, gestionar límites de memoria dividiendo datos en chunks, procesar partes de datos de forma incremental.

    Ideal para snapshots que exceden los límites de procesamiento de un solo nodo.

    Split snapshot data to parts
  11. 11
    Acción 11

    List available datasets

    Recupera la lista de todos los datasets disponibles en tu cuenta de BrightData Marketplace. Perfecto para crear workflows dinámicos que trabajan con múltiples fuentes de datos.

    Parámetros clave: Resource (Marketplace Dataset, requerido), Operation ("List Datasets", requerido).

    Casos de uso típicos: Crear selectores dinámicos de datasets en interfaces, auditar qué datos tienes disponibles en tu cuenta, iterar sobre múltiples datasets para procesamiento batch.

    Una acción de descubrimiento útil para workflows que gestionan múltiples datasets.

    List available datasets
  12. 12
    Acción 12

    Deliver a snapshot to s... (Marketplace)

    Similar a la acción anterior pero específica para datasets del Marketplace. Incluye parámetros adicionales para autenticación AWS.

    Parámetros clave: Snapshot ID (ID del snapshot, requerido), Deliver Type (destino como Amazon S3, requerido), Bucket (bucket S3, requerido), AWS Access Key (clave de acceso AWS, requerido), AWS Secret Key (clave secreta AWS, requerido), File Extension (formato del archivo, requerido).

    Casos de uso típicos: Exportar datos del Marketplace a tu infraestructura AWS, crear pipelines automatizados de datos comerciales, sincronizar datasets del Marketplace con tu data warehouse.

    Específica para cuando trabajas con datos del Marketplace de BrightData.

    Deliver a snapshot to s... (Marketplace)
  13. 13
    Acción 13

    Filter Dataset

    Filtra datasets del Marketplace según criterios específicos sin descargar todos los datos. Reduce costes y tiempo obteniendo solo lo que necesitas.

    Parámetros clave: Dataset (dataset a filtrar, requerido), Records Limit (máximo de registros, requerido), Filter Type (tipo de filtro, requerido), Field Name (campo sobre el que filtrar, requerido), Operator (operador de comparación, requerido), Field Value (valor a comparar, requerido).

    Casos de uso típicos: Extraer solo empresas de un sector específico, filtrar contactos por ubicación geográfica, obtener registros que cumplan criterios de negocio específicos.

    Esencial para trabajar eficientemente con datasets grandes del Marketplace.

    Filter Dataset
  14. 14
    Acción 14

    Retrieve metadata for a ...

    Obtiene los metadatos de un dataset completo del Marketplace, incluyendo información sobre su estructura, tamaño y campos disponibles.

    Parámetros clave: Resource (Marketplace Dataset, requerido), Operation ("Get Dataset Metadata", requerido), Dataset (dataset del cual obtener metadatos, requerido).

    Casos de uso típicos: Entender la estructura de un dataset antes de procesarlo, validar que un dataset contiene los campos necesarios, documentar automáticamente las fuentes de datos.

    Útil para workflows que necesitan adaptarse dinámicamente a diferentes estructuras de datos.

    Retrieve metadata for a ...
  15. 15
    Acción 15

    Retrieve data by snapshot

    Descarga el contenido completo de un snapshot del Marketplace con opciones de formato y compresión.

    Parámetros clave: Snapshot ID (ID del snapshot a recuperar, requerido), Compress (toggle para comprimir, opcional), Batch Size (registros por lote, requerido), Part (parte específica a recuperar, requerido), Format (formato de salida como JSON, requerido).

    Casos de uso típicos: Descargar datos del Marketplace para análisis, importar datasets comerciales a tus sistemas, crear copias locales de datos del Marketplace.

    La acción principal para acceder al contenido de los datasets del Marketplace.

    Retrieve data by snapshot
Has visto la integración

Construye tu primer workflow con nuestro equipo

Deja tu email y te enviamos el catálogo de automatizaciones listo para enviar hoy.

  • Escenarios n8n & Make gratis para importar
  • Docs de configuración paso a paso
  • Cohorte en vivo + soporte de la comunidad

Preguntas frecuentes

  • ¿La integración BrightData n8n es gratuita?
    La integración en sí es gratuita si usas n8n self-hosted o está incluida en tu plan de n8n Cloud. Sin embargo, el uso de BrightData tiene costes asociados basados en el consumo: las peticiones al Web Unlocker, el uso de proxies y el acceso a datasets del Marketplace se facturan según el volumen. Te recomiendo empezar con los créditos de prueba que ofrece BrightData para testear tus workflows antes de escalar a producción.
  • ¿Qué tipos de datos puedo extraer con BrightData en n8n?
    Con las 16 acciones disponibles puedes extraer prácticamente cualquier dato web público. El Web Unlocker te permite acceder a sitios protegidos contra scraping, los Web Scrapers extraen datos estructurados de cualquier página, y el Marketplace te da acceso a datasets comerciales pre-compilados de empresas, contactos, productos y más. Los datos se pueden obtener en formato JSON o CSV, comprimirlos para transferencias eficientes, y enviarlos directamente a S3 o procesarlos en n8n.
  • ¿Cuánto tiempo lleva configurar un workflow de scraping con BrightData en n8n?
    Una vez configuradas las credenciales (5 minutos), puedes tener un workflow básico funcionando en menos de 15 minutos. Por ejemplo, un workflow que lance una extracción, espere a que termine y envíe los resultados a Slack requiere solo 4-5 nodos. Para workflows más complejos con filtrado, múltiples datasets y entregas a S3, calcula entre 30 minutos y 1 hora. La curva de aprendizaje es suave si ya conoces n8n.
Hack'celeration Lab

Recibe nuestros tips de integración cada semana.

Sin spam. Cancela cuando quieras.