CURSO
Novo

Airflow na prática: ETL profissional com containers no Docker Compose

Orquestre pipelines profissionais com Airflow usando Docker, DevContainer e DAGs reais conectadas à API do Aeroporto de Schiphol.

Avançado 9h 4h 24 aulas 5 Materiais Extras Certificado 200xp
  • Cursos
  • Airflow na prática: ETL profissional com containers no Docker Compose

Sobre o curso

Airflow na prática: da arquitetura ao ETL completo do Aeroporto de Schiphol

O Apache Airflow é uma das ferramentas mais importantes para quem trabalha com engenharia e automação de dados. Ele coordena pipelines usados por empresas do mundo inteiro — e este curso vai mostrar a você, de forma clara e prática, como construir um pipeline real do zero usando a API oficial do Aeroporto de Schiphol.

Começamos entendendo os fundamentos do Airflow: como funciona a arquitetura interna (Scheduler, Webserver, Workers e Banco de Metadados), como as DAGs são interpretadas e por que o Airflow se tornou o padrão do mercado em orquestração. Em seguida, você configura todo o ambiente profissional usando Docker Compose e um DevContainer, garantindo que seu Airflow rode de forma previsível, isolada e igual ao que empresas utilizam em produção. Com o ambiente preparado, você cria suas primeiras DAGs simples — uma com BashOperator, outra com PythonOperator — até chegar em fluxos condicionais usando o BranchPythonOperator.

Esse aquecimento abre caminho para o projeto principal do curso. A partir daí, você inicia a construção de um projeto completo: um pipeline de ETL que coleta, transforma e carrega dados da API do Aeroporto de Schiphol. Esse pipeline — desenvolvido passo a passo ao longo de todo o curso — integra quatro grupos de dados: tipos de aeronaves, companhias aéreas, destinos e voos. Dentro desse projeto, você aprende a:

• Consumir endpoints reais com o HttpOperator, inclusive com paginação • Revisar e analisar a documentação da API

• Criar seu próprio banco de dados dedicado usando PotstgreSQL (Schiphol_DB) • Extrair dados brutos de cada endpoint (AircraftTypes, Airlines, Destinations e Flights)

• Realizar transformações estruturadas e incrementais

• Carregar tudo no banco de forma organizada e consistente

• Controlar dependências e ordem de execução das DAGs Ao final, você ainda ajusta elementos essenciais para pipelines profissionais: schedules, retries, delays.

O resultado é direto: você sai do curso entendendo a teoria do Airflow e, ao mesmo tempo, dominando a construção de um ETL completo, robusto e automatizado, rodando em ambiente Docker e baseado em uma API real — exatamente como acontece no dia a dia de engenharia de dados.

Este curso é recomendado para

  • Alunos da trilha de Engenharia de Dados da Asimov Academy
  • Pessoas que já programam em Python e querem dar o próximo passo
  • Quem quer executar ETL de forma profissional
  • Profissionais que querem melhorar processos de automação

Conteúdo do Curso

1 Airflow na Prática
Conteúdo do módulo 1.1 - Introdução 25xp 1.2 - Airflow e Arquitetura 25xp 1.3 - Máquina Virtual 25xp 1.4 - Docker Desktop 25xp 1.5 - Executando Airflow pela Primeira Vez 25xp
2 DAGS e Operadores
Conteúdo do módulo 2.1 - Primeira DAG com BashOperator 25xp 2.2 - DAG com PythonOperator 25xp 2.3 - BranchPythonOperator: fluxo com IF do Airflow 25xp 2.4 - HttpOperator: Consumindo API 25xp
3 DAGS do Aeroporto de Schiphol
Conteúdo do módulo 3.1 - Aeroporto de Schiphol: Revendo Endpoints 25xp 3.2 - AircraftTypes: Extract e Paginação 25xp 3.3 - AircraftTypes: Transform 25xp 3.4 - Instalação do DBeaver 25xp 3.5 - Criando Banco de Dados: Schiphol_DB 25xp 3.6 - AircraftTypes: Criando Tabela 25xp 3.7 - AircraftTypes: Load 25xp 3.8 - Airlines: Extract 25xp 3.9 - Airlines: Transform e Load 25xp 3.10 - Destinations: Extract 25xp 3.11 - Destinations: Transform e Load 25xp 3.12 - Detalhes do Setup com Docker Compose 25xp 3.13 - Flights: ETL Completo 25xp 3.14 - DAG Avançado: Ajustando Schedule 25xp 3.15 - DAG Avançado: Retry e Delay 25xp

O que você vai aprender

  • Configurar o Airflow com Docker Compose e DevContainer.
  • Criar e executar DAGs com BashOperator e PythonOperator.
  • Consumir dados reais usando o HttpOperator e a API do Aeroporto de Schiphol.
  • Criar e estruturar um banco de dados para armazenar dados da API.
  • Realizar ETL completo: extrair, transformar e carregar dados.
  • Ajustar schedules, retries e delays para pipelines robustos.
  • Aplicar boas práticas na organização e manutenção de DAGs.

Com quem você vai aprender

Este curso está aqui

Comunidade