INTEGRAÇÃO, PIPELINES E PYTHON
Sou Coordenador especializado em integração de sistemas e engenharia de dados, focado em transformar cenários complexos em soluções automatizadas e confiáveis.
Atuo com design e implementação de pipelines ETL, normalização e transformação de dados, APIs REST e automação de processos usando Python e ferramentas de orquestração.
Tenho experiência com bancos relacionais e NoSQL, mapeamento de dados, garantia de qualidade e rastreabilidade de informações para suportar decisões de negócio.
MINHAS ESPECIALIDADES
PYTHON
Foco em scripts, automação, ETL e desenvolvimento de APIs com frameworks como FastAPI/Flask.
PANDAS / NUMPY
Processamento e transformação de dados para análises e pipelines de ingestão.
SQL / POSTGRES
Modelagem, consultas avançadas e otimização para bancos relacionais.
FASTAPI
Desenvolvimento de APIs assíncronas com FastAPI: endpoints parametrizados, integração com Postgres, performance e métricas.
APIs REST & Integrações
Design e consumo de APIs RESTful, autenticação, versionamento e integração entre serviços com foco em confiabilidade.
DOCKER
Conteinerização para ambientes reproduzíveis e implantação de serviços.
ORQUESTAÇÃO
Airflow / Prefect para agendamento, monitoração e retry de pipelines.
GIT & CI/CD
Versionamento, pipelines de CI/CD e deploys automatizados para serviços backend.
MEUS PROJETOS
Backend & Integração
Coordenação de Implantação e Integração
Coordeno o setor de implantação e integração, liderando múltiplos projetos, definindo requisitos, mapeamento de dados e automações. Gestão de rollouts, testes de integração e garantia de qualidade.
Treinamento Interno - Capacitação de Equipe
Projeto de treinamento e mentoria técnica que capacita a equipe de implantação e integração. Curso interno com melhores práticas de engenharia de dados, princípios de arquitetura, testes, observability e revisão de código para acelerar o crescimento profissional do time.
API FastAPI - Projeto de Pedidos e Estoques
Estruturei e desenvolvi uma API com FastAPI que consome e persiste em Postgres. Endpoints parametrizados consultam produtos, estoques e preços com métricas de performance; aceita cadastro de clientes via POST e registro assíncrono de pedidos, garantindo organização e alto throughput.
Projeto Legado → Novas Integrações
Projeto de integração entre sistemas legados e plataformas modernas garantindo a tramitação segura e performática de milhares de registros. Inclui normalização de dados, filas/mensageria, controle de transações, idempotência, retries e monitoramento em produção.
Projeto de Processamento em Larga Escala
Processamento de preços, estoques, imagens, categorias, produtos e pedidos, milhares de registros por minuto. Desenvolvimento de pipelines escaláveis, validação e normalização de dados, orquestração e observability.
Pipelines ETL & Automação
Implementação de pipelines ETL para ingestão, transformação e entrega de dados para consumo analítico e operacional, com foco em resiliência e monitoração.