Что предстоит делать:
Разрабатывать и поддерживать ETL/ELT-процессы в Airflow
Интегрировать новые источники данных (CRM, API, логи)
Оптимизировать производительность запросов и пайплайнов
Обеспечивать качество данных и настраивать мониторинг
Участвовать в проектировании архитектуры данных
Что важно для нас:
Опыт работы с SQL (JOINs, CTE, оконные функции)
Практические навыки Python (pandas, requests)
Опыт разработки DAG-ов в Airflow
Знание принципов ETL/ELT и работы с API
Базовые навыки работы с Docker
Опыт настройки мониторинга (Grafana и etc)
Будет плюсом:
Опыт с Kubernetes, GitLab CI/CD
Знание облачных платформ (AWS/GCP/Yandex Cloud)
Опыт работы с инструментами Data Quality (например, Great Expectations)
Понимание BI-инструментов (DataLens, Metabase)
Этапы:
Москва
до 250000 RUR
Москва
от 270000 RUR