Чем предстоит заниматься:
- Участвовать в построении Lake House с единой точкой входа для ad-hoc запросов
- Улучшать CDC-процессы
- Ускорять продуктивизацию пользовательских витрин
- Обеспечивать высокое качество данных
- Делать Data-продукты, которые влияют на бизнес
- Улучшать Spark Streaming процессы
- Оптимизировать self-service дата платформу
Стек: PySpark, Airflow, Clickhouse, Trino, PostgreSQL, Kafka Connect, Debezium, Kubernetes
Что для нас важно:
- Опыт работы на роли Dara Engineer от 5 лет
- Уверенные навыки работы с нашим стеком: Spark / DeltaLake / Presto / Trino; Clickhouse; Parquet / Iceberg; OpenMetaData / Dbt
- Опыт работы с Airflow или другими планировщиками и оркестраторами;
- Опыт разработки на Python
- Опыт работы с Kafka / KafkaConnect / Apache Pulsar или другими распределенными платформами обработки потоков событий
Что мы предлагаем:
- Конкурентная зарпалата — платим на уровне топовых компаний
- Карьерное развитие — даём действительно неограниченные возможности для роста
- Формат работы — полная удалёнка из любой точки мира или помощь с релокацией в Ташкент
- Команда — 84% специалистов уровня Senior. Растим комьюнити профессионалов
- База — бесконечное желание делать круто, а приятный бонус — ДМС в привязке к вашей локации, обучение и другие плюшки