ЧЕМ ПРЕДСТОИТ ЗАНИМАТЬСЯ:
- Загружать и обрабатывать в DWH данных внутренних и внешних систем (стек Kafka, PySpark, Hadoop, Clickhouse, AirFlow);
- принимать участие в построении DWH: проектирование, определение сущностей, формирование витрин данных;
- формировать DQ проверки данных, разрабатывать процессы мониторинга и информирования о качестве данных.
ЧЕГО МЫ ЖДЕМ:
- Опыт обработки больших данных, знание принципов работы БД и методологий моделирования;
- продвинутый уровень владения Spark, Python, Apache AirFlow, SQL;
- понимание концепций непрерывной интеграции, доставки (CI/CD) и работа с контейнерами (Docker);
- высшее образование, широкий технический кругозор;
- проактивность и ответственность за конечный результат;
- английский - на уровне чтения документации.