Казань
Понимание работы СУБД и принципов построения хранилищ данных. Знание Airflow и Docker. Опыт работы с Hadoop (Spark, HDFS, YARN etc.).
Работать с витринами данных. Интегрировать источники данных в DataLake. Обрабатывать потоковые данные (streaming). Контролировать качество загружаемых данных. Проводить код ревью.