Чем предстоит заниматься
Что для этого нужно
Высшее техническое образование
Опыт работы с большими данными от 2 лет
Хорошее знание Python (pandas, PySpark) и SQL
Опыт работы с Hadoop/Spark и системами оркестрации (Airflow и др.)
Понимание принципов построения витрин данных и дата-моделирования
Опыт оптимизации запросов и пайплайнов обработки данных
Навыки работы с git и Linux bash
Ответственность за результат и умение работать в команде