Задачи, которые ты будешь выполнять:
- Автоматизация инфраструктурных задач Data Science
- Разработка и оптимизация архитектуры для обработки больших данных (Hadoop, Spark, Kafka)
- Работа с CI/CD процессами
- Разработка и поддержка ETL-процессов (Airflow, Spark)
- Настройка и поддержка аналитических инструментов и сред (JupyterHub, Hadoop ecosystem)
Нам по пути, если у тебя есть:
- Знание SQL, Python или Java/Scala
- Опыт работы с Airflow и CI/CD пайплайнами
- Общее понимание Java-зависимостей в ETL
- Приветствуется практический опыт работы с Hadoop (HDFS, Ranger/Sentry, Zookeeper)
- Приветствуется опыт работы с распределёнными системами хранения
Мы предлагаем тебе:
- Кредиты для сотрудников по выгодной ставке
- Депозиты "ДЛЯ СВОИХ" с повышенной ставкой
- Ежемесячные лимиты на спорт, здоровье, саморазвитие или на заботу о семье
- Отсутствие дресс-кода
- Стабильную зарплату дважды в месяц и ежеквартальные KPI (бонусы)