Коллеги, добрый день! Находимся в поиске аналитика баз данных в Центр моделирования и больших данных. Работаем по Scrum. На текущий момент перед командой стоят следующие задачи:
Ключевые задачи подразделения:
- Разработка и поддержка ETL процессов по загрузке данных в Data Lake и формированию витрин (стек: Airflow, Ni-Fi, Hadoop, Postgres, MS SQL);
- Интеграция с внешними и внутренними источниками , автоматизация рутинных запросов (стек: Python, Airflow);
- Подготовка датасетов для ML моделей;
Ближайшие крупные задачи:
- Feature Store;
- Оптимизация архитектуры;
- Развитие инфраструктуры кластера Big Data;
Чем предстоит заниматься:
- Разработка ТЗ на дата-инженеров по созданию витрин данных;
- Взаимодействие с бизнес-заказчиком при формировании ТЗ;
- Тестирование разработанных витрин;
- Постановка задач на устранение выявленных ошибок;
Основные технологии, с которыми необходимо будет работать:
Python, NiFi; Hadoop; Airflow; Hive; Microsoft SQL Server; PostgreSQL; RabbitMQ;
Что мы ждём от кандидата:
- Знание SQL на уровне написания сложных аналитических запросов;
- Опыт анализа сложных хранимых процедур и функций;
- Навыки работы с требованиями: сбор, анализ, структурирование, описание, постановка задачи разработчику;
Будет плюсом:
- Опыт работы с хранилищами или витринами данных от одного года;
- Опыт работы с Hive;
- Умение читать Python код;
Условия: - Оформление по ТК РФ;
- ДМС после испытательного срока;
- Удалённый формат работы, технику предоставляем;
- График работы: 5/2 с 9.30-18.30, в пятницу - до 17:30;
- Уровень ЗП обсуждается на собеседовании, исходя из навыков и опыта кандидата ( оклад + полугодовые премии);
- Льготное кредитование и скидки от партнёров банка;