Ростов-на-Дону
Привет! Мы — SHEVEREV, аккредитованная IT-компания, занимающаяся разработкой веб-сервисов и мобильных приложений различной сложности.
Мы создаем цифровые продукты, которые меняют мир. От платформ для онлайн-обучения до удобных сервисов для путешествий. Мы работаем с лидерами российского и зарубежного рынков, решая самые сложные задачи с помощью передовых технологий.
На данный момент мы ищем Data-аналитик (DWH) на аутстаффинг-направление.
Обязанности:
Глубокий анализ источников в MSSQL. Вы будете разбираться в "археологии" данных: выявлять бизнес-сущности, скрытые зависимости и регламентные операции, чтобы перенести это в новую систему без потерь.
Проектирование устойчивых и масштабируемых моделей данных с использованием методологии Data Vault 2.0. Обеспечение прозрачности, полной истории изменений (SCD) и возможности восстановления данных на любой момент времени.
Создание и поддержка трансформационных слоев в dbt (сырой слой, слой данных, витрины). Применение знаний нормализации/денормализации, схем «звезда» и «снежинка» для баланса между аналитикой и производительностью.
Проектирование сложных DAG в Apache Airflow. Управление зависимостями между загрузкой из Kafka, инкрементальной загрузкой из Postgres/Clickhouse и запуском dbt-моделей. Настройка мониторинга и алертов.
Разработка на Python пайплайнов для выгрузки данных из MSSQL и MongoDB в объектное хранилище (S3) и аналитическую БД (Clickhouse).
Ведение технической документации, версионирование моделей (Git), внедрение практик DataOps для автоматического тестирования данных и безопасного деплоя.
Опыт работы с данными: от 6 лет (Senior) / от 4 лет (Middle+).
Глубокое понимание реляционных БД (Postgres, MSSQL). Написание сложных запросов с оконными функциями, CTE — это ваша повседневность.
Знание нормальных форм, Data Vault, схем звезда/снежинка. Умение строить модели под аналитические задачи.
dbt: Коммерческий опыт разработки и шаблонизации в dbt (обязательно).
Airflow: Опыт настройки сложных DAG, мониторинга, управления зависимостями.
Python: Уверенный уровень для написания ETL-кода.
Стек: S3, Kafka, MSSQL, Postgres, MongoDB, Clickhouse.
DataOps: Понимание CI/CD, Git, тестирования данных.
Будет плюсом:
Опыт в финтехе / инвестиционных платформах.
Знание Docker.