LIAN — системный интегратор с фокусом в аналитике и управлении данными.
Мы работаем в трех направлениях:
1. Автоматизация управленческой отчетности (BI) в малом и среднем бизнесе. Строим хранилища данных, настраиваем сбор и интеграцию, разрабатываем отчеты и дэшборды. Наш стек в BI включает все современные инструменты, в том числе open-source ПО.
2. Заказная разработка аналитических систем. Когда у нашего клиента есть специфичный запрос, мы разрабатываем аналитические системы с нуля. Часто применяем подходы BigData, Data Science, актуальные подходы к программному анализу данных и прогнозированию.
3. Запуск и ресурсное обеспечение команд разработки в комплексных проектах цифровой трансформации. Мы усиливаем команды наших партнеров и клиентов собственными сотрудниками и обеспечиваем максимально быстрый старт новых проектов. Среди наших заказчиков - крупные системные интеграторы, банки, нефтегазовые, химические производства, логистические компании, стартапы.
Сейчас мы приглашаем опытного Data аналитика
Чем предстоит заниматься: - Организация и автоматизация процессов оркестрации с Airflow: запуск, мониторинг, алерты, управление зависимостями задач и DAG-ов;
- Проектирование и оптимизация потоков переноса данных из MSSQL в новое хранилище;
- Анализ источников данных в легаси MSSQL: сбор информации о содержимом, выявление ключевых бизнес-сущностей и зависимостей, регламентных операций;
- Обеспечение качества, тестирование данных и контроль их целостности при миграции и трансформации;
- Разработка и поддержка моделей данных и трансформаций в dbt для формирования конечных витрин;
- Внедрение и сопровождение процессов инкрементальной загрузки и оптимизация производительности;
- Работа с потоками данных и интеграция с Kafka для обмена событиями в реальном времени.
Наши пожелания к кандидатам: - Опыт работы аналитиком данных от 5 лет;
- Опыт работы с Apache Airflow в корпоративной среде: настройка и управление дата-пайплайнами, разработка DAG на Python для автоматизации ETL процессов, оптимизация и мониторинг выполнения DAG;
- Опыт работы со стеком: ЯП Python, хранилище S3, стриминг Kafka, СУБД Postgres, MSSQL, MongoDB, Clickhouse;
- Опыт разработки ETL/ELT процессов на основе бизнес-требований с пониманием трансформации и интеграции данных;
- Знание принципов работы с каталогами данных;
- Опыт проектирования и создания модели данных, адаптирования для аналитических задач и эффективной работы хранилища;
- Понимание потоковой обработки данных (Kafka, Spark Streaming): опыт работы с Kafka - настройка, оптимизация и масштабирование обязательны, развертывание желательно;
- Уверенное использование SQL для сложных запросов и оптимизации производительности (оконные функции, CTE, маппинги между БД);
- Глубокие знания и опыт работы с реляционными БД: понимание структуры данных, способов наполнения и управления данными;
- Навыки работы с системами контроля версий (Git).
Желательно:
- Опыт работы в финтех;
- Опыт настройки CI/CD для дата-процессов;
- Опыт работы с облачными платформами (Yandex.Cloud);
- Опыт или понимание фондового рынка и инвестиционных инструментов.
Что мы предлагаем: - Форма трудоустройства на ваш выбор: договору оказания услуг с ИП или самозанятым
- Участие в интересных масштабных проектах с Заказчиками федерального и международного уровня
- Работа с передовыми технологиями
- Возможности профессионального и карьерного роста
- Полностью удаленная работа
- Регулярная и достойная оплата труда
В нашей команде работают профессионалы с разносторонним опытом. Здесь ты найдешь профессиональные задачи и новые вызовы, сможешь реализовать свой потенциал.
Хочешь стать частью нашей команды? Мы ждем твоего отклика и свяжемся с тобой !