Команда проекта участвует в реализации сервиса обеспечения бизнес-процессов агрегированными и структурированными внешними данными. Коллеги разрабатывают дата-продукт внешнего профиля клиента. Используются как традиционные решения под Hadoop+Scala+Spark, так и осваивается разработка API на OpenShift+Postgre.
Сейчас мы находимся в поиске Дата инженера для работы в опытной команде.
Твои задачи:
- Разрабатывать ETL ПО: витрины данных (Scala + Spark), а также интеграционные потоки с использованием kafka, хранилища данных на Postge и API методов
- Искать возможности оптимизации, повышения скорости расчета, эффективности использования вычислительных ресурсов
- Повышать стабильность работы приложений, анализировать типовые ошибки и возможные риски
- Развивать систему контроля качества, автотестов
- Оформлять релизную документацию – паспорт релиза, чек-листы
Мы ждем от тебя:
- Опыт коммерческой разработки в финансовых / телеком проектах в роли дата инженера от 1 года
- Опыт работы с Scala, Spark ver.2, 3, Hadoop
- Опыт работы с базами данных, понимание основных концепций классических СУБД (PostgreSQL)
- Опыт работы с GIT, Jenkins, SonarQube, Docker
- Опыт работы с Kafka/RabbitMQ
Что мы обеспечим:
- Работа в гибкой методологии разработки
- Возможность расширить свою экспертизу, используя современный стек технологий
- Сессия профессионального развития персонала дважды в год, результатом которой является план индивидуального развития каждого сотрудника
- Поездки на конференции и тренинги за счет компании, внутренние семинары, внутренние митапы, мы очень любим учиться новому
- Сообщества по интересам: Лига Спорта, Лига Интеллекта, а также возможность организовать свое сообщество и получить поддержку от компании
- Корпоративная культура со своими ценностями и традициями, в которой каждый человек чувствует себя частью команды
- Новая техника для комфортной работы