Сейчас мы находимся в поиске системного инженера на 0,5 ставки на проект Data Cloud.
Продукт: аналитическое хранилище данных, в основе которого, лежат технологии Hadoop, Cassandra, Vertica, Spark Streaming.
Чем предстоит заниматься
- Поддержкой корпоративного хранилища данных на основе Hadoop (HDFS, Hive, Oozie), AirFlow и Pentaho DI в режиме дежурной смены
- Мониторингом соблюдения регламентов загрузки данных (Oozie, AirFlow, Pentaho DI), контроль выполнения SLA
- Оперативным устранением сбоев и задержек при загрузке данных: диагностика, локализация причины, перезапуск процессов, эскалация при необходимости
- Разбором инцидентов и обращений пользователей, решение проблем в рамках компетенций дежурной смены
- Администрированием доступов: создание учётных записей, управление привилегиями в обслуживаемых системах
- Документированием нестандартных кейсов в базе знаний команды
- Принимать участие в улучшении процессов эксплуатации: автоматизация рутинных операций, доработка инструкций и мониторинга
Наш кандидат
- Имеет знания SQL: написание и оптимизация запросов, работа с join'ами, агрегациями, оконными функциями
- Имеет опыт работы с реляционными СУБД (PostgreSQL, Oracle, MSSQL, MySQL, ArenaData DB или аналогичными): понимание сущностей БД (таблицы, индексы, представления, процедуры) и уверенные навыки работы с ними
- Имеет базовые навыки работы в Linux (командная строка, чтение логов, базовая диагностика)
- Внимательный, ответственный, исполнительный, умеет действовать по инструкции
Будет плюсом
- Опыт автоматизации рутинных задач скриптами на Bash или Python
- Владение одним из языков программирования
- Опыт сопровождения промышленных систем, систем интеграции или ETL-процессов
- Знакомство с оркестраторами рабочих процессов (AirFlow, Oozie) и инструментами мониторинга
- Опыт работы с экосистемой Hadoop / распределёнными хранилищами данных
Мы рады предложить