Задачи специалиста:
Миграция Hadoop на новый BigData стек
Сбор информации об интегрируемых системах, получение сетевых доступов и учетных записей в тестовых и продуктивных контурах
Анализ документации и фактической реализации витрин Hadoop, определение конечного списка потоков для миграции
Постановка задач разработчику на перенос ETL-процессов
Формирование технической документации по процессам миграции
Исходная платформа: Hadoop (Oozie, Hive, YARN, Spark), данные в Parquet/ORC, Scala/Python
Целевая платформа: MinIO + Apache Iceberg, Airflow, Kubernetes, PySpark
Инструменты: Git, Confluence, Jira, CI/CD
Требования к кандидату:
Опыт работы системным аналитиком или разработчиком от 3 лет
Хорошее владение SQL (сложные запросы, pivot-анализ)
Практический опыт работы с Python
Умение работать с командной строкой Linux
Опыт работы с форматами данных: XML, JSON
Понимание принципов построения ETL-процессов и витрин данных
Практическое применение UML-диаграмм
Понимание работы РСУБД
Базовые знания: Apache Spark, Apache Hive, Airflow
Будет плюсом:
Опыт интеграций систем и миграции витрин данных