Mediascope – исследовательская компания, которая работает на стыке медиа и IТ. Мы анализируем аудиторию телевидения, интернета, радио и прессы, поставляем данные и создаем уникальные аналитические продукты, которыми пользуются российские медиа, рекламные агентства и компании-рекламодатели.
Наша задача – создавать и поддерживать индустриальные стандарты работы с данными на рынке медиа и рекламы, а также развивать медиаисследования в России.
Стек технологий, с которым работаем: SQL (PostgreSQL и SparkSQL), PySpark (Zeppelin/Jupyter notebooks), Nifi, Hadoop, S3, Kafka, и др.
Команда, в которой предстоит работать
Наш отдел управления данными — это микс из data-инженеров, аналитиков и ML-энтузиастов, которые превращают терабайты медиаданных в понятные истории и прогнозы.
Мы:
- Строим дата-платформы, которые обрабатывают данные 24/7 (да, даже ночью, пока вы спите!)
- Автоматизируем рутину: например, учим нейросети распознавать рекламные интеграции в ТВ-эфире
- Работаем с технологиями Airflow, Python, Spark и, конечно, экспериментируем с GPT/LLM
- У нас нет скучных дней: сегодня запускаем модель для анализа соцсетей, завтра — оптимизируем запросы на 50%
Чем предстоит заниматься:
- Разрабатывать и поддерживать data-пайплайны для обработки медиаданных в рамках медиа-мониторинга (мониторинг рекламы, новостей, ТВ, интернета и пр.) в BigData platform
- Сопровождать релизы
- Участвовать в создании архитектуры данных и витрин для реализации медиа-мониторинга
- Оптимизировать производительность имеющихся процессов, исследовать и внедрять новые технологии/инструменты для повышения эффективности разработки
- Участвовать в процессе поддержки и мониторинга работы разработанных объектов в BigData platform
- Обмениваться опытом и знаниями с командой (проводить ДЕМО, писать документацию)
Что для этого потребуется:
- Опыт работы в качестве дата-инженера: (ETL, DWH, облачные хранилища) от 3-5 лет
- Глубокое понимание и опыт работы с полным циклом данных: сбор (API, парсинг, стриминг), обработка (DAGs, Airflow), хранение (Data Warehouse/Lakehouse, витрины), разработка отчетов
- Уверенный SQL
- Практика Python на продвинутом уровне (Zeppelin/Jupyter notebooks; библиотеки: pandas, numpy, pyspark, Altair; извлечение\загрузка данных в\из разных источников; написание логики для прототипирования транзакций (преобразований) данных и др.)
- Знание Apache Airflow, Spark
- Системное мышление
Будет плюсом:
- Понимание принципов работы ML-моделей и их эксплуатации
- Практика работы с LLM (Fine-tuning, RAG, интеграция в продукты, n8n)
- Бэкграунд в медиа, рекламе или смежных областях
Мы предоставим комфортные условия для работы:
- Возможность выбирать формат работы – офис, удаленка, гибрид
- Официальное оформление, гарантируем соблюдения трудового кодекса РФ
- Расширенная медицинская страховка (включая стоматологию)
- Используем современный стек технологий и открыты к внедрению новых инструментов
- Работа в аккредитованной IT-компании
- Мы умеем быстро подстраиваться под изменения, и у нас внутри гибкие процессы
- Наши заказчики – крупные компании на российском медиарынке, у нас разные проекты от значимых до очень значимых
Наши преимущества:
- Выделенный наставник с первых дней работы: мы понимаем, что новая компания - всегда стресс, поэтому у нас новичкам помогают старшие коллеги
- Внутренние комьюнити: 2 трека внутренних митапов для аналитиков и инженеров; возможность выступать как спикер или приходить на выступления других коллег в качестве слушателя
- Карьерный рост: при хороших результатах работы вы быстро двигаетесь по карьерному треку
- Уникальная корпоративная культура, ориентированная на людей. Для нас важен каждый коллега, мы всегда открыты к диалогу и любым вопросам сотрудников