Москва
Метро: Библиотека им.ЛенинаКоротко о нас:
Компания СККИА — резидент «Сколково» и технопарка «Университетский». Мы занимаемся цифровизацией энергетики (Smart Grid). Наш продукт — ПАК «Регистратор», система IIoT, которая мониторит трансформаторные подстанции, предотвращает аварии и ищет потери электричества в масштабах города.
Ищем Data Platform Engineer, который построить и будет поддерживать конвейер доставки данных от «железа» до аналитики.
Вакансия идеально подходит как вторая работа (Pet-project, за который платят): минимум созвонов, отсутствие легаси и полная свобода в выборе времени работы.
⚙️ Стек и задачи
Вам предстоит работать с данными телеметрии (временные ряды, высокочастотные измерения).
Основные задачи:
Ingestion: Проектирование и поддержка MQTT‑шлюза для сбора данных с Edge-устройств («Регистраторов»).
Processing: Обработка потоков данных через RabbitMQ (и Celery). Организация очередей для ML-моделей.
Storage: Организация хранения масштабируемых данных измерений IIoT в ClickHouse.
Pipeline: Обеспечение доставки данных для ML-инженеров (мы используем PyTorch для предиктивной аналитики) и сервисов фронтенда.
🧠 Кого мы ищем
Нам нужен инженер уровня Middle, который понимает архитектуру событийно-ориентированных систем.
🔌 Почему это лучший вариант для второй работы
AI-boost: Мы официально покупаем и предоставляем сотрудникам доступ к Perplexity и Coding AI (Codex/Z.AI). Мы хотим, чтобы вы тратили меньше времени на бойлерплейт и больше на архитектуру.
Реальный график: У нас нет трекеров активности. Задачи ставятся на спринт, когда вы их делаете — ночью или в выходные — решать вам.
Здравый смысл: Минимум бюрократии. Прямое общение с техлидом и ML-инженером.
Инженерный вызов: Это не очередной CRUD. Это работа с реальным физическим миром, где ваши данные помогают предотвращать веерные отключения света.
💰 Условия
Если вы хотите работать с Highload/IoT стеком в спокойном режиме и без отрыва от основной деятельности — присылайте резюме!
Пару слов от себя: Напишите, пожалуйста, приходилось ли вам работать с «капризными» источниками данных (IoT, нестабильная сеть, дубли). Если да — как вы обеспечивали целостность данных? Если нет — какой ваш самый интересный кейс по настройке пайплайнов?
Технический мини-вопрос: Мы пишем данные в ClickHouse. Данные поступают с датчиков постоянно и небольшими пакетами. Почему плохая идея — делать INSERT в ClickHouse на каждое сообщение от устройства, и как бы вы архитектурно решили эту задачу, имея в стеке RabbitMQ?