Москва, Волгоградский проспект, 41с2
Метро: НовохохловскаяРеализовать двусторонний обмен данными между: CRM (BPMSoft) — контакты, сделки, заказы, клиенты; ERP (1С) — товары, заказы, остатки, номенклатура, контрагенты; 1С:Документооборот, 1С:ЗУП, 1С:УХ — кадры, документы, управление холдингом; Видеоаналитика — события, метаданные, детекции, тревоги; DWH (MS SQL Server) и BI (Power BI) — витрины, агрегаты, отчеты; CDP-системы — унифицированный клиентский профиль, сегменты, маркетинговые события
Основной стэк — Apache Kafka
Проектирование топиков, партиций, ключей для обеспечения порядка и масштабирования
Реализация продюсеров и консьюмеров на Java / Python / Go / C# (на выбор, но с учетом стека)
Настройка Kafka Connect (источники и приемники: MS SQL, HTTP API BPMSoft, файлы, REST)
Использование Schema Registry (Avro / JSON Schema) для контроля версий событий
Обработка потоков через Kafka Streams или ksqlDB (фильтрация, маппинг, окна)
Построение интеграционной шины с нуля
Создание единых контрактов событий (customer, order, stock, document, detection)
Настройка dead-letter queue, retry, idempotency, exactly-once
Интеграция мониторинга и алертинга (Grafana + Prometheus + Kafka Exporter)
Опыт разработки интеграций 2+ года
Реальное использование Apache Kafka в боевых проектах
Понимание паттернов: Event Sourcing, Transactional Outbox, Idempotent Consumer
Умение проектировать схемы данных (Avro/Protobuf/JSON Schema)
Навык работы с REST API, Webhooks, базами данных (SQL)
Готовность строить с нуля, а не поддерживать готовую шину
Будет сильным плюсом: опыт интеграции с 1С (HTTP-сервисы, ODBC, выгрузки); опыт работы с BPMSoft (API, события, бизнес-процессы); интеграция систем видеоаналитики (любой вендор); знание Debezium (CDC из MS SQL / PostgreSQL)
Опыт с Docker, Kubernetes, Helm; умение работать с Power BI на уровне XMLA / Push datasets
Федеральный центр компетенций в сфере производительности труда
Москва
до 500000 RUR