Москва, Холодильный переулок, 3
Метро: ТульскаяПривет, будущий коллега!
Мы ищем талантливого ML‑инженера для создания цифрового говорящего аватара на базе open‑source‑библиотек с развёртыванием внутри собственного IT‑контура (on‑premise). Если вы увлечены технологиями искусственного интеллекта и генерацией мультимедийного контента — эта позиция для вас!
Что предстоит делать:
Вы будете участвовать в разработке и интеграции системы генерации цифрового аватара, включая синтез речи (TTS), lip‑sync и видеорендеринг — полностью на open‑source стеке, без внешних API.
разрабатывать и поддерживать сервисы на Python (FastAPI) для работы с AI;
проектировать и оптимизировать REST API для LLM/avatar‑функциональности;
подбирать и интегрировать open‑source библиотеки для генерации аватара (SadTalker, MuseTalk, Wav2Lip, LivePortrait и аналоги);
создавать пайплайн: текст → TTS → lip‑sync → видео/поток;
развёртывать и сопровождать модели on‑premise (без выхода в облако);
оптимизировать инференс (снижать latency, повышать throughput, настраивать кэширование и батчинг);
оценивать и подбирать аппаратное обеспечение (GPU, RAM, хранилище);
развивать DevOps‑pipeline (CI/CD, управление версиями, безопасные релизы);
настраивать мониторинг (метрики, логи, трассировка);
взаимодействовать с продуктовой и ML‑командой по интеграции AI‑фич.
Мы ждём, что у вас есть:
опыт коммерческой разработки на Python — от 3 лет;
уверенное владение FastAPI (async/await, Pydantic, middleware, OpenAPI);
понимание архитектуры REST и опыт работы с API;
опыт оптимизации Python‑сервисов (профилирование, снижение latency);
знание жизненного цикла ML/LLM‑решений в продакшене;
опыт работы с Docker (контейнеризация, образы, health‑checks);
опыт работы с open‑source моделями генерации аватара (Wav2Lip, SadTalker и аналоги);
опыт интеграции TTS‑движков (Coqui TTS, Silero, XTTS и аналоги);
опыт работы с GPU‑оборудованием (NVIDIA CUDA, подбор видеокарт RTX/A‑серии);
понимание требований к железу для on‑premise ML (GPU, RAM, хранилище).
Будет плюсом:
опыт эксплуатации ML/LLM‑сервисов (масштабирование, SLA/SLO, отказоустойчивость);
навыки настройки monitoring/observability (Prometheus, Grafana, OpenTelemetry);
знакомство с инфраструктурой для LLM‑инференса (vLLM, TGI, Triton и др.);
опыт работы с библиотеками компьютерного зрения (OpenCV, dlib, MediaPipe);
навыки обработки видео через ffmpeg;
понимание GAN и диффузионных моделей для генерации лица и lip‑sync;
опыт квантизации моделей (ONNX Export, TensorRT, INT8/FP16);
опыт on‑premise развёртывания ML‑сервисов.
Мы предлагаем:
интересные и амбициозные задачи в сфере AI и ML;
комфортный офис в центре города и современную техническую базу.
Ждём ваши отклики!