Проект:
Мы создаём корпоративную платформу для работы с большими языковыми моделями (LLM), которая должна обеспечивать удобное и безопасное использование ИИ-сервисов внутри компании. Наша цель - предоставить командам готовую инфраструктуру для запуска и эксплуатации моделей, снизить издержки на поддержку и сделать использование вычислительных ресурсов максимально прозрачным и управляемым.
Ищем ключевого инженера, который свяжет команды Data Science и инфраструктуру: автоматизирует процесс развёртывания LLM, построит систему мониторинга и логирования, внедрит метрики стоимости и эффективности использования GPU/CPU ресурсов.
Чем предстоит заниматься:
- Участием в развитии и настройке CI/CD для ML-решений
- Упрощением и автоматизацией процессов разработки, тестирования и деплоя ML-моделей
- Участием в развитии архитектуры и проектированием функциональности
- Управлением конфигурацией серверов
- Участием в развитии систем мониторинга
Мы ожидаем:
- Опыт в ML от 3-х лет, в т.ч. в MLOps от полугода
- Опыт автоматизации CI/CD для ML-моделей (ArgoCD, Kubeflow, MLflow)
- Глубокие знания Linux, Docker, Git, Ansible
- Опыт разработки на уровне написания скриптов для автоматизации (Python, Java и т.д)
- Опыт работы с CI/CD инструментами (Bamboo, Jenkins, Teamcity, Gitlab и т.д.)
- Понимание специфики развёртывания и эксплуатации LLM-моделей
Будет здорово, если:
- У тебя есть опыт работы с GPU-кластером: планированием, профилированием нагрузки, мониторингом VRAM
-
У тебя есть опыт работы c Nexus, ELK, Prometheus, Grafana, Kubernetes
Мы предлагаем:
- Оформление согласно ТК РФ
- Достойный уровень заработной платы + премии
- График работы: 5/2
- Социальный пакет: ДМС со стоматологией, телемедицина, полис для выезжающих за рубеж, страхование от несчастных случаев и рисковых заболеваний, доплата по больничным листам до 20 дней в году, частичная компенсация затрат на покупку путевок в летний детский лагерь, материальная помощь в особых случаях
- Комфортный офис на ст.м. Римская (БЦ «Голден Гейт»): зоны отдыха, кухни с чаем, кофе и снеками