Смарт Телеком — один из крупнейших универсальных операторов Санкт-Петербурга, входящий в пятерку лидеров. В масштабах России компания входит в 30 телекоммуникационных организаций.
С 1996 года помогаем бизнесу строить надежные коммуникации: от интернета и связи до интегрированных решений. Доверие тысяч клиентов — наш главный актив.
Текущий проект на базе искусственного интеллекта — голосовые AI-ассистенты с автоматизацией.
О проекте
Разработка микросервиса потокового синтеза речи (TTS) для голосовых ассистентов на базе NVIDIA Triton Inference Server и модели синтеза голоса.
Критически важные навыки:
1. NVIDIA Triton Inference Server
- Опыт развертывания и настройки Triton Inference Server
- Понимание model repository, config.pbtxt
- Работа с dynamic batching, model instances
- Знание backend'ов (PyTorch, ONNX, TensorRT)
- Это основной компонент проекта!
2. Python (3.10+)
- Опыт разработки на Python от 3 лет
- Asyncio и асинхронное программирование
- Работа с PyTorch моделями
- FastAPI
3. gRPC
- Опыт разработки gRPC сервисов на Python
- Понимание protobuf
- Работа со streaming (server-side streaming)
- Интеграция с Triton через gRPC
- Основной протокол взаимодействия!
4. ML/AI базовые знания:
- Понимание работы нейронных сетей
- Опыт работы с PyTorch
- Базовое понимание TTS (Text-to-Speech) или обработки аудио
5. Docker & Linux:
- Опыт работы с Docker
- Уверенное владение Linux
- Понимание работы GPU в контейнерах (nvidia-docker)
7. Git:
- Опыт работы с Git/GitLab
- Понимание Git Flow или аналогичных workflow
Желательные навыки (nice to have)
- Опыт работы с моделями синтеза речи (VITS, Tacotron)
- Voice cloning / speaker embeddings
- Prometheus, Grafana (мониторинг)
- Опыт оптимизации inference (TensorRT, ONNX)
- Опыт работы с high-load системами
Задачи на проекте
- Развертывание Triton Inference Server
- Разработка Python микросервиса
- Оптимизация производительности
- Запуск в тестовую эксплуатацию
Технологический стек
Backend:
- Python 3.10+
- NVIDIA Triton Inference Server
- gRPC (primary protocol)
- PyTorch
Infrastructure:
- Docker
- GPU: NVIDIA RTX 5090 (32 GB VRAM)
- Linux (Ubuntu 26)
- GitLab (VPN доступ)
Что мы предоставляем
Детальную техническую спецификацию проекта
Доступ к GitLab по VPN
Доступ к серверу с GPU для разработки и тестирования
Поддержку и консультации по бизнес-логике
Четкие критерии приемки
Результат проекта
MVP включает:
- Рабочий микросервис TTS с потоковым синтезом
- Поддержка русского и английского языков
- Система клонирования голосов
- Graceful reload механизм
- Мониторинг и метрики
- Документация (техническая + эксплуатационная)
- Покрытие тестами
После MVP:
- Обсуждаем условия постоянного сопровождения
- Возможность участия в развитии проекта
- Долгосрочное сотрудничество
Как откликнуться
Отправьте в отклике
-
Резюме с описанием опыта работы с:
- NVIDIA Triton Inference Server (обязательно!)
- gRPC на Python (обязательно!)
-
Примеры проектов:
- GitHub/GitLab репозитории
- Описание проектов с Triton/gRPC
- Портфолио (если есть)
-
Ваши ожидания:
- Ваша вилка по проекту
- Доступность (когда можете начать)
-
Краткое сопроводительное письмо:
- Почему вам интересен проект
- Релевантный опыт
- Вопросы по проекту (если есть)