Наша команда строит и дообучает линейку LLM под банковские сценарии и запускает модели в пром в "жёстких" контурах: локальные устройства / закрытые контуры / строгие SLA по задержкам.
Работа включает полный цикл: данные → дообучение → оценка качества → оптимизация инференса → нагрузочное тестирование → внедрение.
• дообучение LLM под конкретные, прикладные банковские задачи (instruction-tuning, adapters/LoRA, SFT; при необходимости alignment-подходы)
• разработка и оптимизация AI-агентов и сложных RAG-пайплайнов (LangChain / LlamaIndex / LangGraph и аналоги): маршрутизация, инструменты, память, ранжирование, мульти-источники
• построение и улучшение пайплайнов инференса под заданные требования latency / throughput / cost-to-inference (батчинг, KV-cache, спекулятивные подходы, профилирование)
• оптимизация исполнения моделей под конкретное железо и контур исполнения (выбор архитектуры, ускорение узких мест, Triton/CUDA-ориентированные улучшения при необходимости)
• проведение НТ (нагрузочного тестирования) и перформанс-валидации: методология тестов, сценарии, метрики, воспроизводимость, выводы и отчеты
• сбор и подготовка данных для дообучения: постановка требований к датасетам, стратегия сбора и разметки, генерация синтетики там, где уместно, контроль качества данных
• разработка метрик качества и системы оценки (golden set, пайплайна автоматической оценки + ручная разметка, регрессия качества, сравнение версий, ведение отчетности)
• упаковка модели в сервисы / SDK, интеграция с внутренними APi/базами знаний, совместная работа с инженерами платформы и продуктом до вывода в продакшн.
Будет плюсом:
Азиатско-Тихоокеанский Банк
Москва
до 400000 RUR