Мы занимаемся pretrain'ом больших языковых моделей в GigaChat: проектируем архитектуру, подбираем рецепт обучения и поддерживаем весь инженерный контур вокруг него.
Недавно мы обучили MoE-модель на 700 миллиардов параметров — и на этом не собираемся останавливаться. Обучение идёт на кластерах H100 и B200. GigaChat — самый быстрорастущий проект Сбера, и pretrain — его ядро.
Чем занимается команда:
- архитектура и законы масштабирования;
- рецепт обучения: оптимизатор, расписание lr, нормализации, точность вычислений;
- устойчивость больших прогонов и ускорение сходимости;
- диагностика обучения, оценка изменений с опорой на математический аппарат;
- инженерный контур: воспроизводимость, тесты, CI/CD.
Роль с акцентом на модель, оптимизацию и инфраструктуру обучения, а не на данные. Главное — делать обучение быстрее, надёжнее и предсказуемее.
Какие задачи стоят перед командой
На этой роли важно не просто запускать эксперименты, а улучшать сам процесс обучения.
Ускорить цикл «идея → эксперимент → вывод → внедрение».
Меньше ручных прогонов, меньше неочевидных сбоев, больше воспроизводимости и понятных выводов.
Повысить надёжность больших прогонов.
Раньше ловить деградации и отличать реальные улучшения от ложных сигналов: расхождение, NaN'ы, коллапс энтропии, артефакты маршрутизации, обманчивое снижение функции потерь.
Сделать крупные архитектурные изменения безопасными при масштабировании.
В первую очередь это касается смеси экспертов и маршрутизации: нужно понимать, как они влияют на качество, стабильность и скорость, и какие метрики должны это отражать.
Почему мы:
Чем предстоит заниматься
Взять на себя целое направление внутри pretrain'а и развивать его: от постановки задач и планирования экспериментов до внедрения результатов в основное обучение.
Проектировать и проводить эксперименты: формулировать гипотезы, запускать абляции, сравнивать подходы, разбираться в результатах и превращать выводы в решения для основного обучения.
Разбираться с нестабильностью на больших прогонах: искать причины деградаций, строить диагностические метрики, предлагать изменения в оптимизаторе, расписании lr, нормализациях, инициализации, клиппинге, точности вычислений и маршрутизации.
Работать с архитектурой смеси экспертов (MoE): маршрутизатор, балансировка нагрузки, переполнение, артефакты маршрутизации, влияние на качество и производительность.
Поддерживать большие прогоны и продолжения обучения с чекпоинтов: следить за дрейфом, проверять изменения в коде и конфигурации, снижать риск регрессий.
Улучшать инженерное качество контура обучения: ревью критичных изменений, стратегия тестирования, воспроизводимость экспериментов, профилирование и устранение узких мест.
Глубокое понимание устройства обучения нейросетей: не на уровне обзоров и пересказов, а на уровне, где вы можете объяснить, почему конкретный прогон расходится, глядя на кривые функции потерь, нормы градиентов и энтропии.
Способность самостоятельно взять направление и довести его до результата: от чтения статей и постановки гипотез до внедрения в основной трейн.
Практический опыт с PyTorch и именно с обучением моделей, а не только с инференсом.
Умение доводить исследовательские идеи до надёжного инженерного решения: воспроизводимость, конфиги, тесты, автоматизация, понятные критерии качества.
Хорошую инженерную культуру: аккуратные PR, профилирование, внимание к качеству кода, понятные отчёты об экспериментах.
Будет плюсом