О проекте
Мы разрабатываем приложения для работы с LLM (Large Language Models) — от локального запуска и тестирования до создания инструментов анализа и автоматизации. Наша цель — построить эффективную платформу для бенчмаркинга и применения моделей на реальных датасетах. Ищем инженера-программиста, который будет участвовать в развитии backend-логики инфраструктуры и LLM-инструментов.
Чем предстоит заниматься:
- Поддержка и развитие текущих веб-проектов на Python (FastAPI, Flask или Django)
- Проведение бенчмарков нейросетевых моделей: запуск, сравнение, оценка качества ответов, метрик, скорости и потребления памяти
- Обработка и подготовка датасетов для тестирования LLM
- Автоматизация процессов с помощью Ansible и bash-скриптов
- Настройка и поддержка CI/CD через GitLab Runner
- Работа с Git, merge requests, ревью кода
- Взаимодействие с командой: обсуждение архитектуры, тестирование гипотез, внедрение улучшений
Требования: - Опыт написания программ на Python
- Владение Linux (Ubuntu/Debian): файловая система, процессы, права, сеть
- Умение писать базовые bash-скрипты
- Опыт работы с Git и понимание workflow (ветки, merge requests, ревью)
- Английский язык — на уровне чтения технической документации
- Активное использование LLM в повседневной работе — например, ChatGPT, Grok, Qwen, Deepseek, Claude, Gemini. Мы ценим, если вы применяете ИИ для написания кода, отладки, генерации тестов или анализа данных.
Будет большим плюсом:
- Опыт работы с LLM: запуск, fine-tuning, оценка, RAG, инференс
- Знакомство с Hugging Face, Transformers, vLLM, ollama, llama.cpp
- Опыт обработки и анализа текстовых датасетов
- Понимание Ansible — для автоматизации развёртывания
- Опыт настройки и поддержки CI/CD на GitLab Runner
- Знание Docker и опыт работы с GPU (CUDA)
- Опыт с Vue.js
- Знание Java или Golang — для расширения стека
- Навыки документирования кода и процессов
Мы предлагаем: - Участие в реальном LLM проекте
- Работу с современными моделями и интересными задачами (агенты, бенчмарки, автоматизация)
- Получение опыта работы с мощным GPU-сервером