Нижний Новгород, Советская улица, 18Б
О компании: Мы занимаемся внедрением передовых AI-решений и сейчас ищем сильного разработчика для создания и оптимизации RAG-систем (Retrieval-Augmented Generation). Нам предстоит работа над созданием «умных» корпоративных баз знаний и систем автоматизации на базе локальных и облачных языковых моделей.
Чем предстоит заниматься:
Проектирование и разработка RAG-пайплайнов: от парсинга данных до финальной генерации ответа.
Работа с LLM: интеграция и тюнинг (prompt engineering) как закрытых (OpenAI, Anthropic), так и Open Source моделей (Llama 3, Mistral, Saiga).
Оптимизация поиска: работа с векторными базами данных, внедрение гибридного поиска (BM25 + Semantic Search) и механизмов переранжирования (Reranking).
Инфраструктура: контейнеризация решений и деплой моделей в закрытых контурах.
Оценка качества: внедрение метрик для оценки релевантности поиска и точности генерации (например, RAGAS или TruLens).
Что мы ждем от тебя (Стек):
Язык: Уверенный Python 3.10+.
AI Frameworks: Опыт работы с LangChain, LlamaIndex или Haystack.
Vector Databases: Опыт работы с одной из БД (ChromaDB, Qdrant, Milvus или pgvector).
NLP: Понимание механизмов Tokenization, Embeddings, Cross-Encoders.
DevOps: Docker, Docker Compose (умение развернуть окружение самостоятельно).
Базы данных: SQL (PostgreSQL) и NoSQL.
Будет плюсом:
Опыт работы с локальным хостингом моделей (Ollama, vLLM, Text Generation Inference).
Понимание принципов работы с «тяжелым» железом (CUDA, оптимизация VRAM).
Опыт разработки агентских систем (AI Agents).
Что мы предлагаем:
Сложные задачи: Никаких типовых лендингов — только работа с острием технологий (SOTA-модели).
Профессиональный рост: Возможность экспериментировать с локальными нейросетями и строить архитектуру с нуля.
Условия: Конкурентная заработная плата (обсуждается индивидуально), гибкий график или удаленный формат работы.
Инструментарий: Мощные сервера для тестов и развертывания локальных систем.