Москва
Метро: Библиотека им.ЛенинаМы создаем AI-продукт про питание и образ жизни без давления и крайностей.
Это не просто трекер, а внимательный AI-ассистент, который учитывает контекст и поведение пользователя.
Мы на стадии запуска MVP и ищем инженера, который поможет сделать систему стабильной, умной и масштабируемой.
Ищем сильного инженера на part-time (с перспективой full-time) для поддержки и развития существующего бэкенда
(FastAPI, asyncpg, Redis, WebSocket).
Задачи
Стабилизация медиа-флоу (upload, S3, кэш).
Участие в улучшении авторизации, лимитов и мониторинга.
Разработка новых фич.
Поддержка фронтенда (React/Vite, CometChat UI Kit).
Диагностика и исправление инцидентов и регрессий.
Обязательные требования
Опыт интеграции с LLM-провайдерами (AWS Bedrock, Anthropic, OpenAI или аналогичные).
Отличное понимание принципов работы LLM: токены, контекст, температура, лимиты, cost-control.
Опыт с AI-врапперами/оркестраторами, tool calling, guardrails.
Навыки дебага LLM-поведения и оптимизации prompt-стека.
Python 3, FastAPI, асинхронное программирование.
PostgreSQL, понимание схем и оптимизации запросов.
Redis, WebSocket-коммуникации.
Опыт работы с S3-совместимыми хранилищами.
Умение читать и поддерживать React/TypeScript код.
Docker / Docker Compose.
Желательно
Опыт с очередями задач (Celery / RQ / Arq).
Наблюдаемость (Prometheus / OpenTelemetry, логирование).
Опыт поддержки SDK-совместимых API/клиентов.
Что важно в работе
Высокая степень самостоятельности и технический кругозор.
Умение работать в команде, быть на связи и присутствовать на коротких ежедневных синках (≈15 минут).
Умение работать с техническим долгом и приоритизацией.
Чёткое документирование технических решений.
Будет большим плюсом: знание React Native, опыт выпуска релизов в App Store / Google Play и ведения релизного цикла.
Будем признательны за короткое сопроводительное письмо с ответом на вопрос ниже - это поможет нам быстрее рассмотреть ваш отклик.
С какими LLM вы работали и какой самый сложный или интересный кейс у вас был?