Position: Data Engineer
Level: Senior
Experience: 8+ лет (НЕ фриланс)
Stack: Python, PostgreSQL, SQL, ETL, Data Modeling, Airbyte, AWS, GCP, Amazon SageMaker, GCP Vertex, Triton Inference Server, Kubernetes (K8S), Docker, Git
Location: Remote / удаленно
Employment: Fulltime / полная
Languages: English B2+
КОГО ИЩЕМ:
Нам нужен человек с высокой автономностью: берёт задачу и возвращается с работающим решением. Готов решать сложные нестандартные задачи. Общение в команде на английском языке.
КТО НЕ ПОДОЙДЁТ:
- Кандидаты с преобладающим или последним опытом в роли технических менеджеров: Team Lead, CTO и т.п. – это нерелевантный данной позиции опыт работы. Мы ищем «рабочие руки», а НЕ технического менеджера.
- Кандидаты, которые ищут себе вторую работу или с желанием создавать иллюзию работы. У нас команда маленькая, все всё видят. Нужен честный фултайм.
- Кандидаты с преобладающим или последним опытом работы на фрилансе или в аутсорсинг-компаниях.
ЗАДАЧИ:
- Integrate and Scale: Extend, scale, monitor, and manage our ever-growing pile of 100s of integrations. Ensure they are reliable and responsive.
- Own the Integrations: Implement new connections and be the master and owner of these integrations.
- Optimize AI Pipelines: Ensure our AI pipeline works like clockwork. Improve and support its complex infrastructure.
- Model Hosting and Monitoring: Host and monitor NLP models and LLM for real-time and batch inference.
- Develop Monitoring Systems: Create and support robust models for monitoring.
- Support and Innovate: Assist with a long tail of super important tasks, bringing innovative solutions to the table.
МЫ ОЖИДАЕМ:
- Практический опыт работы от 8 лет с машинным обучением, включая классификацию, кластеризацию, прогнозирование временных рядов и обнаружение аномалий. Необходимо знать концепции и уметь работать с наиболее распространенными библиотеками.
- Опыт работы с Python и опыт создания и мониторинга производственных сервисов или API от 6 лет. Опыт работы с API сторонних разработчиков обязателен.
- Конвейерная обработка данных: опыт работы с SQL, ETL, моделированием данных. Опыт работы с жизненным циклом создания решений машинного обучения.
- Опыт работы с инфраструктурой AI на AWS и GCP, включая Sagemaker, Vertex, Triton и вычисления на графических процессорах.
- Общий опыт работы с AWS и GCP от 5 лет.
- Опыт работы с Amazon SageMaker от 1 года.
- Опыт работы с GCP Vertex от 1 года.
- Опыт работы с Triton Inference Server от 1 года.
- Опыт работы с Kubernetes (K8S) от 3 лет.
- Опыт работы с Docker от 5 лет.
- Опыт работы с Airbyte от 1 года.
- РАЗГОВОРНЫЙ английский язык на уровне B2+ (команда преимущественно англоязычная).
- Конкурентоспособную заработную плату.
- Полностью remote.
- Гибкий график работы.
- Работа в продуктовой компании.