Мы — продуктовая команда, делаем приложения для конечных пользователей и активно используем ML. Растём быстро: любим новые технологии, но понимаем, что результат — это ещё и регулярная “рутинная” инженерная работа.
Сейчас у нас 10 продуктов дающие порядка 1 000 000 установок ежемесячно:
Saby — Baby monitor
Visory — Security camera
Imgit — AI art generator
Мы находимся в Испании, работать можно удалённо из любой точки мира, в удобное время. Важен результат и ответственность.
Твоя основная миссия — построить и поддерживать надёжный пайплайн массового сбора отзывов/комментариев из:
Reddit (посты + треды комментариев, поиск по сабреддитам/ключевым словам, фильтры по времени/популярности)
Trustpilot (страницы компаний/продуктов, отзывы, рейтинги, метаданные)
Дальше эти данные будут использоваться, чтобы:
выделять боли пользователей в существующих приложениях/сервисах
находить ниши, где мы можем быстро делать MVP и забирать спрос
Разработка парсеров и/или интеграций с API (где возможно) для Reddit и Trustpilot
Массовый сбор данных: миллионы сущностей (посты/комменты/отзывы) с контролем качества
Нормализация данных: единые схемы, дедупликация, языковые поля, таймстемпы, ссылки на источники
Построение пайплайна: планировщик, очереди, ретраи, обработка ошибок, мониторинг
Антифрод/антибан устойчивость: лимиты, ротации, корректное соблюдение правил платформ
Экспорт в хранилище (SQL/NoSQL/BigQuery/S3 — выберем оптимально)
Базовые аналитические выгрузки для продукта/ресерча: “топ-боли”, частотность, кластеры по темам (можно совместно с ML)
Умеешь самостоятельно доводить задачу до работающей системы, а не “скрипта на один запуск”
Любишь копаться в данных и строить системы сбора “под нагрузку”
Понимаешь, что парсер = продукт, которому нужны тесты, мониторинг и поддержка
Ок с удалёнкой и работой на результат (без микроменеджмента)
Опыт разработки парсеров / скрейперов / data ingestion систем в проде для Reddit или Trustpilot
Умение проектировать устойчивый сбор данных:
rate limits, backoff/retry, очереди, таймауты, прокси/ротации (если нужно)
восстановление после падений, идемпотентность, дедупликация
Умение работать с:
HTTP, cookies/sessions, pagination, динамическими страницами
парсингом HTML (CSS selectors/XPath) и JSON
Знание одного из стеков:
Python или Node.js
Умение писать понятный код, покрывать критичное тестами и логами
Опыт построения ETL:
Airflow/Prefect/Temporal
Kafka/RabbitMQ/SQS
Опыт с хранилищами и аналитикой:
Postgres, ClickHouse, BigQuery, Elasticsearch
Опыт с NLP-задачами “pain mining”:
тематическое моделирование, кластеризация, embeddings
Reddit: сбор по списку сабреддитов и ключевиков, треды комментариев, обновления “инкрементально”
Trustpilot: сбор отзывов по списку компаний/категорий, стабильная пагинация, контроль пропусков
Хранилище + схема + базовая витрина данных
Метрики: сколько собрано, процент ошибок, пропуски/дубликаты, скорость
Удалённая работа, фулл-тайм, гибкий график
Чёткие задачи и ожидаемый результат, адекватная оценка времени
Интересные задачи на стыке данных, автоматизации и продуктового ресерча
Официальное оформление