Разрабатывать и внедрять алгоритмы захвата и сопровождения целей на бортовом компьютере (Jetson / OrangePi) в связке с двухосевым бесколлекторным подвесом;
Интегрировать систему с ArduPilot: реализовывать работу с протоколом MAVLink, обеспечивать корректную передачу команд «камера/подвес» с учётом задержек радиоканала и видеопотока;
Разворачивать и поддерживать модули распознавания объектов на основе ИИ (YOLO v8 Segmentation, собственные классификаторы на NPU), адаптировать их для работы в реальном времени;
Реализовывать цифровую стабилизацию видео на борту: оптимизировать алгоритмы под OrangePi (RK3588), добиваться стабильных 30 кадров/с в режиме реального времени;
Обеспечивать интеграцию с видеоканалом: согласовывать протоколы обмена, выстраивать полную цепочку передачи данных «дрон → радиоканал → наземный пункт управления → операторский интерфейс»;
Разрабатывать режим «клик-сопровождение», позволяющий оператору выделять цель на экране и передавать задачу на сопровождение автоматически.
Технологический стек:
C/C++, Python, Bash;
Ardupilot, MAVLink;
Arm, Mali, RKNN, OrangePi (ARM64);
OpenCV 4, GStreamer, ffmpeg;
YOLO v8, Florence_v2;
Git + GitLab, Docker, Ubuntu 20.04/22.04.
Требования:
Опыт 3+ лет в Computer Vision или embedded-проектах (желательно в робототехнике / дронах);
Уверенное владение C++ и Python (работа с многопоточностью на ARM-платформах);
Готовность самостоятельно закрывать смежные задачи: от схем протоколов до полевых тестов.
Будет плюсом:
Опыт портирования под RTOS или baremetal;
Навыки написания драйверов;
Опыт доработки прошивок и тонкой настройки Ardupilot (или готовность быстро погрузиться).
Мы предлагаем:
Полный цикл задач: идея → прототип → полётные тесты → промышленный релиз;
Официальное трудоустройство в аккредитованной IT-компании;
Работа с современным стеком технологий в области CV и embedded;