Компания AppSec Solutions - ведущий вендор в разработке и внедрении инновационных сервисов для анализа и управления уязвимостями и связанными областями кибербезопасности.
Мы ищем уникального специалиста — инженера-исследователя, который будет стоять на передовой защиты наших языковых моделей. Вы не просто будете искать уязвимости, а будете проактивно создавать сценарии атак, чтобы понять и устранить риски до того, как ими воспользуются злоумышленники. Вы — связующее звено между исследованиями, разработкой и продуктом, чья работа напрямую влияет на разработку классного продукта.
Ваши будущие задачи:
1. Исследование и разработка угроз (Red Teaming):
- Проактивное исследование новых и emerging угроз для LLM: prompt injection, jailbreaking, утечка тренировочных данных, несанкционированный доступ к инструментам (tool misuse), социальная инженерия через ИИ и т.д.
- Разработка и поддержка базы знаний сценариев атак и техник их выполнения.
- Анализ трендов в области безопасности ИИ и перевод теоретических рисков в практические тест-кейсы.
2. Разработка системы защиты (Security Scanner):
- Перевод исследованных сценариев угроз в конкретные требования и спецификации для нашей системы сканирования безопасности (LLM Security Scanner).
- Разработка эмуляции атак: prompt-injection, jailbreak, command/SSRF через LLM, adversarial-примеры, backdoor, data/model inversion, membership inference, model stealing, agent security.
- Формирование сценариев по MITRE ATLAS/Adversarial ML Threat Matrix и OWASP Top 10 for LLM; регламенты тестирования и сквозные проверки по жизненному циклу моделей.
- Тесная работа с ML-инженерами и разработчиками по внедрению детекторов и механизмов защиты.
- Участие в проектировании архитектуры сканера, валидация эффективности предлагаемых решений.
3. Техническое лидерство и пресейлы:
- Техлид: Лидирование в разработке ключевых компонентов сканера, код-ревью, наставничество команды.
- Пресейлы: Участие в ключевых коммерческих переговорах в качестве технического эксперта. Вы будете доносить ценность нашего подхода к безопасности до потенциальных клиентов и партнеров, проводя демонстрации и отвечая на сложные технические вопросы.
Мы ищем специалиста, который:
- Имеет опыт в безопасности приложений (Application Security) и/или практический опыт в Red Team / Penetration Testing.
- Понимает архитектуру и принципы работы больших языковых моделей (LLM), их слабые и сильные стороны.
- Обладает глубоким интересом к сфере AI Safety & Security, следит за последними исследованиями (например, по материалам OWASP LLM Top 10, Anthropic, OpenAI).
- Имеет опыт программирования на Python и знаком с фреймворками для ML (например, LangChain, LlamaIndex).
- Обладает отличными коммуникативными навыками: может ясно объяснить сложные технические концепции как разработчикам, так и нетехнической аудитории (менеджеры, клиенты).
- (Будет плюсом) Имеет опыт публичных выступлений, проведения воркшопов или написания технических статей.
Мы предлагаем:
- уникальную возможность сформировать новое направление безопасности в одной из самых быстрорастущих областей;
- работу на стыке исследований, разработки и бизнеса — вы будете видеть полный цикл от идеи до ее воплощения и демонстрации клиентам;
- сильную и мотивированную команду;
- конкурентоспособный уровень вознаграждения;
- возможность реализовывать свой потенциал вне проектов: мы организуем митапы и конференции, на которых выступают наши сотрудники, приглашаем тренеров для спикеров, развиваем профессиональные комьюнити;
- гибкий график работы;
- ДМС со стоматологией после успешного прохождения испытательного срока;
- локация: Москва (возможна постоянная удаленная работа).