Проводить анализ безопасности архитектуры, выявлять угрозы и уязвимости, связанные с использованием AI-агентов/LLM/GenAI во внутренних и внешних продуктах компании.
Разрабатывать требования безопасной разработки в сфере использования AI-агентов/LLM/GenAI.
Участвовать в исследованиях безопасности внедряемых ИИ-решений.
Взаимодействовать с продуктовыми командами по вопросам обеспечения безопасности продуктов и реализации требований безопасной разработки.
Моделировать угрозы безопасности приложений/сервисов и предлагать механизмы защиты.
Анализировать возможность мошеннических действий и уязвимостей в бизнес-логике приложений.
Контролировать устранение уязвимостей.
Требования:
Знание принципов работы AI-агентов/LLM/GenAI, RAG, агентских протоколов (MCP, A2A, AG-UI).
Знание уязвимостей и методов атак на веб-приложения и ИИ решения, меры защиты от них (MITRE ATT@CK, ATLAS, OWASP).
Понимание практик DevSecOps, MLSecOps.
Навыки работы с инструментами SAST, DAST, SCA/OSA, ASOC и другими.
Знание подходов по оценке уязвимостей и анализу рисков.
Опыт построения модели угроз (STRIDE, DREAD, БДУ ФСТЭК России).
Подтвержденный опыт поиска уязвимостей в веб-приложениях.
Будет плюсом:
Умение анализировать исходный код на предмет наличия уязвимостей.
Умение читать код на различных языках программирования.