Ищем специалиста, которому интересно разбираться в безопасности генеративного ИИ и который уже имеет практический опыт работы с LLM-моделями. Эта роль подойдёт не только специалистам из информационной безопасности, но и разработчикам или исследователям, увлечённым темой надёжности и защиты ИИ-систем. Вам предстоит работать с продуктами социальных платформ, помогая выявлять риски, связанные с использованием генеративных моделей, и делать их безопаснее для миллионов пользователей.
Задачи
- Разработка и внедрение архитектуры безопасности для AI/ML-инфраструктуры
- Проведение threat modeling для компонентов, связанных с генеративными моделями
- Обеспечение контроля доступа, изоляции окружений и защиты данных при обучении/инференсе моделей
- Интеграция политики безопасности в CI/CD пайплайн для сервисов с LLM
- Мониторинг безопасности и реагирование на инциденты, включая анализ аномалий, связанных с AI
- Совместная работа с OPS-командами по внедрению лучших практик безопасности (supply-chain security, secure containerization, secrets management)
Требования
- Опыт в инфраструктурной безопасности (cloud, containers, networks, IAM)
- Понимание архитектуры LLM, data pipelines, ML-инфраструктуры
- Знание современных подходов к безопасности AI (data leakage prevention, model extraction, prompt injection, poisoning)
- Владение Python или Go для автоматизации и внутренних утилит