Казань, Петербургская улица, 52
Метро: АметьевоМы запускаем новое направление на стыке кибербезопасности и искусственного интеллекта.
Наша цель — сформировать архитектуру и подходы к безопасности LLM-агентов и систем на базе MCP/ACP-протоколов, чтобы компании могли безопасно использовать искусственный интеллект, не опасаясь утечек данных, prompt injection и несанкционированных действий моделей.
Мы верим, что ближайшие 3–5 лет сформируют новый рынок — AI Security (или AI-Sec) — и хотим стать одной из команд, которые создадут стандарты и инструменты в этой области в России.
Сейчас мы ищем исследователя с техническим мышлением в небольшую исследовательскую команду, работающую в формате R&D-лаборатории:
быстрые обсуждения, короткие итерации, прототипы на коленке, тестирование гипотез — и снова по кругу,
изучать угрозы и уязвимости ИИ,
разрабатывать внутренние прототипы защиты,
участвовать в создании базового ядра будущего продукта.
Мы ищем человека, который хочет не просто “изучать ИИ”, а влиять на то, каким он будет безопасным.
Обязанности:Исследовать актуальные векторы атак на LLM и агентные системы — от data poisoning и jailbreak до privilege escalation.
Разрабатывать и тестировать минимальные прототипы защитных решений (фильтры, MCP-прокси, sandbox-вставки, политики безопасности).
Анализировать международные фреймворки (NIST AI RMF, ISO 42001, AI TRiSM) и искать, как адаптировать их к российской практике.
Участвовать в быстрых циклах гипотез: придумали идею → описали → собрали MVP → протестировали → обсудили выводы.
Вести аналитические заметки, документацию и short reports по проведённым экспериментам.
Базовое понимание кибербезопасности (OWASP, zero-trust, безопасная разработка, шифрование).
Технический бэкграунд: Python, FastAPI или другой язык прототипирования.
Опыт работы с LLM API (OpenAI, Anthropic, VK Cloud, YandexGPT) или фреймворками LangChain / LlamaIndex.
Умение мыслить исследовательски: задавать вопросы, проверять гипотезы, искать закономерности.
Готовность работать в гибкой, живой среде, где важнее скорость итераций, чем идеальность.
Участие в CTF, red-teaming или AI jailbreak-тестах.
Понимание threat modeling (STRIDE, DREAD, MITRE ATLAS).
Опыт визуализации архитектур (Mermaid, draw.io, diagrams).
Понимание стандартов compliance (ФСТЭК, ГОСТ 57580, ISO 27001).
Участие в создании первых отечественных решений по безопасности ИИ.
Формат малой исследовательской команды: минимум бюрократии, максимум идей и экспериментов.
Возможность влиять на архитектуру, стратегию и продукт с нуля.
Гибкий формат (удалённо, частичная занятость, проектная работа).
Потенциал роста до роли Lead Researcher / AI Security Architect.
Среду, где ценится не должность, а инициатива, скорость и любопытство.
Работа с ведущими компаниями России, кто внерднеяет ИИ.
🤝 Как мы работаем внутри
Мы действуем по принципу “быстрых циклов”: короткие синки, быстрые решения, ежедневные апдейты.
Используем лёгкие инструменты — Notion / Miro / Slack / Git / LLM sandboxes.
Каждый участник имеет реальное влияние: можно предлагать гипотезы, спорить, менять архитектуру, запускать тесты.
Главная ценность — интеллектуальная честность и темп: мы не боимся ошибок, боимся тянуть время.
📫 Как откликнуться
Отправь резюме или просто короткое сообщение: кто ты, чем занимался и почему тебе близка тема безопасности ИИ.
Мы вдумчиво ответим всем, кто пишет вдумчиво.